苹果炮轰AI推理遭打脸,GitHub大佬神怒怼,复杂任务≠推理能力

日期:2025-06-09 20:14:47 / 人气:5

"最近,苹果再次发文指出LLM推理的根本缺陷。相关解读,一夜刷屏。然而,GitHub高级软件工程师怒不可遏,怒斥相关「流言」。
  最近,苹果公司发表了预印本论文,指出推理大模型存在重大缺陷。
  昨天,Ruben Hassid发布了相关解读的X帖子,认为这是项突破性研究:
  苹果证明了Claude等AI推理模型,根本不会思考。
  这种解读在社交平台上广泛传播,浏览量已超过1000万,且仍在持续增长。
  
  但这种解读翻车了!
  在Reddit和黑客新闻,网友纷纷表示论文争议太大。
  
  
  
  
  
  GitHub高级工程师Sean Goedecke,对该论文持保留态度,尽管他也认为语言模型不是通往超级智能(ASI)的理想路径。
  最直接的例证是:当用DeepSeek-V3测试时,模型直接拒绝了要执行上千步的谜题推演
  ——这并非推理能力崩溃,反而说明模型具备对自身能力边界的认知!
  
  值得注意的是,「深度学习三巨头」Yoshua Bengio的兄弟Samy Bengio也参与了这次的研究。
  虽然Samy没有获得图灵奖,声望不及Yoshua,但其在谷歌学术上的引用次数已超过九万次,是Jeff Dean等知名学者的合作者。
  
  这也不是苹果第一次指出LLM推理有问题,但这次在各大社交平台上得到了广泛传播。
  
  
  
  那么苹果的新论文到底展示了什么?我们又该如何看待语言模型?
  要理解这场争议的核心,我们先看看苹果论文到底说了什么。
  苹果到底说了什么?
  这篇论文开篇就提出,在数学和编程基准测试中,大家不要太在意推理模型的表现,因为:
  (a)这些基准测试存在污染;
  (b)在数学和编程任务上,无法运行高质量实验,因为这些任务缺乏简明的复杂度量标准。
  因此,苹果的研究团队选择使用四种人工谜题(puzzle)环境(汉诺塔的变体),再次评估了推理模型,难度从最简单的单盘汉诺塔逐步上升到二十盘汉诺塔。
  
  汉诺塔(Tower of Hanoi)是根据一个传说形成的数学问题:
  有三根杆子A,B,C。A杆上有N个(N>1)穿孔圆盘,盘的尺寸由下到上依次变小。
  要求按下列规则将所有圆盘移至C杆:
  (1)每次只能移动一个圆盘;
  (2)大盘不能叠在小盘上面。可将圆盘临时置于B杆,也可将从A杆移出的圆盘重新移回A杆,但都必须遵循上述两条规则。
  问题为:应该以何种方式移动?最少要移动多少次?
  例如,他们对比了非推理模型DeepSeek-V3与推理模型DeepSeek-R1:
  
  这个对比模式在所有推理/非推理模型对、以及所有谜题任务中基本一致。
  论文得出以下几个核心结论:
  对非常简单的谜题,非推理模型表现相当甚至更好,因为推理模型有时会「想太多」而导致错误。
  对中等难度的谜题,推理模型明显更强。
  一旦任务复杂度足够高,即使是推理模型也无法给出正确答案,不管你给它多长时间。
  接下来,论文分析了推理模型的内部思维轨迹,验证了上述结论:
  在简单问题中,正确答案几乎立刻出现;
  在中等问题中,需要更多推理步骤;
  而在最困难的问题中,则根本不会出现。
  论文还指出,随着问题复杂度增加,一旦模型无法解决问题,开始「躺平摸鱼」:
  模型不会继续投入更多token来解题,而是直接「放弃」,停止推理。
  最后,论文尝试直接将正确的谜题求解算法输入模型,期望这能提高其推理能力。
  结果只是「有一点用」:部分模型可以多解出一个盘,但整体效果并不显著。
  总结来看,该论文得出以下结论:
  推理模型存在复杂度「天花板」,一旦超出,性能明显下降。
  推理模型可能存在「内在计算扩展上限」,证据是:模型在达到一定复杂度时,会选择放弃。
  推理模型不擅长计算性任务,因为即使将算法直接给它们,也没用。
  这样理解:不对
  对苹果的这篇论文,Sean Goedecke有三大质疑:
  首先,汉诺塔这类谜题不是判断「推理能力」的好例子;
  其次,推理模型的复杂性阈值,不一定是固定的;
  最后,存在复杂度阈值≠模型「并不真正具备推理能力」。
  
  谜题不是好例子
  相比数学和编程,汉诺塔是一个更糟糕的推理测试案例。
  如果担心数学和编程基准测试存在训练数据污染,那为何选择训练数据中存在解法的知名谜题?
  
  这是Sean Goedecke对论文最主要的不满。
  论文却得出结论「给模型提供解法,也没有提高效果」。
  这件事让他感到惊讶:
  汉诺塔算法在模型训练数据中反复出现。
  所以,给模型算法帮助当然不大——
  模型早已经知道算法是什么了!
  另外,推理模型是有针对性地被训练用于数学和编程任务的,而不是用于谜题。
  也许谜题在某种程度上可以代表推理能力,但也可能根本不相关。
  从另一个角度,他完全可以相信:模型在处理数学题或写代码时具备更完善的内部工具链,而不具备用于谜题的工具。
  用谜题来测推理能力,等同于说「GPT-3.5之后,写彼特拉克式十四行诗没有明显进步,所以语言模型并没真正取得进展」。
  
  彼得拉克式十四行,又称意大利十四行诗。诗标准意式十四行诗由14个十一音节诗行组成,分为前后两部分:前八行(octave)与后六行(sestet)
  汉诺塔确实比数学问题更容易缩放复杂度,但正因为这个原因就选它,给人一种「路灯效应」的感觉
  ——不是因为它最好,而是因为它最方便。
  
  路灯效应,指人们倾向于只在最容易寻找的地方进行搜索
  复杂度阈值未必固定
  假设语言模型在超过一定复杂性点后确实会放弃,就像它们在超过十个盘子的汉诺塔时一样。
  换言之,假设之前对谜题作为测试例子的质疑是错误的,而苹果的论文确实具有普适性。
  那么,这是否意味着模型无法处理超出某一复杂度的问题?
  Sean Goedecke将苹果论文中的一些提示词输入DeepSeek-R1,以下是简化版的推理轨迹开头:
  好的,我需要解一个有10个盘的汉诺塔问题。
  让我思考如何处理这个问题。我记得经典解法是递归步骤……
  n个盘的标准解法需要2^n-1步。对于10个盘是1023步。但手动列出每一步几乎不可能。
  所以我需要一种系统化方法来逐步列出每一步。让我回忆一下汉诺塔的迭代解法……
  请注意,模型立即决定「手动生成所有这些步骤是不可能的」,因为这需要跟踪上千个步骤。
  于是它开始寻找「聪明的捷径」,但最终失败。
  这里的关键见解是,超过一定复杂性阈值后,模型决定有太多的步骤需要推理,于是开始寻找巧妙的捷径。
  模型所面对的任务其实已悄然转变:从「逐步推理完成」变为「发明一种能跳过推理的通用方案」。
  从测试来看,即使在较低的盘子数量下,DeepSeek-R1也会抱怨几句,说「这会很繁琐」,即使你明确要求它逐步列出解法。
  这是可以理解的:推理模型是为推理而训练的,不是为执行数千次机械步骤而训练的。
  那么,对于汉诺塔谜题来说,真的存在复杂性阈值吗?
  实际上,大家并不知道模型是否能够坚持完成千步序列。
  我们所知道的是,模型不想这样做。
  顺带一提,这也解释了一个「奇怪」的发现:
  当问题变得更难时,模型使用的推理token反而减少。
  因为任务如果只需几十步,它会积极推理;如果需要几百甚至上千步,它就选择放弃。
  注意:Sean Goedecke没有访问其他推理模型轨迹的权限——
  如果它们表现不同,那么他愿意承认在这个观点上他是错误的。
  复杂任务失败≠0推理能力
  假设到目前为止的一切都是错误的:
  谜题真的是测试推理的好例子,推理模型真的有个固定的复杂性阈值。
  这是否意味着模型不能推理?
  当然,这并不意味着模型不能推理!
  当然不是!
  看到网络上的一些热评,Sean Goedecke情难自禁,简直要疯了。
  多少人能真正坐下来,准确写出一千步的汉诺塔解法?
  肯定有一些人可以,但也有很多人完全不行。
  我们会因此说那些人「不具备推理能力」吗?
  当然不会!
  他们只是缺乏足够的耐心与专注,从而无法做到手动执行一千次算法而已。
  即便只能推理到第十步,未能完成第十一步,也依然体现了推理能力。
  能推理三步,也依然是推理,哪怕你无法看清第四步。
  这也许不是「超人级」的推理,但绝对属于人类推理能力。
  严格说来,这对论文可能不太公平——
  它本身并没有明确说模型「根本不能推理」(除非你把标题当真)。
  然而,互联网上这么说的人太多了,所以他认为值得讨论一下。
  总结
  苹果的论文《思维的幻觉》,不是特别好。
  Sean Goedecke的主要反对意见是,他不认为推理模型像论文暗示的那样不擅长这些谜题:
  从我自己的测试来看,模型早早决定几百个算法步骤太多,甚至不值得尝试,所以它们拒绝开始。
  你不能比较八盘汉诺塔和十盘汉诺塔,因为你比较的是「模型能否完成算法」和「模型能否想出一个避免完成算法的解决方案」。
  更加一般性地,他不相信谜题是评估推理能力的好试验场,因为
  (a)它们不是人工智能实验室的重点领域,
  (b)它们需要像计算机一样遵循算法,而不是需要解决数学问题的那种推理。
  Sean Goedecke认为,推理模型并非像论文暗示的那样不擅长这类谜题。
  在他的测试中,模型在面对上百步算法时,往往主动放弃,而非能力崩溃。
  他强调,放弃并不意味着无法推理——
  就像人类在面对高度重复、枯燥任务时也可能选择中止。
  这种行为更多体现的是认知边界,而非思维能力的缺失。
  因此,他不认同将「未完成复杂任务」等同于「不具备推理能力」的观点。
  这篇论文并非一无是处,Sean Goedecke认为它有下列亮点:
  推理模型在简单问题上有时会「想太多」,表现不如非推理模型,这一点很有趣;
  模型在长算法执行过程中「放弃」的现象也很有意思,尽管它可能并不能很好地说明其普遍推理能力;
  他喜欢「问题三阶段」这一观点:简单、中等可推理、以及复杂到模型会放弃的阶段。如果某种模型可以被训练成「永不放弃」,那将非常有趣。
  无论如何,苹果的研究提供了重要提醒:
  当前语言模型的推理能力远非「通用智能」。
  那么,该如何定义「推理」?
  又如何测试「思维」?
  这可能是下一代AI必须直面的核心问题。
  参考资料: 
  https://www.seangoedecke.com/illusion-of-thinking/ 
  https://www.linkedin.com/feed/update/urn:li:activity:7337332564367462400/ 
  https://x.com/RubenHssd/status/1931389580105925115 
  https://www.reddit.com/r/MachineLearning/comments/1l5hzhs/r_apple_research_the_illusion_of_thinking/ 
  https://news.ycombinator.com/item?id=44203562 
  "

作者:恒达娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 恒达娱乐 版权所有