更新时间:2026-01-17 20:21 来源:牛马见闻
研究科学家Llion JonesLlion Jones则认为Llion Jones承认
<p class="f_center"><br></p> <p id="48F36T11"><strong>新智元报道</strong></p> <p id="48F36T14">编辑:KingHZ</p> <p id="48F36T16"><strong>【新智!元导!读】Transformer曾是AI革命的巅峰之作,但其发明者Llion Jones警告:它并非终点。就像RNN被取代一样,当前无数微调研究可能只是局部优化,而真正的AGI突破或藏在生物启发的全新架构中。</strong></p> <p id="48F36T18">Transformer是AI的终点吗?</p> <p id="48F36T19">不是,绝对不是。</p> <p id="48F36T1A">那Scaling是唯一通向AGI的路径吗?</p> <p id="48F36T1B">在Transformer架构上研究最久的人,告诉你:不是。</p> <p id="48F36T1C">Sakana AI的创始人、研究科学家Llion Jones,和其他7位合著者,一起发明了Transformer。</p> <p id="48F36T1D">除了那七位共同作者,没有人比他在Transformer上的研究更久。</p> <p id="48F36T1E">尽管如此,去年,他做出了一个重要决定:大幅减少自己在Transformer上的研究投入。</p> <p id="48F36T1F">不是因为这个领域没有新鲜事,而是因为它已经被挤得水泄不通。</p> <p id="48F36T1G">他直言,他成了自己成功的受害者:</p> <p id="48F36T1H">我不认为Transformer就是终点,也不相信我们只需要继续无限扩大规模。</p> <p id="48F36T1J">某一天,我们会再次迎来突破,然后回头发现,现在很多研究其实在白白浪费时间。</p> <p class="f_center"><br></p> <p id="48F36T1L"><strong>Transformer或重演RNN的悲剧</strong></p> <p id="48F36T1M">在Transformer出现之前,RNN是主流。</p> <p id="48F36T1N">RNN的确是AI历史上的重大突破。</p> <p id="48F36T1O">突然间,所有人都开始致力于改进RNN。</p> <p id="48F36T1P">但结果总是对同一架构做些微调,比如把门控单元换个位置,将语言建模的性能提升到 1.26、1.25 比特每字符。</p> <p class="f_center"><br></p> <p id="48F36T1R">在Transformer出现后,当我们把非常深的仅解码器Transformer应用于同一任务时,立刻就达到了1.1 比特/字符。</p> <p id="48F36T1S">于是,所有关于RNN的研究突然之间显得白费了。</p> <p id="48F36T1T">而现在的论文,似乎又回到了老路子:在同一个架构上,做无数微小的改动——比如调整normalization层的位置,或略微改良训练方式。</p> <p id="48F36T1U">2020年,时任谷歌DeepMind的研究员Sarah Hooker提出了「硬件彩票」:</p> <p id="48F36T1V"><strong>通往AGI的道路不止一条, 深度神经网络刚好碰上了</strong><strong>GPU这样的硬件彩票</strong><strong>。</strong></p> <p class="f_center"><br></p> <p id="48F36T21">论文链接:https://hardwarelottery.github.io/</p> <p id="48F36T22"><strong>「硬件彩票」这一术语,描述了某种研究思路之所以胜出,是因为它恰好契合现有的软件和硬件条件,</strong><strong>而非</strong><strong>因为该思路在所有备选研究方向中具有</strong><strong>普遍优越性</strong><strong>。</strong></p> <p id="48F36T23">而Llion Jones则认为,Transformer是一种架构彩票,而业界恐怕重蹈RNN的覆辙。</p> <p class="f_center"><br></p> <p id="48F36T25">哪怕已经有一些架构在论文中表现得比Transformer还好。但问题在于,新架构还不足够好到让整个行业放弃Transformer。</p> <p id="48F36T26">原因很现实:大家对Transformer的理解已经非常成熟,训练方法、微调方式、配套软件工具一应俱全。</p> <p id="48F36T27">你要大家从头换一套,除非新架构好到「碾压式胜出」,否则不可能。</p> <p id="48F36T28">Transformer取代RNN,是因为差距大到无法忽视。</p> <p id="48F36T29">深度学习的兴起也是一样。曾经大家还相信符号主义更靠谱,直到神经网络在图像识别上展现出压倒性的优势。</p> <p id="48F36T2A">Llion Jones认为Transformer太成功了,反而让大家陷入了「陷阱」:</p> <p id="48F36T2B">这就像有个巨大的「重力井」,所有尝试离开的新方法都会被拉回来。</p> <p id="48F36T2D">哪怕你真的做出了一个效果更好的新架构,只要OpenAI再把Transformer扩大十倍,那你的成果就被比下去了。</p> <p class="f_center"><br></p> <p id="48F36T2F"><strong>现在的LLM并非通用智能</strong></p> <p id="48F36T2G">Llion Jones进一步指出,目前的大语言模型并非通用智能,呈现出「锯齿状智能」(jagged intelligence)的特性。</p> <p class="f_center"><br></p> <p id="48F36T2I">也就是说,它们能在某些任务上表现得像天才一样,但转眼就能犯出低级错误,让人出戏。</p> <p id="48F36T2J">它刚才还解出了一个博士级的问题,下一秒却说出一个连小学生都不会错的答案,这种反差非常刺眼。</p> <p id="48F36T2K">他认为,这其实揭示了当前架构中某种根本性的问题。</p> <p id="48F36T2L">问题在于,它们太「万金油」了。</p> <p id="48F36T2M">你可以让它们做任何事,只要训练足、调参准。</p> <p id="48F36T2N">但正因为这样,我们反而忽视了关键问题──「有没有更好的方式来表示知识、思考问题」。</p> <p id="48F36T2O">现在,大家把所有东西都往Transformer里堆,把它当成万用工具来用,缺什么功能,就往上面硬加模块。</p> <p id="48F36T2Q">我们明明知道要有不确定性建模、要有自适应计算能力,但我们却选择把这些特性外挂上去,而不是从架构本身去重新思考。</p> <p id="48F36T2R">为了逃脱这个循环,Jones在2025年初大幅减少Transformer相关研究,转向更具探索性的方向。</p> <p id="48F36T2S">他和Sakana AI的同事Luke Darlow等人,借鉴生物学和自然启发,设计了连续思维机(Continuous Thought Machines,CTM)。</p> <p class="f_center"><br></p> <p id="48F36T2U">传送门:https://sakana.ai/ctm/</p> <p id="48F36T2V">这不是天马行空的发明,而是对大脑运作的简化模拟。</p> <p id="48F36T30">大脑里的神经元不是静态的开关,而是通过同步振荡来传递信息。</p> <p id="48F36T31">CTM捕捉了这个精髓:它用神经动态作为核心表示,让模型在「内部思考维度」上逐步展开计算。</p> <p id="48F36T32">他说,「我们并没有追求完全生物学可行性,因为大脑并不是靠有线方式让所有神经元同步的。但这种思路带来了全新的研究可能。」</p> <p id="48F36T33">重要的是,他们在做这项研究时,并没有任何学术圈常见的「抢发压力」。</p> <p id="48F36T34">因为没人做这个方向。他们有充分的时间去打磨这篇论文,把研究做实,把对照实验做足。</p> <p id="48F36T35">他希望这项研究能成为一个「示范案例」,鼓励其他研究者去尝试那些看似风险高、但更可能通向下一个大突破的研究方向。</p> <p id="48F36T36"><strong>后人哀之而不鉴之</strong></p> <p id="48F36T37">这是近期AI领域最坦诚的言论之一。</p> <p class="f_center"><br></p> <p id="48F36T39">Llion Jones承认,当前多数研究可能只是在局部最优解上修修补补,而真正的突破或许在完全不同的方向。</p> <p id="48F36T3A">他对此深有体会——毕竟他曾亲手让上一代研究者的成果黯然失色。</p> <p id="48F36T3B">令人不安的是:如果他是对的,那么所有埋头改进Transformer变体的人都在浪费时间。</p> <p id="48F36T3C">所有混合专家模型、所有架构微调、所有注意力机制变体——都可能在新范式出现时瞬间过时。</p> <p id="48F36T3D">但陷阱在于:除非有人真正突破,否则你永远无法确定自己是否困在局部最优里。</p> <p id="48F36T3E">身在局中时,一切看似都是进步。直到Transformer出现前,RNN的改进不也看起来势不可挡吗?</p> <p id="48F36T3F">同样, Ilya近期也评论道,仅靠Scaling当前架构并不足以实现AGI:</p> <p id="48F36T3G">Scaling时代的一个后果是:Scaling吸走了房间里所有的氧气。</p> <p id="48F36T3I">正因如此,所有人开始做同样的事。我们走到了今天这个局面——公司数量多于创新电子的世界。</p> <p id="48F36T3J">那么该如何抉择?</p> <p id="48F36T3K">Llion Jones并未声称知道未来方向,只是坦言Transformer可能不是长期答案。这很诚实,却缺乏可操作性。</p> <p id="48F36T3L">这个难题在于:每次范式转移,在事后看来都像是徒劳,但在当时却是必要的探索。我们无法跳过这个阶段,只能祈祷有人能更快找到出口。</p> <p id="48F36T3N">Transformer已死?DeepMind正在押注另一条AGI路线</p> <p id="48F36T3O">谷歌祭出Transformer杀手,8年首次大突破!掌门人划出AGI死线</p> <p id="48F36T3P">终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」</p> <p id="48F36T3Q">一封来自Transformer之父的分手信:8年了!世界需要新的AI架构</p> <p id="48F36T3R">参考资料:</p> <p id="48F36T3S">https://www.youtube.com/watch?v=DtePicx_kFY&t=1s</p> <p class="f_center"><br></p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901