
7 月 26-28 日,2025 世界人工智能大会(WAIC)在上海盛大召开。图灵奖得主、2024 年诺贝尔物理学奖获得者、“AI 教父”杰弗里·辛顿出席线下活动,并在大会开幕式上发表主题演讲。
演讲中,辛顿首先回顾了人工智能发展历程中两种主导范式的分野:一种是“符号主义 AI”,强调智能的本质在于基于规则的逻辑推理;另一种是“连接主义 AI”,即源自生物神经系统的神经网络理论,主张智能源自于网络中连接权重的学习与调整,强调“理解”是学习的前提。
他进一步以当前炙手可热的大语言模型(LLMs)为例,将其比作精妙的“乐高积木”,提出每个词都是一个拥有几千个维度的“乐高积木”,通过这些积木的变形和相互“握手”,就能构成语言的语义表达,就像蛋白质通过氨基酸的不同组合带来更有意义的内容。他强调,这种机制与人类理解语言的方式“几乎一样”,甚至包括可能产生“幻觉”这样的现象。
而演讲中最令人警醒的部分,是辛顿对未来超级智能 AI 可能超越人类,甚至难以“关掉”的深切忧虑。他以“把老虎当宠物”作比,一旦 AI 变得比人类更聪明,它们将很容易操纵人类,且“我们没有办法把它给消灭掉”。为此,他郑重呼吁全球各国应在“训练 AI 向善”这一核心问题上展开国际合作,将其视为科技发展的关键议题。
辛顿教授的这些深刻洞见并非一时之感,而是建立在他数十年对神经网络不懈探索的基础之上,演讲中他所呼吁的“训练 AI 向善”,其核心同样在于理解和掌控 AI 的学习机制和行为模式。在他漫长的研究生涯中,一项极具前瞻性的工作,即玻尔兹曼机,正是他早期对这种学习机制深入探索的结晶:玻尔兹曼机不仅揭示了 AI 如何从早期萌芽走向今日繁荣,也为我们思考如何引导未来智能“向善”提供了重要的理论基石。
玻尔兹曼机的核心奥秘在于能够“学习”并找出数据中隐藏的模式。你可以把它看作是一个能够通过调整内部连接(我们称之为“权重”)来理解复杂信息的机器,它不像传统程序那样需要你一步步告诉它怎么做,而是能够自己摸索着学习。这个过程之所以被称为“玻尔兹曼”,是因为它受到了物理学中玻尔兹曼分布的启发:玻尔兹曼分布描述了在一个物理系统中,粒子在不同能量状态下出现的概率。简单来说,它告诉我们,在高温下,粒子会随机地到处乱跑;而在低温下,粒子则倾向于呆在能量最低的地方。
简而言之,玻尔兹曼机就是通过一种随机但有规律的方式,不断地“摇晃”自己内部的状态,直到找到最稳定的那个状态。玻尔兹曼机通过不断调整灯泡间的连接强度,使它曾经“见过”的正确模式成为网络能量图中的‘低谷’,从而在未来更容易被网络“识别”和“重现”。
21 世纪初,辛顿提出了一个重要的简化版,即受限玻尔兹曼机(RBM)。RBM 去除了隐藏层内部的连接,特别是引入了对比散度(Contrastive Divergence)这样的训练方法,使得训练算法变得高效。RBM 的提出标志着神经网络研究的一个重要转折点,为后续深度学习的快速发展奠定了关键基础。辛顿和他的团队发现,可以将多个 RBM 堆叠起来,形成多层的深度信念网络(DBN),通过逐层无监督预训练,成功解决了当时深度神经网络训练困难的问题股票配资app下载排行,为现代深度学习的繁荣奠定了坚实的基础。
旗开网提示:文章来自网络,不代表本站观点。