微信邦

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 40|回复: 0

港大马毅:“百模大战”资源消耗惊人,智能本质到底是什么?

[复制链接]
发表于 2025-1-23 08:39:17 | 显示全部楼层 |阅读模式
1.23知识分子The Intellectual

智识学研社新年科学演讲现场
编者按
过去几年是AI发展突飞猛进的几年,2024年,诺贝尔物理学奖和化学奖更是破天荒地颁给了AI领域的科学家。
然而,即使拿下了诺贝尔奖,我们也很难将这些年AI的进展单纯归结为科学上的胜利,它更像是一个工程上的奇迹。当下业界甚至学界广泛追随和信仰的Scaling Laws,本质上仍是“大力出奇迹”:相信更多数据、更大算力、更大参数能给模型带来更高的性能。
与此同时,AI系统内部的运作机制依然是一个巨大的黑箱,从神经网络的表征学习到决策逻辑的可解释性,核心的科学问题仍未得到根本性解答。AI虽然对传统科学贡献良多,但它本身的科学原理却仍在迷雾之中。
在智识学研社2025年新年科学演讲上,香港大学计算与数据科学研究院院长马毅教授提醒,在讨论人工智能甚至通用智能(AGI)之前,我们首先要了解什么是智能,智能背后的数学原理是什么?过去十年,在机器智能这个领域,“术”的层面取得了长足的进步,但是“道”的层面还有很长的路。在现在这个时间节点上,科学变得非常重要。
以下为马毅新年演讲全文,全文共9301字。
●                   ●                    ●

毋庸置疑,这十年来人工智能技术突飞猛进,进展日新月异,甚至超出了很多人的想象。不光是学术界,还有产业,乃至政府、社会都变得非常关心这件事。技术发展很快,但是对智能的科学问题、数学问题,乃至后面的计算问题,并没有界定得很清楚。
自古以来,中国的哲学中一直有“道”和“术”的概念。那么在科技这个领域,术是工程技术,千变万化;但是道,思想、科学理论的本质问题,大道至简。过去十年,在机器智能这个领域,“术”的层面取得了长足的进步,但是“道”的层面恐怕还有很长的路要走。
今天大会的主题是‘AI for science’,我想在今天强调一个观点,就是——可能“智能就是科学,科学就是智能”。
过去几年,我们团队一直在研究智能到底是什么,智能的背后有没有严格的数学问题,有没有非常严谨的计算基理。这是我们想搞清楚的。
爱因斯坦说过一句话,这句话是在讲science。Everything should be made as simple as possible,but not any simpler(凡事力求简洁,但不能过于简化)。意思是所有的事情都应该解释得尽可能的简单到不能再简单。这个标准是什么呢?要简化,把世界的规律用最简单的方式找到;但是不能再简单,再简单就解释不了现象。这两句话在我看来是科学的本质,也是智能的本质。
刚才韩院士也提到,对于未来会怎么样,大家现在都很焦虑。一个古老的智慧是——欲知未来,先知过去。
01
从生物演化视角重新思考智能


最近几年,我和团队做了一些跨学科的合作研究,我们的智能研究本身也越来越深入,这让我强烈地感受到——自然界生物的起源与进化是就是智能机制起作用的结果,甚至可以认为——生命的本质就是其智能的演进。智能是生命的更底层的机制,而生命形式只是智能的载体。
可以看到,其实生命的起源与发展过程就是生物智能发生和发展的过程。最早的时候只有DNA,后来开始有了早期的生命。这些最早的生命个体基本上没有学习和自我进化的能力,几乎可以认为在个体层面没有智能。但群体有智能,群体一步步通过遗传变异和基因的优胜劣汰,代代相传外部世界的知识,从而帮助适应与生存。这种过程现在有一个很流行的名字,就是生物群体在做Reinforcement learning,不是不能进步,但代价很大。
带着这个视角来看今天的大模型,你会发现大模型的进化与上述情况非常相似。现在的 “大模型”完全可以类比 DNA和早期生命阶段,我们对它的内部机制并不完全了解,但试错、竞争、优胜劣汰的过程和现象,如出一辙。早期无数生命快速诞生和消亡,现在的大模型则是百模大战,一将功成万骨枯——同样,这个过程当然也能进步,但代价极大,资源消耗惊人。
到了差不多5亿年前,生物的神经系统和眼睛的出现,让生物个体获取外部信息的能力激增,引发了寒武纪生命大爆发。大脑一定程度上取代了DNA的记忆作用,个体具有了智能。
生物的智能,从基因遗传和自然选择这种物种层面的智能,生物学上我们叫Phylogenetic,进化到个体具有后天学习与适应的智能Ontogenetic,这是智能机制上非常大的跳跃。
后来人类诞生,相比于此前的生物,人类的大脑高度发达,个体智能得到了极大提高,同时人类群居行为和信息交流又进一步提升了人类的群体智能。不但是人类的个体在学习,而且学习的东西还通过文字和语言在交流并得以在群体中传承,语言文字又取代了DNA的另一部分作用,能够把知识记忆并传下去。
然后到了几千年前,数学与科学的出现又一次大大推动了智能的发展。人类学会了抽象的能力,超越了之前单纯从经验的数据里寻找规律。这期间到底发生了什么?到目前为止大家并不是很清楚,但是我们知道,作用机制从本质上和生物智能的早期机制是非常不一样的。我们做学问一定要把历史搞清楚。
02
智能研究历史:起源、寒冬与大爆发




那么真正开始对智能进行研究,这件事情的起源在哪里?今天一提到智能,大家都说是起源于 1956年(达特茅斯会议定义的)的“AI”,这显然是不正确的。人类对智能机制的深入研究至少可以追溯到上世纪40年代。当时,以诺伯特·维纳为代表的一大批杰出科学家,开始探索机器模拟动物和人类智能的可能性。
他们研究了哪些问题呢?比如研究“一个系统怎么从外部世界学习有用的信息,这些信息怎么组织管理、度量”,他的学生香农创立了信息论;维纳本人研究“动物是如何学习的,反馈、纠错”,这是控制论和系统论;然后是“怎样通过跟外部环境或者对手博弈,不断地提高决策质量”,这是冯·诺伊曼的对策论和博弈论。维纳的思想还直接影响并催生了40年代初沃伦·麦卡洛克和沃尔特·皮茨提出人工神经网络首个数学模型。包括图灵研究计算(computing)如何通过机器实现,他提出图灵测试本质上也是相信人和机器之间的计算机制应该存在着统一性。我们看到,维纳的《控制论》英文名就叫Cybernetics: on Control and Communication in the Animal and the Machine。这些科学家就是想知道动物感知和预测外部世界的能力,以及这种系统的本质和机理到底是什么。对这些科学家来说,他们都坚信——智能背后的数学机制是统一的。一旦找到了并实现了这些机制,动物与机器之间的界限将变得模糊——我们可以将其称为“诺伯特·维纳测试”。
人工神经网络的诞生与发展本身,同样是人类从生物学和神经科学研究中获得灵感的结果。既然动物是一种智能存在性的证明,那么我们就可以去研究神经的工作原理。这促使了神经元的数学模型的诞生,即人工神经元。有了数学模型之后,当时大家比较急,或者说对智能的后续发展开始变得过分乐观,觉得既然掌握了神经元的数学模型,那就可以去构建神经网络,制造感知机,并且去训练它。大家如果去看50年代的《纽约时报》对感知机的报道会发现,我们现在在人工智能上吹的牛当时已经吹过了,比如机器能够自主学习和思考,人类将不再需要劳动等等,这都是50年代神经网络模型出现后的社会讨论。但是后来发现其实不行,不work。
直到80年代,人们才意识到可能还有一些关键因素没有被充分理解,所以又重新开始研究大脑的工作原理,从而诞生了卷积神经网络,这也是1989年的图灵奖。
大家可以看到,40 年代之后,有了人工神经元的模型后,开始建立了系统和网络,有了神经网络的概念。在过去大概 80 年的时间里,神经网络几起几落,这是一个基本的发展历史。最早由于 practice比较粗糙,效果并不是很好,当然理论上也发现了神经网络有它的局限性,让大家在70年代对神经网络的能力产生了一些质疑,导致在70 年代进入了一个寒冬。但是在 80、90 年代还是有不少人仍在坚持,比如Hinton、LeCun 等等,而且在设计越来越好的算法,去训练神经网络,包括 Backpropagation 等。到 2000 年,神经网络又进入第二个寒冬,原因主要是在做分类的问题上,出现了一个支持向量机的工作,由于它的数学理论比较严谨、算法比较高效,所以对神经网络也带来一些冲击。一直到2010年以后,神经网络随着数据以及算力的加持,它的性能得到逐渐的提高,才带来了这些年的蓬勃发展。
最近这十几年,凭借算力和数据的支持,人工神经网络的应用开始迎来飞跃,直到今天。特别是在文本、图像和科学领域尤为突出。比如说 Transformer 下,不管是文本、图像,甚至在各方面的科学数据上都取得了非常显著的成效。所以其实近年来AI的成果,实际上是多年前的理念在技术层面的实现。

03
从黑盒到白盒


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

微信邦网联系QQ|Archiver|手机版|小黑屋|鲁公网安备 37082802000167号|微信邦 ( 鲁ICP备19043418号-5 )

GMT+8, 2025-3-17 17:29 , Processed in 0.136473 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2013 Wxuse Inc. | Style by ytl QQ:1400069288

快速回复 返回顶部 返回列表