笔者讨论过很多关于意识是如何诞生的话题,以及如何实现有意识的 AI,在 Yann LeCun(杨立昆,人工智能三巨头之一,图灵奖获得者)看来,意识产生与环境的第一感官交互中。
现在 OpenAI 的 ChatGPT,Google 的 Bard,Facebook 的 Llama 等等大型语言模型取得了显著进展,在很多方面都大幅提升了效率(我发现在中国仍旧对于这个已经到来的事物反应太慢),然而有些人认为这仅仅只是统计学而已,它们在大量的文本上进行训练,如果你在类似一万亿文本或两万亿文本上训练它们,这些系统的性能是惊人的。
**但最终,他们会犯非常愚蠢的错误。他们会犯事实错误、逻辑错误、不一致的问题。他们的推理能力有限,会使用毒化的内容,他们对潜在的现实没有知识,因为他们纯粹是在文本上训练的,这意味着人类知识的很大一部分是他们完全无法接触到的。而且他们无法真正规划他们的答案。**关于这一点有很多研究。然而,这些系统对于写作辅助工具以及生成代码,帮助程序员编写代码,效果都惊人的好。
想要真正让 AI 拥有人类一样的学习和推理,甚至是思维意识,必须使用完全不同的架构来训练模型,而不是 Transformer 这样的自回归架构。
Meta AI 的首席 AI 科学家 Yann LeCun(中文社区称他为杨立昆) 经常会举这样一个例子:一个从未坐过方向盘的青少年可以在大约 20 小时内学会驾驶,而当今最好的自动驾驶系统需要数百万或数十亿条标记的训练数据和数百万次虚拟环境中的强化学习试验。即便如此,它们也达不到人类可靠驾驶汽车的能力。
杨立昆
那么,构建接近人类水平能力的人工智能需要什么?这仅仅是更多数据和更大的人工智能模型的问题吗?
杨立昆在各大会议中都一直提出,真正的 AGI,应该是“世界模型”架构的——一种学习世界如何运作的模型。
简单来说,智能体必须像人类一样在真实环境中进行学习,与环境进行交互,从而让智能体对整个世界都有自己的认知,这才是意识诞生的过程。
人类和非人类动物似乎能够通过观察环境和难以理解的少量互动,以一种独立于任务、不受监督的方式学习大量关于世界如何运作的背景知识,可以假设这些积累的知识可能构成了通常所说的常识的基础。
常识可以被看作是世界模型的集合,可以指导什么是可能的,什么是合理的,什么是不可能的。
这使人类能够在不熟悉的情况下进行有效的认知。例如,那位青少年司机以前可能没有在雪地上开车,但他已有的常识告诉他雪会很滑,如果他开得太激进了就会很危险。
常识不仅使动物能够预测未来的结果,而且还能够填补时间或空间上的缺失信息。当司机听到附近有金属撞击的声音时,他立即会知道发生了事故——即使没有看到涉事车辆。
人类、动物和智能系统使用世界模型的想法可以追溯到几十年前的心理学和工程领域,如控制和机器人技术。杨立昆认为当今人工智能最重要的挑战之一是设计学习范式和架构,使机器能够以自我监督的方式学习世界模型,然后使用这些模型进行预测、推理和计划。他的大纲重新组合了认知科学、系统神经科学、最优控制、强化学习和“传统”人工智能等各个学科中提出的想法,并将它们与机器学习中的新概念相结合,例如自监督学习和联合嵌入架构。
杨立昆提出了一个由六个独立模块组成的架构,每个模块都模拟了大脑的一个功能区。假设每个模块都是可微分的,因为它可以很容易地计算出某些目标函数相对于其自身输入的梯度估计值,并将梯度信息传播到上游模块。