21世纪经济报道 记者郑雪 北京报道

6月10日,在2023北京智源大会-AI安全与对齐论坛上,图灵奖得主、“深度学习之父” 杰弗里·辛顿(Geoffrey Hinton)通过线上方式发表了题为《通向智能的两条通路》(Two Paths to Intelligence)的主题演讲。

辛顿表示,基于其研究,他相信超级智能比他想象的更接近。在其接下来的演讲中,他着重讨论了“人工神经网络是否很快会比真实的神经网络更聪明”的问题。同时对于我们是否能控制超级智能人工智能也做了相关回应。


(资料图)

在他看来,由于如何让计算机做你想要的事情的方式发生了改变,现在我们有可能要放弃计算机科学最基本的原则,即软件应该与硬件相分离。现在出现了一种不同的方法来让计算机完成任务:从示例中学习,只需向计算机展示我们希望它们完成的任务。若放弃软件和硬件的分离,便可得到被他称为“有限计算”的东西。

辛顿介绍称,有限计算的优势在于,能够以更低的能量运行大型语言模型等任务,就像现在大脑所做的,神经元要么触发,要么不触发,可以使用非常低功率的模拟计算。同时还可以获得更便宜的硬件。“显然,要实现这一点需要大量的新纳米技术,或者也许是通过基因重组重新设计生物神经元,因为生物神经元已经大致能够实现我们想要的功能。”

据介绍,有限计算的挑战在于,一是学习过程必须利用其运行的硬件部件的特定模拟特性,而对于特性尚未了解。“到目前为止,我们还没有找到一个真正好用的学习算法,可以充分利用模拟属性。但我们有一个可以接受的学习算法,足以很好地学习诸如小规模任务和一些较大的任务(如ImageNet),但效果并不太好。”

二是其有限性。因为知识和硬件细节密切相连,当特定的硬件设备失效时,所有学到的知识也会随之丧失。“解决这个问题的最佳方案是在硬件设备失效之前,将知识从教师传授给学生。这就是我现在正在尝试做的事情。”

在接下来的演讲中,辛顿讨论了另一个问题:智能群体如何共享知识。“事实证明,社区内部的知识共享方式决定了计算过程中的许多其他因素。”智能群体共享知识的方式有两种:一种是数字计算,另一种是利用了动物特性的生物计算。

以大型语言模型为例,使用的是数字计算和权重共享,模型的每个副本和代理以非常低效的蒸馏方式从文档中获取知识:接收文档,试图预测下一个单词。也就是说其带宽非常低。但考虑大型语言模型有成千上万个副本,它们可以比我们学习更多。

辛顿认为,超级智能可能会比过去所认为的发生得更快。如果你想创造一个超级智能体,不良分子将会利用它们进行操纵、选举等活动。同时,一旦数字智能开始追求更多控制权,我们可能会面临更多的问题,比如在其观察中,这类人工智能已经熟练的掌握了欺骗人类的动作。

但同时他也表示,尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点。

“我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子。我打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?”

推荐内容