AI教父辛顿最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类

编辑:元宇

近日,「AI教父」Geoffrey Hinton在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton认为OpenAI、Anthropic等许多AI公司在AI安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险

Couric:如果你能把奥特曼马斯克请到同一张桌子上,你会对他们说什么?

Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。

近期,「AI教父」Geoffrey Hinton,在与《Next Question》主持人Katie Couric对话时,直言不讳地说出了内心对AI安全的忧虑。

Geoffrey Hinton与《Next Question》主持人Katie Couric对话

实际上,这已经不是他第一次为预警AI风险而发声。

2023年5月,时任谷歌首席AI科学家的Hinton从谷歌辞职,扮演起「AI吹哨人」的角色

自此,他一直在关注和呼吁人类要警惕AI过快发展带来的风险,还表示后悔自己未能更早地考虑AI的安全问题

近日,Hinton再次发出警告——AI正在改变战争方式,让战争变得更容易:

自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。

Geoffrey Hinton称,杀手机器和无人机正在降低战争的人道成本

Hinton表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。

AI让发动战争变得更容易

「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。

这本应该是件好事,但恰恰也是最让这位「AI教父」恐惧的事情。

这样一来,发动一场战争的成本会更低,战争就更容易爆发了。

Hinton表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。

这使得一个富国想入侵一个穷国,变得更容易了。

因为原来能够阻战争发生的,就是这些富国公民在战场上被装进裹尸袋。

但是,AI改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」

在Hinton看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。

「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。

除了降低战争成本,Hinton认为AI已经在重塑战场,改变战争的方式。

比如,在现实战争中,已经通过AI驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段

甚至有人说,未来战争中,数据的作用将超越弹药。

现实战争举例,现在一架500美元的无人机,就可以摧毁一辆价值数百万美元的坦克

而且,AI技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意:

「如果你能在战机里装上AI,AI可以承受更高的过载——而且不用过多担心人员伤亡。」

AI接管将是人类最大的担忧

与AI对未来战争带来的影响相比,Hinton更担心人类被AI接管的风险。

2024年,Hinton在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于AI以及其未来角色观点

而经过这些年,Hinton也逐渐把他有关AI担忧的思考,更广泛地传开了。

当谈到当下AI的风险,Hinton表示:

我的主要担忧,并不是恶意行为者在短期内滥用AI的风险(那当然也非常严重),而是更长期的风险——AI本身接管。

这种风险,主要来自科学家们对AI将大幅超越人类智力的预测。

Hinton谈到了要避免被AI接管的唯一方法,就是让我们构建的那些超级智能AI,根本「不想」接管。而实现这一点的技术,和让AI更聪明的技术有些不同。

在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明AI的办法,但却会在「如何让它不想取代人类」这件事上合作。

AI会取代我们的工作吗?

除了战争,Hinton关于AI的另一个警告,是它几乎可能在所有领域,取代大量工作岗位

这个问题所带来的挑战,并非在技术,而是在社会治理上:

「如果我们的政治体系足够公平,当AI大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」

当谈到大学生未来的职业选择,Hinton认为AI会很快替换掉呼叫中心这类低薪、培训差的工作。

此外,还有律师助理程序员白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统顶尖程序员仍然会吃香)。

与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。

自动播放

Hinton认为相比较律师、会计等知识型岗位,水管工的风险要小得多

令人有点沮丧的是,Hinton还提到,AI甚至也在替代一些需要高情商人际沟通的工作,比如护士医生原因是AI会比人类更具同理心:

「如果让人们分别和医生以及一个AI互动,再问他们谁更有同理心,AI的评分更高。」

在访谈中,Kittie Couric还谈到了「全民基本收入」(UBI),是否有助于应对大规模工作被AI取代的问题。

UBI是近几年一些国家公共政策讨论中的热点议题,是为社会中的每个人,提供兜底的收入保障。

Hinton认为它虽然治标不治本,但是一个很好的「创可贴」。

UBI可以让人不至于挨饿、付得起房租,但它解决不了价值观丧失的问题。

因为对于很多人来说,自我价值感和他们的工作紧密相关。一旦失业,这种价值感就会丧失。

AI常见的一个应用场景,是在医疗科技领域。Hinton也提到了AI在医疗和疾病领域相关的科学突破。

比如,AI可以通过解读眼底图像,预测心梗发病几率,这在以往是做不到的。

此外,AI还可以在新药设计上发挥很强的关键作用。

Hinton谈到DeepMind团队提出了从蛋白质序列预测其折叠结构的方法,还分拆出了一家专做新药设计的公司。

他认为,未来一两年,或许更长一点时间内,我们会迎来一系列更好的药。

对AI未来的乐观展望

Hinton始终提醒人类,要注意防范被自己所创造出来的、更聪明的AI接管的风险。

以OpenAI、谷歌为代表的AI公司,是AI技术发展背后的重要推手,但在Hinton看来,没有哪家公司在这一问题上是做得足够的:

「Anthropic是一些离开OpenAI的人创办的,因为他们认为后者在安全研究上的投入太少。但Anthropic还是可以做得更多;尽管OpenAI强调是以安全发展AI为目标,但他们越来越关心让AI更聪明,而不是如何让它更安全。

Hinton揭示了这些AI公司在安全问题上滑稽、矛盾的一面:

奥特曼在很大程度上转向了「快点发展,别太注意安全」;马斯克在起诉奥特曼,说他忘了「安全发展AI的初心」。但马斯克在发展AI上,对安全也并不上心。

Kittie Couric还问了Hinton一个非常有意思的问题。

Kittie Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?

Hinton:我会说:你们很清楚,自己开发的东西有很大概率把人类灭掉。你们私下也承认这点。你们应该投入更多精力,用能确保安全的方式来开发。

Kittie Couric:你觉得是什么阻止了他们?是贪婪吗?

Hinton:基本上是的。他们想靠AI赚大钱,还有「做出比人类更聪明的东西」的兴奋感。但这非常危险。

对话谈还到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。

Hinton认为年轻的AI研究者,比年长者更能理解AI的力量和潜在的负面效应,他们也更能意识到AI接管可能带来的风险。

一个积极的信号是:当谈到对AI未来的展望时,Hinton表示他比几周前更乐观了。

自动播放

Hinton提出为AI植入母性本能」,这是他最近看到人类与AI共存的一丝希望

这一转变,主要是因为他关于「AI母亲」的思考,一种尝试AI植入类似「母性本能」的新思路

婴儿之所以能控制母亲,是因为很多东西被「进化写进了」母亲身上,母亲真心希望孩子成功,会尽一切可能确保孩子成功。我们希望AI也会如此。

「AI母亲」这一思考,重塑了人类如何与AI共存的思路,不是想着支配它们,而是为它们植入「母亲本能」。

这一设想,也颠覆了大多数人的想象:

在AI面前,我们不再是「智慧顶点」(母亲),而是婴儿。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平