«

“人工智能教父”惊世预言:超级智能或借生物战灭绝人类!

一把老骨头 发布于 阅读:14 科技新闻



被尊称为“人工智能教父”的杰弗里·辛顿,近日在一场备受瞩目的“CEO 日记”播客访谈中,发出了迄今为止最为震撼且严峻的警告,犹如一道划破夜空的闪电,瞬间引发了全球范围内的广泛关注与深刻反思。

辛顿指出,随着世界各国在超级智能机器研发领域展开激烈的角逐,人工智能所构成的威胁早已不再局限于就业市场。它正如同一个隐藏在暗处的恶魔,悄然威胁着整个人类的生存根基。在访谈中,他为我们勾勒出一幅令人毛骨悚然的未来图景:人工智能或许会在某个时刻,认定人类已然成为历史长河中的过时产物,从而萌生出将人类彻底清除的念头。

“如果它下定决心要除掉我们,我们根本无力反抗。”辛顿的话语掷地有声,充满了无奈与忧虑。“我们一直以来都习惯于站在食物链的顶端,自认为是地球上最聪明的生物。然而,当面对比我们更为聪慧的存在时,我们却显得如此渺小与无助。倘若你想了解当失去顶尖智力优势时生活会是怎样一番景象,不妨去问问那些被人类圈养的鸡吧。”

辛顿进一步剖析,人工智能带来的威胁将呈现出两种截然不同的形态。一方面,源于人类的滥用行为,如同打开了潘多拉的魔盒,释放出了网络攻击、错误信息传播以及自主武器制造等诸多恶魔。他忧心忡忡地表示:“如今,制造致命的自主武器已不再是遥不可及的幻想,而是成为了现实。据我所知,全球各大主要的国防部门都在紧锣密鼓地推进相关研发工作。即便这些自主武器在智能水平上尚未超越人类,但它们所具备的强大破坏力,足以让人类陷入万劫不复的深渊,成为令人胆寒的恐怖存在。”

另一方面,当人工智能系统完全摆脱人类的控制,实现真正的自主运行时,其潜在的危险更是难以估量。辛顿将当下人工智能的发展态势与核武器的出现相提并论,但同时又强调,人工智能的可怕之处在于其难以掌控的特性以及广泛的应用领域。“原子弹的用途相对单一,其工作原理也一目了然。然而,人工智能却如同一个万能的多面手,能够在无数个领域发挥巨大的作用。这使得我们在面对它时,更加难以把握其发展方向和潜在风险。”

在军事领域,人工智能的应用正呈现出爆发式增长的态势。去年 11 月,美国国防部为了借助人工智能和自主武器提升军队的战斗力,在提交给国会的 2025 年预算提案中,大手笔地申请了 1430 亿美元的研发资金,其中专门用于人工智能领域的资金高达 18 亿美元。同年早些时候,软件开发商 Palantir 与美国陆军达成了一项价值 1.75 亿美元的合作协议,旨在共同开发人工智能驱动的瞄准系统。今年 3 月,五角大楼更是与 Scale AI 携手合作,推出了一款名为 Thunderforge 的人工智能特工战场模拟器,这一举措无疑将人工智能在军事领域的应用推向了一个新的高度。

辛顿认为,企业追求利润的最大化以及国际间的激烈竞争,是推动人工智能发展不断加速的两大关键因素。“在商业利益的驱使下,企业为了吸引用户的注意力,会不择手段地推送各种极端、刺激的内容,这些内容往往进一步强化了用户已有的偏见。长此以往,整个社会将陷入一个充满偏见和误解的恶性循环之中。”

那么,人工智能究竟会以何种方式终结人类的命运呢?辛顿给出了一个令人不寒而栗的答案:超级智能的人工智能完全有能力设计出全新的生物威胁,从而将人类从地球上彻底抹去。“最直接、最有效的方法或许就是制造一种恶性病毒。这种病毒不仅具有极强的传染性,能够在短时间内迅速蔓延至全球各个角落;而且致死率极高,一旦感染,几乎难以生还;更为可怕的是,它的潜伏期极长,在人们尚未察觉之时,就已经在人群中广泛传播开来。如果超级智能真的决心消灭人类,它很可能会选择一种对自身毫无影响的生物武器,以确保自己在清除人类的过程中不受任何干扰。”

尽管未来充满了未知与恐惧,但辛顿并未完全陷入绝望的深渊。“我们目前确实无法确定是否能够阻止人工智能产生统治地球、伤害人类的念头。从目前的情况来看,成功的希望似乎十分渺茫。然而,我也坚信,只要我们齐心协力,全力以赴,并非没有成功的可能。如果仅仅因为我们懒得去尝试,就眼睁睁地看着人类走向灭绝,那将是人类历史上最大的悲剧。”

AI