最近,人工智能武器遭到激烈的反对和抗议之声,促使一些人认为机器人将最终取代人类,成为世界的主宰。这种可怕的设想定不可能在近期内成为现实,但人工智能武器带来的威胁确非常规人控武器可以比拟,我们有充足的理由对其说“不”。

易变成杀戮机器

在谷歌的无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个邪恶的犯罪集团盗取了一辆无人汽车,而后给车子装上机关枪并对其重新编程,使其成为杀人武器。这种武器便是人工智能武器。人工智能武器的巨大潜力引起了政府的兴趣。这一年,美国海军宣布研制自治无人机武器的计划。此外,韩国的Super aEgis II自动炮台以及俄罗斯的Platform-M自动作战机器研制计划也浮出水面。

在研制智能武器方面,政府并不是唯一的参与者。想象一下,一种搭载着GoPro运动相机的四旋翼无人机,绝大多数人都有能力购买。再想象一下,有人研发出一款简单的软件,允许这种无人机自主飞行。既然能够让无人汽车武器化,邪恶的犯罪集团自然也能让无人机武器化,在人员密集的公共场所制造大屠杀。人工智能武器构成一个迫在眉睫的威胁:它们很容易被转化成杀戮机器,不分青红皂白地展开屠杀,危险性远远超过类型相同,但由人类操控的武器。

物理学家斯蒂芬·霍金和马克斯·泰格马克、科技业大佬伊隆·马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。在此之前的4月,联合国召开“杀手机器人”会议,但并没有做出任何具有持久性的政策决定。人类未来研究所的请愿书称人工智能武器的威胁迫在眉睫,需要采取行动以避免在几年内酿成灾难。不过,请愿书并没有指出何种类型的智能武器已经出现在地平线上。

更为现实的威胁

很多人担心《终结者》中描写的末日景象将成为现实。片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家和天文学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。他在剑桥的同事、哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。在两个人的努力下,剑桥大学成立了存在威胁研究中心,力图避免人类的生存遭遇如此灾难性的威胁。

这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。无论按照何种标准,我们都不可能在近期内研发出类人人工智能。雷丁大学的聊天机器人尤金·古斯特曼被很多媒体称之为“真正的人工智能”,因为它让一些人相信它是一个13岁的男孩,但事实证明古斯特曼与真正的人工智能仍相距甚远。

很多人之所以在请愿书上签名的原因在于:与拥有自我意识的电脑网络不同,安装机关枪的无人汽车是一个更为现实的威胁。类似这样的人工智能武器的真正威胁并非它们已经处在毁灭世界的边缘,而是任何一个电脑黑客只需很低的预算便可对它们进行重新编程,将其变成高效并且不加选择展开屠杀的杀戮机器。智能武器本身并不可怕,真正可怕的是那些用心险恶的人。

可能被独裁者利用

想象一下,一个野心勃勃的独裁者决心清洗反对者。他有一个数据库,里面存储着有关国民忠诚度的数据、地址和照片。如果是在过去,这个独裁者需要一支军队完成这个任务,还需要贿赂士兵或者给他们洗脑,让他们死心塌地地为自己效命。但如果是在未来,他只需要购买几千架装有自动武器的无人机。(根据摩尔定律,人工智能无人机的价格将在未来的某一天降至与AK-47相当的程度。)接下来,效命于他的三四名软件工程师对无人机进行重新编程,而后派遣无人机到反对者的住处和工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错的几率更小,不会被人贿赂或者洗脑。最重要的是,它们的效率远远超过士兵,帮助野心勃勃的独裁者在国际社会做出任何反应之前将反对者全部清洗。

由于自动化大幅提高效率,这就意味着丧心病狂的恶棍制造大屠杀的难度大幅降低。有了人工智能武器,过去的独裁者需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。试图研发这种武器的制造商和政府可能声称他们可以采取完备的防范措施,确保智能武器不会被重新编程或者被黑客入侵。对于这种态度,我们应投以怀疑的目光。从电子投票机到自动取款机,再从蓝光光碟播放机到飞驰在高速路上的汽车,它们都曾编织安全神话,但最近都在黑客的攻击下破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为一个例外。

对智能武器说“不”

1925年,《日内瓦议定书》签订,禁止在战争中使用窒息性、毒性或其他气体以及细菌战。空尖弹早在1899年便被禁用。未来是否会签订类似禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需很低的成本便可轻易将某种人工智能机器改造成高效的,不加选择地展开屠杀的大规模杀伤性武器,禁止使用这种机器的国际公约便会浮出水面。这种机器与放射性金属没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。人工智能机器的可怕之处在于:对其进行改造并将其用于破坏目的的难度远远低于改造核反应堆。

我们之所以要禁止人工智能武器并不是因为这种武器本身,而是因为心怀叵测的人很容易将它们变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器和空尖弹的杀戮机器。

禁止确定人工智能机器需要解答很多问题。人工智能武器能否促使美国放弃“星球大战”导弹防御计划?如果汽车可以被作为武器使用,是否应该禁止无人汽车?智能的确切定义是什么?武器的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。对于人工智能武器可接受的范围,国际社会必须严肃考虑,认真听取科学家、哲学家和电脑工程师的建议。现在,美国国防部已经在某种意义上禁止完全自治的武器,是时候在国际层面进行细化和扩大禁止范围。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。

(下载iPhone或Android应用“经理人分享”,一个只为职业精英人群提供优质知识服务的分享平台。不做单纯的资讯推送,致力于成为你的私人智库。)

作者:Zach Musgrave and Bryan W. Roberts 译者 小北译
来源:译言网