你会怕“机器人军队”吗?

人工智能在安保和军事领域的用途越来越广。它能辅助实地军事演习,在出现问题的时候,能够救人性命。它还能为作战部队提供机器人盟军,提高军队的战绩。有些专家表示,继火药和核武器之后,致命自主武器系统(LAWS)正在创造“第三次战争革命”。我们应该开始担心,有朝一日机器人大军无需人类指挥,即可完全自主地开展敌对行动。

Photo by pablo capra on Unsplash

原作者:瓦西里·希切夫 (Vasily Sychev)

全世界许多公司正在人工智能领域开展重要的科学研究,目前为止的成绩斐然—— AI 已经学会用智能手表预测罹患糖尿病的风险,或者根据外观辨别某些类型的恶性肿瘤。这一强大的工具在速度方面超过了人类智力,也是吸引军方关注的一点。

由于计算机技术的发展,未来的武器系统将比目前使用的系统更加自主。一方面,武器系统功能的增强无疑会为战斗人员提供宝贵的援助。另一方面,这种局面也会产生种种挑战和风险——它可能引发国家间的军备竞赛,造成战区规则和法律的缺失,并导致不负责任的决策。如今,许多企业家、政策制订者和科学家正在争取禁止使用自主武器系统,尽管军方仍然坚称,在作战时,还是会由人类做出生杀的最终决定。

我们虽然愿意相信这种说法,但是也必须记住:核武器原本就不应当被制造出来,而且从创造之初就遭到抵制;尽管如此,人们仍然在使用核武器。

虚拟助手

一如在人类活动的所有其他领域那样,人工智能可以大大方便和加快安保领域的工作。例如,西班牙格拉纳达大学的研究人员正在开发一款软件,利用神经网络探测视频图像,几乎可以立刻探测出手枪、机枪和冲锋枪等轻武器,而且准确度极高。现代安保系统中使用了大量监控摄像头,操作者根本无法查看每个图像。因此,人工智能就可以被用于分析这些图像,探测是否有武器,并在最短时间内通知安保人员。

再举一个例子,美国密苏里大学地理空间情报中心(CGI)开发了一套人工智能系统,能根据卫星图像和航拍图像迅速、准确地定位防空导弹装置。这套系统的探查速度比人类专家快85倍。为了构建这套系统的基础神经网络,研究人员使用了各类防空导弹的照片,并在该系统启动后,用一组照片对它进行了测试。结果它只花了42分钟,就找到了90%的防御装置,而人类专家花了60个小时才得出相同的结果。

人工智能还有一些更复杂的用途。例如,美国陆军研究实验室(ARL)正在开发一套计算机系统,分析人对特定图像的反应。这对军事分析人员十分有用,他们通常需要审阅并系统化整理数千张照片和数小时的录像资料。这套系统的工作原理是:人工智能追踪人的眼睛和面孔,并将面部表情与人正在观看的图像进行比较。如果一个图像引起了观看者的注意(他的面部表情或注视的方向发生了变化),软件就会自动将该图像移入一个专题文件夹。在测试过程中,给一名士兵看了一组图像,这些图像分为五大类:船只、熊猫、红色的水果、蝴蝶、枝形吊灯,然后要求他只去数他感兴趣的那一类图像。这类图像以每秒钟一张的速度滚动展示。人工智能“认定”这名士兵对船只感兴趣,于是将这些图像拷贝到了一个单独的文件夹。

Photo by pablo capra on Unsplash

在作战领域

人工智能还可以帮助士兵作战。例如,俄罗斯第五代苏-57喷气式战斗机的研发工作临近完成,可在2018年底之前投入使用。这种隐形战斗机的飞行计算机软件含有人工智能元素。战斗机在飞行时,会不断分析空气质量、气温、气压及许多其他参数。如果飞行员试图完成某种精巧的飞行动作,而人工智能系统“估计”该动作会造成坠机,系统就会忽视飞行员的指令。如果飞机开始不停旋转,该系统会告诉飞行员如何使飞机稳定下来,并恢复对飞机的控制。

与此同时,日本也在开发第五代战斗机。它的研究原型X-2 “心神”战斗机在2016年4月进行了首次飞行。庞大的传感器网络会对战斗机每个部件的状况进行分析,并判断它的受损程度,从而确保战斗机“幸存”。如果在作战过程中,战斗机的机翼或机尾受损,控制系统就会重新设置,使其机动性和速度几乎保持不变。日本战斗机的计算机能够预测受损部件完全失灵的确切时间,这样飞行员就能对继续战斗还是返回基地做出决定。

从这个意义来说,人工智能算得上是“天赐之物”——如果这个词可以用来形容武器和作战系统的话。能够以最佳方式解决某个特定问题的精密程序的速度要比人快上10倍,它不仅能够辅助侦察机、无人机操作员或防空系统指挥员的工作,还能救助生命。它能够营救遇险潜艇上的船员(以遥控方式扑灭船员已放弃的隔舱内的火焰)、飞机的飞行员或受损装甲车的驾驶员。

杀手机器人

人工智能的分析速度和学习能力,极具作战系统潜力。军方虽不承认,但可能已在尝试建立能在战场自主运行的作战系统。这表示系统能够识别目标并开火,四处移动以选择能保证自身安全的最佳火力点。

虽然在几年前, 中、德、俄、美等数国军方就已宣布无意建立完全自主的作战系统,但同时也不排除将来建立的可能性。

2017年,美国国防部制订了“第三次抵消战略”,并开始部署实施。该战略包括积极发展下一代技术和概念,在未来的军事行动中运用这些技术和概念等内容。

2017年9月1日, 俄罗斯总统普京在一次的公开讲话中宣布:“人工智能不仅是俄罗斯的未来,也是全人类的未来。它在带来巨大机遇的同时,也带来了目前难以预料的威胁。谁能成为该领域领军人物,谁就能引领全世界。”他补充道,世界“并不乐见任何国家获得技术垄断。所以,如果我们成为这个领域的引领者,我们会将这些技术分享给全世界。”但他的话是否就意味着,我们并没有开启新的军备竞赛时代?

在地球上,越来越多的区域受到防空系统和反导弹系统的可靠保护,有卫星和无人系统实施监控,有船只和飞机四处巡航。在军方看来,一旦爆发战争,只有配备人工智能的作战系统才能穿透这些严加封锁的区域,相对自由地开展行动。

如今,有些作战系统已经能够自动侦测目标并对其进行分类,同时还能够控制防空导弹的发射,如俄罗斯先进的S-400型地对空防御导弹系统。美国的“宙斯盾”战斗系统能够控制战舰的武器装备,也在发挥着同样的作用。在与朝鲜交界的非军事区,韩国部署了若干个负责监视的SGR-A1型军用机器人。在自动模式下,它们能向敌人开火,但已经举手投降的人除外。目前,军队还没有采取自动化模式操纵这些系统。

人工智能开发的最新进展使得人类能够创造出到处移动的作战系统。因此,美国正在开发无人机,它能跟在由人类驾驶的战斗机后面飞行,并按照指令锁定空中或地面的目标。

俄罗斯下一代T-14型坦克的火力控制系统以阿玛塔重型履带通用平台为基础,能够自主侦测和轰炸目标,直至将其完全摧毁。俄罗斯同时还在研发一系列能够与人类士兵共同作战的履带式机器人。

对军队而言,所有这些系统都需要完成几项基本功能,最重要的就是,更有效地摧毁敌军目标,拯救本方士兵的性命。同时,目前尚无任何国际标准或法律文书对配备人工智能的作战系统在战争中的使用做出规定。《陆战法规和惯例公约》和《日内瓦公约》都没有规定在作战时哪些人工智能系统可以使用,哪些不可以。

也没有国际立法能够帮助厘清由谁来承担自动系统失灵的责任。如果一架无人机自主对平民发动空袭,要对谁进行处罚?是无人机的制造者、其所属飞行中队的指挥官,还是国防部?有可能被追究责任者的名单太长。我们知道,如果有太多人被追究责任,就没有人来承担罪责了。

2015年,设在美国的生命未来研究所公布了一封由逾1.6万人签字的公开信,信中警告,基于人工智能的作战系统会对平民造成威胁,并有可能引发军备竞赛,最终会给人类造成致命后果。值得注意的是,签字人当中有美国企业家、SpaceX 和 Tesla的创始人埃隆·马斯克(Elon Musk),英国天体物理学家斯蒂芬·霍金(Stephen Hawking)和美国哲学家诺姆·乔姆斯基(Noam Chomsky)。2017年8月,马斯克与机器人、人工智能系统领域的约100位开发者一起,向联合国递交了一份请愿书,呼吁全面禁止开发和测试自主进攻性武器。

这些专家认为,创建能够自主开展敌对行动的机器人大军,将不可避免地导致人类产生拥有绝对权力和不受处罚的感觉。另一方面,当人们处于冲突局面的时候,他们所作的决定中包含他们在道德方面的态度、感情、情绪等因素。即便职业军人的同情和体恤之情最终会减弱,但目睹别人遭受苦难仍然会对军事人员产生威慑效果。倘若普遍引入致命自主武器系统,那么只要在另一个大陆滑动电脑屏幕,就会启动该系统,造成种种破坏。战争会不可避免地变成一场游戏,而平民和军人的伤亡也被简化成了屏幕上的数字。

瓦西里·希切夫 (Vasily Sychev) 是俄罗斯的武器专家和记者。他的撰文时常发表在《俄罗斯人报》(Rossiyskaya Gazeta)、《专家》(Expert,俄语商业周刊)、Lenta.ru(俄语独立新闻网站)和《军工信使》(Military-Industrial Courier,防务报纸)等刊物和网站,还在科普网站期刊N + 1上主持撰写“武器”和“航空”章节。

原文发表于教科文组织“信使”杂志,标题“杀手机器人的威胁”(CC-BY-SA 3.0 IGO)

Comments