现年97岁的美国前国务卿亨利·基辛格当天在麦凯恩研究所举办的塞多纳全球问题论坛(McCain Institute's Sedona Forum on global issues)上表示,尽管在冷战期间,核武器的规模已经大到足以破坏整个地球,但现今核技术和人工智能的进步使世界末日的危险倍增。
基辛格警告:“这是人类历史上第一次,人类具备了在有限的时间内将自我完全摧毁的能力。”
基辛格在1957年出版的《核武器与对外政策》通常被认为是当代美国核战略与有限战争的代表作之一。该书曾被美国国务院和国防部指定为必读参考书,对50—60年代的美国战略思想产生了巨大影响。从冷战开始到现在,美国的外交和战争一直在他的有限战争理论的框架下规划。现在他把人工智能的战略意义提升到核武器一级,这显示出基辛格超前的智慧。
人工智能的框架很大,有很多技术内容。目前常用的是人工神经网络。通过堆叠大量的神经层,目前的人工智能模型已经在图像识别,围棋和游戏等领域超过了人的水平。特别是在像玩星际争霸2这种即时战略游戏,人工智能模型alphastar已经能胜过99.8%的人类,这说明,在复杂的战争指挥领域,人工智能已经有了用武之地。而且它不眠不休,不受情绪干扰,绝对冷静,而且能接收大量信息的灌输。这些都是人类指挥官达不到的。说到将人工智能直接用于战争,各国已经有了一些尝试。比如美国防高级研究计划局(DARPA)在2019年的“空战进化”(ACE)项目将开展人工智能驱动的空中格斗竞赛,该局把其视为研发空对空自动作战软件的第一步。由人工智能控制的战斗机作战反应更快,可让飞行员有更多的时间管理更大的空中战场。最终,ACE项目将发展出可靠和可信的人工智能空中格斗软件,接管空对空作战任务。在2020年的模拟空战中,发现美军飞行员在常规项目上完败于人工智能,显示了强大的应用前景。俄罗斯也不慢,苏-57与猎人无人机已经在2019年实现了有人机与无人机的编队飞行测试,公布相关的视频了,这样的进展不比美国差多少。中国虽然没有公开类似的研究项目,但作为人工智能科研与美国齐头并进的国家,可以想象类似的项目是不会缺少的。
人工智能用于战争在技术上可以说是水到渠成,但却有一个困扰人们的伦理问题。那就是要不要赋予机器杀人的权限?以往的战争,不吝武器多么复杂,最终决定开火的还是人类。但人工智能是有自主判断能力的,一旦机器获得了自主杀人的权力,那么人类自身的地位还是那个万物之主吗?机器的性能是超越人类的,一旦机器获得了杀人的权力,那么人类未来极有可能被某个逻辑混乱的机器灭绝整个人类。这种灭绝不像核武器,虽然大城市没了,但总能剩下一些人繁衍下来,而机器杀人是无死角的,人类真的可能连个种子都留不下来。我想这才是基辛格担心的问题。一旦这些科技大国被战争逼急了,赋予了机器杀人的权力,在人工智能飞速的发展下,这个未来并不是只存在科幻片里的可能性。
举报/反馈

王雨田说

3116万获赞 60万粉丝
用我的视角带你走入大千世界
中国传媒大学副研究员
关注
0
0
收藏
分享