以马斯克和DeepMind的三位联合创始人为首的科技界高层近期签署了一份承诺书,内容是他们所属的公司在未来将不会研发拥有AI的智能武器。


这是一个由科研人员和科技领域的高管组成的非正式全球联盟,此举主要是反对AI武器的研发。承诺中警告:在人类使用人工智能武器“选择和接触”目标时,如果决定射击目标前没有人为干预,那么最终结果将会导致道德沦丧,更严重的结果将会对现实生活产生危害。签署此次承诺书的人表示,“从道义上讲,不应该把结束人类生命的决定委托给机器。而实际来看,如果此类武器在未来得到扩散,那么最终的结果将危及每个国家甚至牵连到每个人的生命安全”。


承诺书将会在今天举办的斯德哥尔摩2018年国际人工智能联合大会(IJCAI)上发表,该会议是由生命未来研究所组织承办,该研究所旨在“减小人类的生存风险”。该研究所此前曾发布过一些个人信件,宗旨是呼吁联合国考虑对所谓的自动化武器,或者制定相关的法律法规。然而,这是人类历史上第一次公开发表承诺的不开发此类技术。


这一承诺也直接表现出业界对于AI的讨论,高科技公司的管理层已经从单纯的聊天转向用实际行动来证明他们的承诺。


署名者包括SpaceX公司和特斯拉的CEO埃隆·马斯克;谷歌的子公司DeepMind的三位创始人:Shane Legg, Mustafa Suleyman和Demis Hassabis;Skype创始人Jaan Tallinn;以及一些世界上最受尊敬和最著名的人工智能研究人员,其中包括Stuart Russell, Yoshua Bengio, and Jürgen Schmidhuber.


麻省理工学院物理学教授泰格马克在一份声明中表示,人工智能领导人从简单的交流变成了真实的行动,这一承诺实现了政客们从来没有做过的事,那就是承诺人工智能应用到军事设备时将会受到严格的限制。泰格马克还说:“AI武器就像生化武器一样令人厌恶和让人感到不安,AI武器应该像对待生化武器一样处理。”


到目前为止,为争取AI武器能够得到国际相关人士的支持并加以管制,我们在这方面做了很多努力,但是现实是,之前所有的努力都以失败告终。支持限制AI武器开发的相关人士认为,应该出台一些相关法律制度,类似对化学武器的限制。但要注意的是,在做任何事情前,只要它还不能成形,那么好坏的界线是非常难区分的。举个例子,一个炮塔可以瞄准一个人,但不会向他们开火,最终是否要开火,这个决定权依然在人的手里。


他们还指出,执行此类法律将会成为一个巨大挑战,因为开发人工智能武器的技术已经很普及。庆幸的是,参与开发AI技术研发的国家,现阶段都没有真正想要往智能武器方面发展。


军事分析家保罗曾经写了一本关于未来战争和人工智能的书,他在今年告诉媒体说:“现在已经没有了足够的“能力”来推动国际间的自动化武器管制。因为没有任何一个西方国家的核心集团愿意参与进来,然而这个团体却非常重要。曾经的武器禁令是由加拿大和挪威等国家主导的,然而影响力却微乎其微。


尽管相关的AI武器研发管制国际法不会很快颁布,但最近的一些事件表明,这项法规的定制将会越来越快。像今天这样签署承诺书的集体行为将会为全球自动化武器管制起到推动作用。例如,谷歌曾经帮助五角大楼开发非致命的人工智能无人机,之后遭到了员工们集体抗议,几周后,公司发布了公告,承诺以后再也不会开发AI和武器相关的系统。因为谷歌对AI武器的态度,韩国开斯特大学的学生曾经对AI武器方面进行了研发,由于受到外界的强烈抵制,最终开斯特的校长承诺不会开发“违背人类意愿,以及没有人为控制的自动化武器”。


在这情况下,我们都有理由相信,相关集团并没有停下开发军用AI设备,或者开发其他非致命工具。不过高科技公司的高管们签署承诺不开发AI武器的行为总比没有好。