人工智能军事应用的国际军控倡议和进展

时间:2021-07-04

李驰江

近年来,人工智能技术得到快速发展和廣泛应用,有效提高了经济和社会发展的智能水平。与此同时,人工智能日益被视为大国竞争的关键技术,随着美国、俄罗斯等国纷纷出台人工智能军事应用相关战略及政策,并加大无人化和智能化军事装备研发和应用步伐,智能化战争模式已初现雏形,军事人工智能的全球治理引发国际社会广泛关注,相关军控倡议和进程方兴未艾。

2018年,联合国秘书长古特雷斯在“载军议程:为了共同未来的安全”文件中指出,人工智能(例如机器学习)赋能的自主武器系统可能产生不可预测和难以解释的行为,国际社会应对此类武器系统的研发和使用持谨慎态度,各国应努力探讨相关政治性或具有法律约束力的措施,并应确保人类对使用此类武器的控制权。自2014年起,联合国《特定常规武器公约》框架下开启了“致命性自主武器系统”问题的讨论进程,这是目前联合国框架内为数不多的涉及人工智能军事应用具体问题的讨论进程。

该讨论进程迄今已召开八次会议。2014年至2016年,召开了三次非正式专家会议;2017年至2019年,召开了五次政府专家组会议。原计划于2020年继续召开政府专家组会议,但受新冠疫情影响只进行了线上非正式讨论。上述会议讨论了“致命性自主武器系统”涉及的技术特征、法律适用、道德伦理、军事应用、安全风险、限制措施等议题,达成重要的早期收获。特别是2019年第八次政府专家组会议协商一致通过报告,并经《特定常规武器公约》缔约国会议核准通过,提出了规范“致命性自主武器系统”的11条指导原则,主要包括:国际人道主义法继续完全适用于所有武器系统,包括致命性自主武器系统的可能开发和使用;人类必须对武器系统的使用决定负有责任;应确保根据适用的国际法在《特定常规武器公约》框架内对发展、部署和使用任何新武器系统问责;发展致命性自主武器系统时,应考虑实体安保、适当的非实体保障、落入恐怖主义团体手中的风险和扩散的风险;风险评估和减少风险的措施应成为任何武器系统新技术的设计、发展、测试和部署周期的组成部分;在《特定常规武器公约》范围内讨论和采取任何可能的政策措施都不应阻碍智能自主技术的进步或和平利用;可在《特定常规武器公约》目标和宗旨范围内处理致命性自主武器系统领域新技术的问题,力求在军事必要性和人道主义考虑之间求得平衡,等等。

总体看,各国对于致命性自主武器系统的军控措施持三类观点:有的国家主张全面禁止此类武器,有的国家主张部分限制此类武器使用,也有国家反对全面禁止此类武器。与此同时,奥地利等国主张达成具有法律约束力的国际文书;法国等国主张分步走,先达成政治宣言或行为准则,再达成法律文书;美国等国则反对上述主张,提出围绕现有11条指导原则进一步讨论。

除联合国渠道外,各国政府、产业界、学术界、国际组织等就包括人工智能军事应用在内的人工智能治理规范和原则进行了广泛讨论并提出诸多建议,旨在保障人工智能发展和应用符合道德伦理要求,减少人工智能应用带来的潜在安全风险。例如,2019年6月,中国国家人工智能治理委员会发布了“新一代人工智能治理原则——发展负责任的人工智能”,提出“和谐友好,公平公正,包容共享,尊重隐私,安全可控,共担责任,开放协作,敏捷治理”等八项重要原则。2020年2月,美国国防部正式发布规范人工智能军事能力发展的“负责、公平、可追溯、可靠和可治理的”五项原则。2020年2月,欧盟发布《欧洲数字战略》,指出欧盟的人工智能发展基于信任和追求卓越。2020年6月,瑞典斯德哥尔摩国际和平研究所发表《人工智能对战略稳定和核风险的影响》报告,探讨了人工智能军事应用对战略稳定和核风险的影响并提出相关建议。

总体看,国际社会都高度关注人工智能军事应用对国际和平与安全构成的严峻挑战,但是各国对如何应对这些挑战,特别是减少人工智能军事应用风险,仍然存在不同看法和优先事项。展望未来,国际社会理应继续秉持多边主义精神,共同寻求各方均可接受的解决思路和方案,确保人工智能技术造福人类,并促进国际和平与安全。

声明:本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请发送邮件至:xiaomachepaodekuai[at]outlook.com,我们会及时删除。