王媛媛
武警警官学院
摘要:军事领域是对科技前沿感知最敏锐的领域,人工智能军事应用不仅是简单的科技或军事问题,更是长远的战略博弈和政治全局问题。人工智能作为社会进步的加速器,军事变革的新杠杆,在改变战争模式的同时战争中的伦理、道德等风险与挑战也逐步显现,本文从军事人工智能的伦理原则和产生的风险入手,分析可能遇到的问题。
关键词:军事人工智能;伦理
随着人工智能技术的飞速发展及其在军事领域日益广泛的应用,它正在逐步改写现代战争的进化轨迹,不仅在宏观层面上促进了军队武器装备、作战指挥、组织形态等方面的智能化,还从深层次推动现代战争呈现人机一体、自主协同、分布杀伤等特征,从而催生出军事智能化体系[1],然而与此同时战争中的技术、伦理、道德等风险与挑战也逐步显现。如果要在军事中利用人工智能带来的无限机遇,最好在冲进未知之门之前给这辆汽车装上刹车,让它真正能行稳致远[2]。否则人工智能技术在军事领域的应用是否会像打开的潘多拉魔盒一样,值得人们谨慎探索,认真思考。
一、人工智能的伦理原则
2018年,微软发表了《未来计算》一书,提出了人工智能开发的六大原则——公平、可靠与安全、隐私与保障、包容、透明、责任[3]。2017年7月,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的“三步走”规划,目标到2030年建成更加完善的人工智能法律法规、伦理规范和政策体系。2019年10月31日,美国国防创新委员会发布的《AI伦理若干建议》,为美国国防部在战斗和非战斗场景中设计、开发和应用人工智能技术[4],提出了五大伦理原则。目前在设计人工智能系统时业界普遍遵循6个基本原则,包括负责、透明、公平、隐私、可靠、可控,其中负责和透明是其他四项原则的基石。
1.负责
人是具有个人价值观和情感好恶的责任主体,负责原则指的是人工智能是人的产物,必然要体现人的主体作用。设计和部署人工智能系统的人员必须对其系统的运行负责,他们应当为自己的决定和行为造成的结果负责。
2.透明
人工智能系统要如实记录生成决定的整个过程和系统所作的决定,包括数据收集、数据标记以及所用算法等,不仅要确保其数据和系统的透明度,而且要确保其数学模型的透明度[5]。
3.公平
公平性是对人而言,面对不同区域、不同等级的所有人,人工智能系统应当以公正、一致平等的态度对待每一个人,而不能对情况类似的群体施以不同的影响。人工智能系统应无差别地向人机界面提供它的处理结果,依据结果作出判断、采取行动。
4.隐私
人工智能因为涉及到数据,所以应当尊重隐私并保障数据安全,这是赢得公众必要信任的条件,而公众信任又是充分利用人工智能的前提。
5.可靠
可靠指的是人工智能系统在使用过程中应确保运行对使用者而言是安全的、可靠的,避免人工智能系统在不可预见的情况下造成伤害,或者被人恶意操纵,实施有害行为,使人类处于不确定的风险中。
6.可控
可控原则要求不管人工智能系统的功能如何强大、技术如何发展,它的作用和能力应该永远置于人的控制之下。人工智能本身不会产生原始的、独立的和从无到有的欲望与诉求,只要人类不恶意地把人工智能设置为“不可控”,人工智能“不可控”的后果就不会出现。
二、军事人工智能产生的风险
虽然目前人工智能仍处于发展的弱智能阶段或是专项人工智能阶段,距离完全自主的、与人类相近甚至超过人类智能的通用智能阶段还有很长一段路程,但人工智能的军事应用,特别是智能化武器系统可能给人类带来一系列的风险和挑战。
1.道德风险,人工智能在军事中的应用对传统人类道德提出了新的挑战,在以往的战争法则中,人类之间的对抗一般保持相对平衡,战争双方互相控制且对彼此伤亡负责,而一旦加入人工智能技术,情况又会怎样呢?人工智能武器是否能经得起现有国际规则特别是武力使用规则的检视?另外,即便人工智能发展到其思维模式、行为方式已类人化,它都无法拥有人的心理属性,因此不会理解战争中自然人的心理变化,它只能是一个高效新颖的杀人武器,这样的智能武器会不会沦为暴力独裁者的无尺度暴力工具?如果在无人类参与的情况下智能武器错误识别并误杀误伤平民,这些伤亡由谁来负责?由此可见,道德风险挑战不是单纯靠人类社会道德准则可以解决的,更需要人类对人工智能本质的清醒认识。
2.操作风险,即军事人工智能系统是否会根据军事指挥官和操作人员的意图发挥作用。从人工智能研发到投入使用,任何一个环节的极小疏漏都有可能导致人工智能的缺陷,这样的智能武器应用到战争中,甚至设计者都不能确定它是否可以做到绝对安全可靠地完成任务。目前处于弱人工智能阶段尚且如此,当发展到强人工智能阶段,人工智能内部系统可以不断进化,能够实现自我升级并完成缺陷补漏,最终是否会出现人工智能系统不听人类指挥、违背人类意愿而将枪口调转指向人类的情况?因此军事人工智能系统设计者在研发到使用整个过程中,必须将人置于主体地位,保证人类对系统的控制权,建立意外发生时的应急预警机制,这些都是极为必要的。
3.战略风险,人工智能应用于军事必然会大大减少作为自然人对战争的参与程度,更多是将以人工形态的模拟化主体出现在战争的第一形式中,或者是和机器人配合共同协作完成作战任务[6],可以最大限度地避免自然人的生命危险,在更高价值上保存了人的力量。但是如果在无人格化的限制下,战争将变成冰冷、高度机械的机器在人的支配下进行的一场无情杀戮,这意味着人工智能的加入使得战争的杀伤难度显著降低,以往战场上的作战人员、武器装备甚至战争补给也许都不再需要,远在千里之外的指挥官只需一个按钮、一句指令就能达到理想的杀伤目的,杀伤效率将超乎以往,战争冲突迅速升级并扩大的可能性将难以预计。人们可以将人工智能应用于军事领域,也可以对可能出现的危险采取措施,但是是否应该发动战争,需要掌握在人类手中[7]。
二、结语
科技与技术是一对孪生兄弟,人工智能的军事应用不但催生了新的作战手段和作战方法,而且加速推动战争形态向智能化演变,未来它与军事系统的持续融合是毋庸置疑的,在战争中所占的比重也会不断增加。因此人工智能风险的承受者也不单单是一个国家,而是整个国际社会,各个国家应加强人工智能中伦理与法律问题的沟通,推动相关技术标准与法则的制定,针对人工智能使用的特殊领域与战场情境建立独立的伦理评价体系、防范人类战争伦理与人工智能参与后的战争伦理相混杂,将技术、伦理与法律等控制手段配合使用、高度融合,确保人类对军事人工智能的控制权,共同应对人工智能的风险与挑战。
参考文献:
[1] 石海明,贾珍珍,人工智能颠覆未来战争[M],人民出版社,2019,347—353
[2] 中国发展研究基金会,《未来基石——人工智能的社会角色与伦理》[R],北京,2018
[3] Greg Shaw,The Future Computued[M],Microsoft Corporation,2018
[4] 吴敏文,美国率先提出军用人工智能伦理原则[N],中国青年报,2019-11-11(7)
[5] 吴敏文,军用人工智能伦理原则争议[J/OL],2020-02-12
[6] 夏天,基于人工智能的军事智能武器犯罪问题初论[J].犯罪研究,2017(6):9 —14
[7] 杜艳勇,人工智能安全及其解决路径[J],哲学动态,2016(9)