目前世界各国政府在人工智能领域的主要关注点是推动发展,对其所蕴含风险则准备不足。如上文所述,在人工智能时代,世界各国在国家安全领域面临的各项风险是相当严峻的。从全球层面来看,各国所具备的应对举措还存在较大的缺点。结合人工智能技术特点和应用发展趋势中可能引发的各项潜在风险,我们认为,国家可以从风险意识提升、治理体系建设、加强监管能力和国际合作等多个方面来构建风险分析和应对框架,以提升国家安全的韧性。
提升风险防范意识
提升风险防范意识是应对人工智能时代国家安全风险的重要起点。相对于其他领域的安全风险,人工智能在国家安全领域的风险具有系统性、不确定性、动态性等特点。此外,人工智能是一个新的风险领域,既有的安全治理经验很少,人们很难从过去的经验中吸取教训。因此,无论是风险的识别、预防和化解都是一项全新的挑战。建立相应的风险感知、识别、预防和化解能力框架是现阶段应对人工智能风险的当务之急。
感知风险意识
国家在发展和应用人工智能技术过程中,应当重视提高对技术以及应用的风险意识。由于人工智能技术的复杂性,企业常常处于技术创新和发展的前沿;而国家在某种程度上远离技术的前沿,对技术的感知存在一定的滞后,并且往往是在事件发生之后才被动地做出反应,这样就会错过最佳的干预时期。为了建立主动应对的能力,国家首先需要提高对于行业和领域的风险意识,避免由于风险意识不足导致的危机。
例如,在总体国家安全观以及其包含的政治安全、国土安全、军事安全、经济安全、文化安全、社会安全、科技安全、信息安全、生态安全、资源安全、核安全等在内的 11 个安全领域中高度重视人工智能发展可能带来的积极和消极影响。特别是在涉及到政治安全、军事安全、经济安全、信息安全、核安全等领域,人工智能所包含的风险已经开始显现,但相应的风险意识并没有跟上风险的威胁程度。在这些重点领域和行业,应当把提升风险意识作为制度性工作。
提升风险意识需要国家密切关注人工智能技术和应用的发展,通过系统思维对其可能在重要安全领域带来的风险进行深度思考。提升意识有助于后续的风险识别、预防和化解的过程,增加国家和社会对风险的重视程度,从而加大资源的投入与人才的培养。
识别风险能力
识别潜在的风险是加强危机应对的重要组成部分,但它又是具有挑战性的工作。人工智能距离广泛应用还有一段距离,相应的风险还在逐步地显现,在缺乏足够的案例的情况下,建立对风险的识别能力是一种具有前瞻性和挑战性的工作。人工智能是一项通用性的技术,有很多方向和突破点,这加大了风险识别的难度。总体而言,主要遵循着技术突破——应用创新——新的风险这样一个过程。识别风险的阶段越早,对于风险的控制就越容易。已有的案例和技术发展的趋势表明,人工智能所带来的风险程度高,往往还是具有一定系统性特征,对国家安全所造成的威胁程度较大。对于国家而言,识别人工智能的风险能力建设是一项长期的工作,需要建立跨学科的知识背景以及相应的跨部门协作机制,在政治安全、经济安全、军事安全、社会安全等领域建立相应的风险识别机制,加强相应的能力建设。
风险预防能力
风险预防是指对已经识别的风险和未能识别的风险进行预防。对已经能够识别的风险领域,应当根据自身的脆弱性,制定相应的预案,并且寻求风险降级的方法。对于未能识别的风险,则需要投入更多的精力,制定相应的规划,评估处置措施。在国家安全领域建立风险预防能力对于政府部门的动员能力有很高的要求。在很多风险的预防问题上,政府都缺乏足够的经验,缺乏成熟的应对机制,但是却需要政府部门能够快速地应对,及时的制定相应的风险预防计划。
风险化解能力
风险化解的能力,最终决定国家在人工智能时代应对国家安全风险的结果。风险意识提高、识别能力加强和建立预防能力都是增加风险化解能力的关键。但是,最终如何化解风险还取决于多方面的能力要素构建。人工智能所具有的跨领域特征,要求首先构建相应的跨部门协调机制。 ①人工智能所展现的跨国界特征,则要求建立起相应的国际合作机制。总体而言,如果化解人工智能的风险,就需要持续的关注和不断的加强能力建设,这对国家提出了更高的要求。
最后,风险化解一项系统性工程,它并非是要减少和限制人工智能的发展,相反,它是建立在对人工智能技术、应用、影响等多个维度的精确理解基础之上,在发展与安全之间取得平衡的一种能力。风险管控越有效,人工智能发展的空间越大,国家竞争力就越强。因此,提升国家安全领域的人工智能风险意识以及建立相应的管控机制,是保障其未来发展的关键。
构建安全治理体系
在提升风险意识和加强风险应对的同时,国家还应当主动加强人工智能安全治理体系的建设,将更多的利益攸关方纳入到治理体系当中,从技术、产业、政策、法律等多个方面建立安全保障体系。
人工智能是知识密集型和资本密集型的领域,人工智能技术的开发者,包括算法和数据领域的专家以及应用开发领域的人才大多分布在企业、研究机构当中。因此,构建多方参与的治理体系是推动人工智能治理的主要方式。其中,政府作为监管部门,加强与社群和私营部门之间的互动,一方面可以掌握技术和应用发展的趋势和方向,另一方面也可以帮助社群和私营部门更好地理解政府的关切,从而避免因为忽视和误判引起的不必要安全风险。
治理不同于管理,很大程度上治理是一种开放、多方参与的过程。很多情况下,治理是自下而上的,强调技术导向的治理方式。它与传统的自上而下、只有政府参与的管理模式存在很大的不同。目前,以多利益攸关方为主要治理模式的机制正在人工智能领域出现。例如,在人工智能的安全与管理领域,正在形成新的以社群为中心的治理机制,IEEE《以伦理为基础的设计》《阿西洛马倡议》是其中的代表。而国际电信联盟这样的政府间组织也在通过多利益攸关方模式发起《向善的人工智能倡议》。
政府应与其他的利益攸关方之间加强交流合作,通过相应的互动机制帮助各方更好地理解国家安全领域的风险,以及共同制定相应的风险管控机制;避免由于知识与政策之间的鸿沟影响技术社群、私营部门与政府之间的沟通障碍,导致风险出现以及相应的风险管控措施无法出台。
加强监管能力建设
从国家安全角度来看,政府是应对风险最主要的责任人,加强政府的监管能力是降低人工智能风险、保障技术与产业长足发展的关键。从政府角度而言,建立人工智能的技术标准体系、应用开发的规范体系以及建立与人工智能时代相适应的法律体系是保障监管能力的关键。
技术标准体系
人工智能的技术标准对于技术本身是否存在漏洞、符合相应的安全要求具有重要的作用。技术上的漏洞有可能导致人工智能的系统被黑客或其他不法分子利用,从而危害国家安全。例如很多智能音箱所暴露出来对个人隐私的侵犯,以及无人驾驶汽车由于图像识别能力不足导致的车祸等,都暴露出了人工智能还存着很多的不完善的地方,有可能会引发新的安全风险。对于这些缺陷,应当不断提高技术标准予以克服。
技术标准由技术社群主导建立,直接面向工程师和开发人员,对于提高人工智能应用的安全性具有重要作用。例如,作为主要的人工智能技术社群,IEEE 设立了 IEEEP7000 标准工作组,设立了伦理、透明、算法、隐私等 10 大标准工作组,通过国际化的标准了影响整个技术社群。2018 年 1 月,中国国家标准化管理委员会宣布成立国家人工智能标准化总体组、专家咨询组,负责全面统筹规划和协调管理我国人工智能标准化工作。标准虽然是面向开发者,但是它作为技术人员所应遵循的基本规范,对于国家安全而言具有重要作用。
程序规范体系
在标准之上,国家还应当在不同的部门制定相应的规范流程,确保对安全风险的控制。以军事领域为例,无论是半自主和全自主的武器系统,其设计应允许指挥官和作战人员在使用武力方面作出适当的人为判断。在决定是否使用人工智能武器时,应当制定明确的规范和流程,避免造成不可预测的后果。同时,还应当加强对人工智能武器的安全性,避免武器泄露或者随意转让相关技术。无论是无意或者有意的扩散都会增加军备竞赛的风险,威胁国际安全体系。
同时对于人工智能军事领域的使用,也应当有一套严格的流程,确保“合法使用”,即负责授权使用、指挥使用或操作自动化和半自主武器系统的人必须遵守战争法、其他国际条约、武器系统的安全规则以及适用的交战规则(ROE)。
法律法规体系
为应对人工智能时代的安全问题,国家应当建立相应的法律、法规体系。国际和国内法律界对此展开了激烈讨论。有学者认为,“智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。”具体而言,人工智能已经在法律资格的主体、致人伤害的责任认定等多个方面提出了现实的问题。
从国家安全角度来看,人工智能的法律、法规所包含的内容更加丰富。从军事领域看,在应对人工智能武器攻击时,如何从国际法角度去认定攻击的性质和攻击的溯源,并应采取何种形式的反击和应对举措?在经济领域,如何去规范人工智能造成的金融系统安全问题?如何明确相应的责任,对相关的企业和人员进行处罚?在政治安全领域,对于类似“剑桥分析”的大数据公司和互联网社交媒体平台,应当如何制定相应的法律法规,禁止其通过人工智能对政治安全进行干扰和破坏?
提升国际合作水平
人工智能所带来的问题具有全球属性,它不是某一国家或者某一领域的治理问题。从技术本身来看,人工智能算法与安全问题是人类共同面临的挑战,具有普适性;从应用角度来看,各国在人工智能的发展和应用上对国家安全造成的威胁是跨国界的;从体系角度来看,人工智能对于地缘经济、地缘安全的颠覆性影响,冲击甚至重塑着现有的国际政治体系,从而影响体系中每一个行为体的国家安全。因此,加强人工智能领域的国际合作对于应对国家安全风险具有重要作用。
国际法
联合国高度关注人工智能对于国家安全的影响,经过 2014 年和 2015 年的两次非正式会议后,在 2016 年 12 月 16 日关于特定常规武器公约的联合国会议上成立了致命性自主武器系统(LAWS)政府专家组(GGE)。该小组的任务是研究致命性自主武器领域的新兴技术,评估其对国际和平与安全的影响,并为制定相应的国际法和国际治理提供建议。 2018 年 9 月在日内瓦召开的联合国常规武器公约的讨论中,各方就制定禁止人工智能驱动的致命性完全自主武器的条约开展讨论。全球约有 26 个国家支持全面禁止人工智能武器,而绝大多数国家还在观望,所以这次会议并未达成共识。但是,在规则缺失和大国战略竞争的背景下,军事领域人工智能的发展带来的风险和威胁在不断增加,出台国际法对于减小人工智能安全风险至关重要。
技术强国与弱国之间存在不同的观点是导致相应的国际法难以出台的重要原因。技术弱国认为应当完全禁止致命性自主武器的开发使用,技术强国则持相反意见,认为开发致命性自主武器可以降低人员损伤,有利于打击恐怖主义和维护国家安全,并且很多系统已经在战场上进入实战。军事是推动技术进步的重要因素,互联网就是由美国军方所发明,同样,人工智能的技术发展背后也有军事因素在强力推动。但是,人工智能的军备竞赛也非技术之福,特别是致命性自主武器的扩散会造成更为严重的后果。因此,从联合国层面制定相应的国际法,并且促成大国之间在发展致命性自主武器上达成一定的军控条约是当务之急。
当前,在国际法不明确的情况下,各国应克制在军事领域使用人工智能武器。联合国政府专家组也应考虑对国际法此前未曾预见的情况追加法律限制,并以道德或伦理为由尽量减少对人和平民的伤害。更进一步的目标包括管理以下风险,如使用武力的门槛降低、意外导致的伤害、预期之外的矛盾升级以及军备竞赛和扩散。
双边及多边合作
从联合国角度来达成一项谈判可能需要十年甚至更长的时间,鉴于越来越多的风险,大国之间应当及早就人工智能在军事领域应用可能带来的潜在风险开展对话,及早启动相应的军控进程,短期内促成技术强国在谋求战略优势和国际安全体系稳定之间的妥协。同时,各国政府在面对人工智能时代的国家安全问题上面临着共同的威胁和挑战,加强彼此之间的合作是应对威胁的解决之道。
在军事领域,大国之间可以就人工智能的发展以及可能触发的军备竞赛问题开展对话,避免由于过度、过快的开发军事应用而引起的伦理问题,以及对国际安全体系的稳定造成冲击。可以预见,人工智能在军事领域的应用会加速发展,存在的问题也会越来越多。特别是各国之间对于如何看待人工智能武器,如何进行有效互动还存在很大的认知差距。这种差距的存在,导致各国在冲突发生时缺乏有效的应对手段。因此,各国之间应当就人工智能的军事安全问题开展对话,加强管控,增强政策透明度、建立信任措施,降低相应的军事冲突的风险,并且在冲突发生时能够采取有效的危机管控和冲突降级措施。
在政治安全、经济安全、社会安全领域,许多国家也都在积极开展各种实践活动,相应的做法之间有很大的相互借鉴之处。各国可以就政策实践、信息共享、最佳实践、案例研究等问题开展有效对话。目前看来,主要的大国并未在双边层面开展相关的对话,由此带来的后果是相互之间的猜忌和不信任程度的增加。令人值得警惕的是,很多人把中国与美国在包括人工智能在内的高科技领域的竞争比作另一个“星球大战”,或者所谓的“科技冷战”,不仅导致了双方之间相互将对方视为敌手,甚至导致了对科学研究、供应链、产品的人为设限。因此,应通过相应的对话机制,通过有效的沟通来寻求更多的合作点,避免由于相互猜忌导致的恶性竞争。
总体而言,国家安全风险是人工智能发展过程中各国必须直面的挑战,在面临共同的威胁时,最优的做法是携手应对,通过相应的国际合作机制来降低安全威胁,增加合作空间,让人工智能更好地服务于人类社会的发展,增进人类社会福祉。