0

人工智能安全问题及其解决进路

2024.09.26 | 念乡人 | 159次围观
人工智能安全问题及其解决进路
  第二,应用范围限定。为保证人类社会的和谐稳定,人们通常对一些发展尚不成熟、容易引起安全问题与社会争议的技术的应用范围进行限定。自英国科学家成功克隆羊之后,科学家们又克隆出了牛、猪、狗等多种动物。但是,能否将克隆技术用于克隆人,是一个非常有争议的话题。一方面,克隆人会引发许多尖锐的伦理问题;另一方面,克隆技术还不够完善和成熟。许多学者也认为,即使克隆技术发展得非常成熟了,我们也不能克隆人。因此,目前许多国家都明确立法禁止克隆人。   目前,人工智能的优势主要在于规则非常明确的领域,比如各种棋类竞赛。阿尔法围棋的胜利,说明人工智能拥有的超算能力和深度学习能力已经完全可以胜任对极大信息量的处理。在这方面,人类智能已经远远落后于人工智能。但是,虽然阿尔法围棋拥有强大的学习能力,但它却只能用于学习围棋,不能触类旁通,而人类很容易将不同领域的学习经验进行自由转换。虽然人工智能的学习与转换能力被认为是一种重要缺陷,但这正好是人工智能安全性的重要保障。如果人类不能确保很好地控制人工智能,那么将人工智能的功能控制在比较单一的情况下是明智的。也就是说,把针对棋类竞赛、专家系统、无人驾驶等开发的专业人工智能的学习应用能力就限定在自身领域的范围内,一方面可以保证人工智能在各自范围内达到很高的水平,另一方面也可以避免人工智能过于强大而对人类造成威胁。   从公众的角度看,人们普遍希望把人工智能作为一种重要的工具,特别是在某些方面弥补人类智能的不足,而不希望把人工智能发展为整体上与人类接近甚至比人类更的智能。在研发人工智能的整个过程中,这种定位应该得以明确,而限定其应用范围可能是使这种定位得以贯彻的根本途径之一。   第三,限制人工智能的自主程度和智能水平,建立人工智能安全标准与规范。人工智能安全性问题的根源,并不在于它能否真正超越人类,而在于它是否是一种安全可靠的工具,人类是否对其拥有充分的控制权。就像高铁、飞机等交通工具那样,虽然它们的速度远远超过了人类,但人类拥有控制权,所以人们相信它们是安全的。为了实现对其控制的目标,首先需要对人工智能的自主程度进行限定。虽然人工智能发展迅速,但人类智能也有自己的优势,比如目前人工智能的认知能力还远不如人类智能。我们可以充分发挥人工智能在信息存储、处理等方面的优势,让它在一些重大事件上做人类的智囊,但终的决定权仍在人类。比如,当我们把人工智能应用于军事领域时,我们可以利用人工智能来评估危险程度,以及可以采取的措施,但是否应该发动战争、如何作战等重大决策,还是需要掌握在人类自己手里。正如霍金斯(Jeff Hawkins)所说的那样:“对于智能机器我们也要谨慎,不要太过于依赖它们。”   与限定人工智能的自主程度类似,我们也需要对人工智能的智能水平进行某种程度的限定。虽然库兹韦尔的奇点理论受到了一些学者的批评,但从长远来看,人工智能是有可能全面超越人类智能的。从人工智能的发展历程来看,尽管它的发展并非一帆风顺,但短短六十年取得的巨大进步让我们完全有理由相信将来它会取得更大的突破。从世界各国对人工智能高度重视的现实情况来看,想要阻止人工智能的发展步伐是不现实的,但为了安全起见,限定人工智能的智能程度却是完全可以做到的。   我们应当成立“人工智能安全工程”学科或方向,建立人工智能安全标准与规范,确保人工智能不能自我复制,以及在人工智能出现错误时能够有相应的保护措施以保证安全。人们对人工智能安全问题的担忧的另一主要根源在于,人工智能的复制能力远胜于人类的繁衍速度,如果人工智能不断地复制自身,人类根本无法与其抗衡。因此,在人工智能的安全标准中,对人工智能的复制权必须掌握在人类手中。同时,建立人工智能安全控制许可制度,只有人工智能产品达到安全标准,才允许进行商业推广和使用。   从源头上看,人工智能安全问题是由人工智能技术造成的,可见,科学技术研究并非无禁区。技术的发展成熟固然是解决安全问题的关键因素,但任何技术都有不确定性,且科技产生的问题通常不能仅仅依靠科技本身得到圆满解决。因此,解决人工智能安全问题还需要充分发挥外部进路的重要作用。   三 解决人工智能安全问题的外部进路   ,科学家的社会责任与合作。跟其他高新技术一样,人工智能是非常专门化的科技知识。人工智能科学家与工程师是人工智能技术的研发者,他们是化解安全问题的主体,应该从“消极责任”和“积极责任”两个方面强化人工智能专家的专业责任。积极责任强调人工智能专家应该做什么,如何通过技术手段来保证人工智能的安全;消极责任则关注当人工智能出现负面影响或严重后果时,应该由谁来承担相应的责任。从积极责任的角度看,专家们在研发时不能仅仅追求经济利益,或者一味迎合客户需要。从消极责任的角度看,当人工智能系统出现错误时,专家应该承担相应的责任,而不是把责任归咎于人工智能本身的不确定性与复杂性。从某种意义上说,解决人工智能安全问题的首要因素并不在于人工智能技术本身,而在于人工智能专家的责任心。据报道,谷歌集团专门设立了“人工智能研究伦理委员会”,日本人工智能学会内部也设置了伦理委员会,旨在强调科学家的社会责任以及指导科学家合理研发人工智能。   同时,人工智能安全问题不仅仅是一个地区或组织的问题,各国政府和组织应该是协调人工智能安全问题的组织机构。目前,世界各国竞相加大对人工智能的投入力度,这当然无可厚非,但同时也应该划拨专门经费用于研究人工智能的安全问题,政府经费和人力资源的投入是该问题得以解决的关键。另外,合作在解决人工智能安全问题中将起到举足轻重的作用。前述提到的人工智能的发展与应用限度、安全标准与规范等问题,只有落实到具体的制度上才有意义,而只有组织才能实现这样的目标。从伦理责任的角度看,应当明确科学家共同体、政府与组织各自的责任,避免出现所谓“有组织的不负责任”现象。近些年来颇为流行的“治理”理论研究与实践探索,为在世界范围内就人工智能安全问题进行合作提供了很好的平台与基础。   第二,公众的接纳及其观念的调整。人工智能安全问题,就客观的方面而言,主要指人工智能技术本身的安全,主观的方面则来自于人们(特别是公众)对人工智能安全性的直觉、主观感受或体验。随着信息技术的快速发展,人们对科技风险的感知能力与传播速度得到很大提升。与人工智能专家对目前人工智能技术普遍乐观的态度相反的是,公众和人文学者大多对人工智能抱有一定的疑虑。   毫无疑问,我们应该把公众对人工智能的担忧与恐惧纳入人工智能安全问题考察的范围,尽可能通过对话、讨论等方式进行解决或缓解。人工智能产品如果要走向商业化,终需要公众的理解和接纳。科学家有责任也有义务向公众开展解释工作。虽然人工智能专家普遍认为公众不需要为人工智能的安全感到担忧,但他们一般也不反对将人工智能的技术细节向社会公开,并向公众进行详细解释与说明。当然,人工智能专家把技术性细节向公众解释清楚也并不是那么容易的,因为一般公众对技术性语言的理解存在一定困难。如何让技术专家在与公众对话的过程中,能够使公众真正明白人工智能的相关问题,从而建立起相互信任的关系,这需要技术专家们付出大量的努力。   从科学家的角度看,当前人工智能的安全性问题并不是技术问题,而是公众对人工智能的信任与否或信任程度的问题。一般来说,公众对人工智能研发过程参与得越早,参与过程越长,获取的信息越多,双方的沟通就应该越有效,相互之间的信任关系也就越容易形成。目前,这方面的交流与沟通机制尚未建立起来,相应的工作需要得到人工智能专家的关注与重视。   现代科技及其应用对人类社会的改变通常是难以预料的,我们只能参考类似的科技,以及充分发挥我们的想象力得以窥见端倪。学者们可以通过多种途径向公众说明智能社会的特点与生活方式,引导公众调整思想观念。21世纪是智能时代,人与智能产品的互动将会常态化,将来人类对人工智能的依赖,很可能就像现在我们对手机、电脑的依赖一样,只能选择适应。   第三,人工智能安全评估与管理。随着人工智能发展水平的日益提高,对其可能产生的危害及其程度进行评估、对人工智能的研发过程与产品使用进行安全管理的重要性日益突显出来。安全评价“主要研究、处理那些还没有发生,但有可能发生的事件,并把这种可能性具体化为一个数量指标,计算事故发生的概率,划分危险等级,制定安全标准和对策措施,并进行综合比较和评价,从中选择佳的方案,预防事故的发生”。可见,对人工智能系统的安全评估,可以使技术人员更全面地认识其研发对象的危险因素及危害程度,制定相应的解决措施,从而设计出更安全的人工智能系统。在工程技术中,安全评估是预防事故发生的有效措施,是安全生产管理的一个重要组成部分,在人工智能系统中引入安全评估是必然之举。同时,由于人工智能产品出现安全问题之前可能没有任何征兆,人们也普遍认为高科技产品的安全问题导致的后果是不可逆的,从而可能会对相应的安全问题的严重性作出偏高的主观评价。只有专业人员进行的安全评估,才可能缓解甚至消除公众的忧虑。   从安全管理的角度看,福克斯(John Fox)提出的“危险的动态管理”对于提高人工智能系统的安全性具有启发意义。福克斯认为,为了提高医疗领域人工智能系统的安全性,静态的软件设计与验证和危险的动态管理两方面应该是互补的。虽然传统的安全工程在人工智能系统的设计中可以发挥重要作用,但即使的管理程序在复杂环境中也不可能保证复杂系统的可靠性与安全性,因此智能系统在运作过程中应该具备监控危险的能力,当危险发生时可以进行相应的处理。我们可以把能够识别与管理潜在危险的智能系统看作独立行为主体(independent agent),与主系统同时运行。   福克斯的主张实质是让专门的人工智能安全管理系统来管理人工智能,这种思路对于解决人工智能的安全问题可能具有普遍意义。因为人工智能的部分能力已经超越了人类,如果完全让人类来进行安全管理,人类可能力不从心,更好的办法可能是交给专门的人工智能管理系统。由此,解决人工智能安全问题在一定程度上就转变成如何保证人工智能安全管理系统的可靠性问题。这种安全管理模式是否可行还需要详细论证,但至少提供了一种关于人工智能安全管理的解决途径。   人工智能在带给人类更多福祉的同时,也可能产生某些安全隐患。在逐渐向我们走来的“智能社会”里,人工智能安全问题不再是属于未来学的问题,而应该是当前一个极为重要的哲学和科学技术问题。本文关于人工智能安全问题的论述是相当粗浅的,但这并不妨碍所讨论问题的重要性。只有真正重视并解决人工智能的安全问题,人工智能才能给人类带来光明而不是黑暗的未来。   原标题:杜严勇:人工智能安全问题及其解决进路
版权声明

本文系作者授权念乡人发表,未经许可,不得转载。

标签列表