人工智能的安全问题不容忽视 人工智能正以出乎想象的速度走进我们的生活,渗透到了制造、家居、金融、交通、安防、医疗、物流等各行各业。据预测,2018年全球AI产业市场规模将逼近2700亿元;2020年全球市场规模将达4000亿元;至2025年,全球范围内人工智能产业收入的年均复合增长率将大幅提升,达到57%以上。 诚然,人工智能的飞速发展一定程度上改变了人们的生活,但与此同时,由于人工智能尚处于初期发展阶段,该领域的安全、伦理、隐私的政策、法律和标准问题引起人们的日益关注。具备超快学习能力的人工智能是否将进化的比人类还要先进?是否有一天将摆脱人类的控制?一旦出现人机情感危机问题应如何解决?人工智能是否应该作为法律意义上的人承担事故责任?……诸如此类的问题层出不穷,使得人们在享受人工智能带来的便利的同时,也难掩内心的恐慌。 就人工智能技术而言,安全、伦理和隐私问题直接影响人们与人工智能工具交互经验中对人工智能技术的信任。如果不能消除人们内心的怀疑和忌惮,必将影响人工智能技术的发展。 人工智能的安全问题不容忽视 人工智能最大的特征是能够实现无人类干预的,基于知识并能够自我修正地自动化运行。在开启人工智能系统后,人工智能系统的决策不再需要操控者进一步的指令,这种决策可能会产生人类预料不到的结果。设计者和生产者在开发人工智能产品的过程中可能并不能准确预知某一产品会存在的可能风险。因此,对于人工智能的安全问题不容忽视。 由于人工智能的程序运行并非公开可追踪,其扩散途径和速度也难以精确控制。在无法利用已有传统管制技术的条件下,想要保障人工智能的安全,必须另辟蹊径,保证人工智能技术本身及在各个领域的应用都遵循人类社会所认同的伦理原则。 其中应特别关注的是隐私问题,因为人工智能的发展伴随着越来越多的个人数据被记录和分析,而在这个过程中保障个人隐私则是社会信任能够增加的重要条件。总之,建立一个令人工智能技术造福于社会、保护公众利益的政策、法律和标准化环境,是人工智能技术持续、健康发展的重要前提。 必须设定人工智能技术的伦理要求 人工智能是人类智能的延伸,也是人类价值系统的延伸。在其发展的过程中,应当包含对人类伦理价值的正确考量。设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则: 一是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。此外,还应该警惕人工智能系统作出与伦理道德偏差的决策。二是责任原则,即在技术