人工智能从一个“高冷”概念坠落“凡间”不过短短几十年,从语音识别、智能购物到无人驾驶……它带来的便捷似乎无处不在,但其背后的风险也不容小觑。
站在国家安全和军事安全层面考虑,人工智能“威力之大,堪比核武,管控不当,不堪设想。”作为中国信息安全测评中心首席科学家,吴世忠委员深刻认识到人工智能可能带来的风险。“人工智能被公认为对国家安全带来深刻变化的颠覆性技术,其智能化、自主性程度越高,双刃剑特征就越突出。”
在从事金融行业的沈国军委员眼里,金融行业作为一种高度数据化的产业,是人工智能最好的应用行业之一。但由于监管对象的复杂化,金融风险交差感染已成为常态,而且金融的风险复杂程度还在逐年递增。
黑客“入侵”、羊毛党的恶意刷帖、合成虚假音视频……人工智能领域立法的滞后性及其所涉及的伦理问题被徐晓兰委员关注。屡见不鲜的个人隐私信息泄露事件进一步放大了人工智能的“黑箱”效应,引发民众的畏惧与不信任;人工智能发展在一定程度上对就业造成的冲击,也大大削弱着人类的自我认同感。
安全可控已成为人工智能发展的基本前提和核心支撑。
“人工智能在发展与治理并举的过程中,一定要走中国特色之路。”吴世忠认为一定要发挥我国的制度优势,针对国防、情报等国家战略需求,统一建设人工智能国家实验室、安全风险测评基地、模拟试验场等技术基础设施。同时,要明确人工智能安全治理责任部门,防治出现“九龙治水”的状况,加大力度有效防范和管控灾难性风险。
沈国军同样希望政府牵头,协调各利益相关方,加快智能金融关键技术的研发,逐步推动建立智能金融大数据系统,实现数据的海量共享与有效监管。
徐晓兰则建议“尽早围绕人工智能开展立法和伦理研究,建立与智慧社会相适应的法律规体系。成立政府授权的地方人工智能理论专业监管机构,制定国家层面的人工智能伦理理论框架和标准。”
三位委员不约而同地提到了“制度优势、国家层面、政府授权”,国家和政府在防范人工智能风险的同时,更要积极主动开展人工智能恶意滥用与体系对抗研究,加强人工智能对抗及失效保护能力建设,提高安全防御水平。