近年来,生成式人工智能不断成熟,展现出全方位提升人类生产生活效率的重要潜力,同时也为数据安全保护带来了新的挑战。2023年7月,国家网信办联合七部门印发《生成式人工智能服务管理暂行办法》,为我国有序开展生成式人工智能安全管理明确了方向。2023年10月,全国信息安全标准化技术委员会发布《生成式人工智能服务安全基本要求》(征求意见稿),为《办法》落实提供了有力支撑,并间接指出以下可能存在的数据安全风险。
一是服务语料来源风险。生成式人工智能需要收集大量数据,用于构建语料库、训练自然语言模型,提高自然语言理解的精准化水平。但无论通过被动输入还是主动爬取方式,都会存在服务语料非法获取风险。对于被动输入方式,多数公司虽然声明不会收集用户的个人信息,但从未明确将其从记录中删除的具体方法,此类信息在实践中仍可能被保留并用于模型训练。对于主动爬取方式,也需注意行为的正当性,若爬取我国未公开数据、出于非法目的爬取或采取其他恶意手段爬取我国数据,则明显超出正当性边界。
二是服务语料泄露风险。生成式人工智能拥有海量数据的语料库,同时在互联网上向全球用户提供服务,无疑增大了自身的被攻击面。生成式人工智能服务语料泄露可能存在三种可能:1.主动泄露,开发机构直接向外界公开语料库信息;2.隐含泄露,即将用于迭代优化的训练数据在下一代版本中作为输出内容。3.系统漏洞,生成式人工智能模型本身可能存在未知的安全漏洞,攻击者可能通过这些漏洞对数据进行窃取、篡改。
三是恶意内容生成风险。生成式人工智能的内容生成是基于对语料库的学习和预测,是一种经验的再现。因此,对于生成内容本身的真实性和准确性,生成式人工智能无法进行判断。这一特点可能导致生成式人工智能产生大量虚假信息,甚至被利用生成恶意内容,从而对人们的思维和行为产生误导和负面影响。如果用于制造“真实”的虚假信息,可能会对社会稳定和经济发展带来巨大影响。
引文:1.《生成式人工智能服务管理暂行办法》
2.《生成式人工智能服务安全基本要求》(征求意见稿)
3.《论生成式人工智能的数据安全风险及回应型治理》