今年的政府工作报告提出,大力推进现代化产业体系建设,加快发展新质生产力。深化大数据、人工智能等研发应用,开展“人工智能+”行动,打造具有国际竞争力的数字产业集群。
当前,以ChatGPT为代表的生成式人工智能异军突起,掀起了通用人工智能技术引领与应用创新的发展浪潮,成为近十年来AI领域最具变革性的技术,将给经济社会发展带来巨大影响。全国人大代表,中国移动河南公司党委书记、董事长、总经理楼向平在接受《人民邮电》报记者采访时表示,建议进一步加强人工智能可信治理,以更加负责任的方式发展可信的、以人为本的人工智能,助推培育新质生产力,扎实推动高质量发展。
目前,我国人工智能核心产业规模不断增长,人工智能广泛应用于通信、金融、医疗、交通、生产制造等领域,已经成为数字经济发展的重要驱动力。然而人工智能安全防护能力的不足和缺失正在带来多方面的风险和挑战,如知识产权侵权、隐私信息泄露、AI框架安全风险、AI算法攻击、误用滥用等。
针对人工智能领域法律法规有待完善,同时缺乏统一的可信人工智能技术标准和评估体系等问题,楼向平从多个层面提出了切实的建议。
首先是构建系统化的人工智能法律法规体系。
一是积极推动人工智能领域立法进程。建议建立国家层面的立法研究工作组,充分收集学术界、产业界意见,汲取国外立法经验,兼顾约束不当行为和营造产业优良发展环境的目的,积极开展人工智能专项立法研究,推动立法进程,促进人工智能产业健康发展。在新法律颁布前,可通过在现有《数据安全法》《著作权法》等法律规定基础上制定行政法规,或发布司法解释、指导性案例等方式阶段性缓解人工智能发展中面临的法律问题。
二是明确生成式人工智能“事前—事中—事后”全链条监管机制。参考欧盟经验,出台人工智能的风险等级规范,针对不同类型、不同风险等级,施加不同的监管措施。引入算法认证标识、监管沙盒机制,指导和支持企业在监管机构的监督下进行创新活动。
三是建立人工智能责任认定和追责机制。以技术的使用为主线,将经济利益与责任承担深度结合,形成完整的链式责任分配机制,通过相应主体的分段分层可控,实现生成式人工智能发展的总体可控。
四是建立各利益相关方共同参与的系统化治理体系。政府在治理中发挥领导性作用,负责制定政策法规、设立专门机构以执行治理规定。行业协会制定技术伦理、行业伦理等行业规范,第三方智库提供咨询建议。社会公众形成约定俗成的行为准则,并对相关主体进行联合监督。各方共同参与、协同发力,形成政府管理、社会监督、行业自治、企业履责、用户自律的体系化人工智能治理体系。
其次是构建统一的可信人工智能技术标准和评估体系,加强内生安全防御技术研究,实现人工智能“生成即安全”。
一是设立人工智能可信性指南,构建可信人工智能标准框架。在训练语料库方面,构建高质量中文语料库和数据集,更好支撑国内人工智能模型训练。在数据收集和使用方面,根据数据的价值和对利益的影响,明确人工智能训练数据的分类分级保护标准,制定不同类型和不同级别数据的处理规则与安全保护措施。在数据存储和传输方面,强化数据脱敏和数据加密要求,防止数据还原为原始信息,引入对称或非对称加密技术降低敏感信息泄露的风险,抵御未经授权的访问和数据泄露风险。在隐私保护方面,引入差分隐私、同态加密和安全多方计算等技术,确保模型在隐私受限环境中的训练和生成。
二是依托人工智能可信性指南,建立可信AI评估工作机制。打造国内权威、公平科学的可信AI评测平台,构建自主可控的可信AI检测工具体系。面向训练数据,打造训练数据检测工具,进行防投毒数据、侵权数据、有害数据的分析判断,保证使用合法的数据进行训练,防范与事实不符或有毒的内容注入AI系统。面向生成内容,打造内容生成检测工具,自动识别并报告通过人工智能技术生成的虚假、有害的内容,确保内容质量,保护知识产权。构建可信AI评测平台与AI应用监管工作的协同机制,依据可信AI评测平台的检测结果,对人工智能算法及应用进行评级,形成分级分类的商用准入许可或评估备案机制,构建人工智能法律规范、评估机制、监管工作协同共促的良好生态。
三是加强安全技术攻关,构建内生安全底座。强化内生安全防御技术,赋能人工智能应用系统,有效阻断和控制应用系统硬件环境存在的漏洞、后门等内生安全的共性问题,使内生安全问题难以发展成为内生安全事件。加强内生安全技术攻关,通过内置安全模块提升自适应防护能力,使人工智能系统具备稳健性和安全性,有能力应对恶意使用,防范恶意监听、病毒文件、隐私泄露、犯罪技术等违法程序或内容的输出。