当地时间3月13日,欧盟议会批准了《人工智能法案》。
该法案将AI风险类别分为“不可接受”(Unacceptable risk)“高”(High-risk)“中”(limited risk)“低”(Minimal risk)四个级别,对AI技术开发的透明度、风险评估、治理规则以及处罚措施等方面作出规定。
法案提到,严格禁止使用生物识别信息手段推断个人种族、宗教、性取向,禁止从互联网或闭路电视录像中无目标地抓取面部图像以创建面部识别数据库等内容。若违反相关规定,使用者将面临3500万欧元或全年营业额7%的罚金,除法案规定可以合理使用的场景之外。
上海大邦律师事务所合伙人、律师游云庭在接受《人民邮电》报记者采访时表示,法案中关于训练AI大模型的透明度要求值得关注。“其中提到AI模型开发者要详细说明他们使用了哪些内容来训练系统,而目前包括Open AI在内的美国主要AI服务机构,在训练素材的版权方面有非常大的争议。如果他们仍然选择不公开素材来源,未来可能无法在欧盟提供服务。”
对比我国,游云庭认为,目前阶段我们可以完善数据安全保护法律,出台涉及AI训练数据隐私保护、使用规则等方面的立法,保障公民的数据安全。国家层面上,加快国家AI标准体系建设,尽快制定一系列AI关键标准,推动形成统一开放、竞争有序的AI产业生态。“我国可以让AI再发展一段时间,让其优势、弊端、发展前景都显露得更充分。”
浙江大学光华法学院教授、浙江立法研究院院长郑春燕在接受媒体采访时称,“基于风险”的治理框架与传统法律中“基于权利”的治理框架相区别,更符合AI时代的风险特点和监管要求,为AI技术的创新性发展预留了法律空间,又使得立法以一种包容性的姿态面向快速变迁的社会现实,避免法律的滞后性。
据了解,《人工智能法案》文本的草案最早是由欧盟委员会在2021年4月提出,预计将于今年5月生效,从2025年起实施。