全球首份AI监管法案即将出炉?我国AI行业早已有了监管良策

智能未来 2023-12-11
2448 字丨阅读本文需 6 分钟

据国内多家媒体报道,经过一场马拉松式的闭门谈判,欧盟成员国及欧洲议会议员当地时间8日于布鲁塞尔,就全球首个全面监管AI的《人工智能法案》达成初步协议。

据了解,这是世界上首次尝试以全面的、基于伦理的方式监管AI。该协议具有里程碑意义,标志着欧盟在人工智能监管方面迈出关键一步。

欧盟委员会内部市场专员蒂埃里·布雷顿表示:“这是历史性的!随着今天围绕《人工智能法案》的协议达成,欧盟成为第一个为使用人工智能制定明确规则的大陆。”

根据初步协议,法案将对包括ChatGPT在内的所有通用人工智能模型的透明度提出严格要求,比如禁止对人类安全造成“不可接受风险”的人工智能系统,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。

另外,该法案还规定,人工智能公司要对算法进行人为控制,提供技术文件,并建立相应的风险管理系统。

有专家认为,欧盟的《人工智能法案》对欧盟乃至全球的人工智能发展格局和立法格局都会带来非常重大的影响。

对于该法案,业内也存在不同的声音。支持者认为,欧盟对人工智能的监管力度仍然不够,需要加强监管。反对者则认为,目前的规则过于严苛,不利于推动创新及欧洲本土产业发展。

矛头直指ChatGPT和谷歌Bard

根据官网介绍,欧洲议会推行AI监管的首要任务是确保欧盟使用的人工智能系统安全、透明、可追溯、非歧视和环境友好;人工智能系统应该由人而不是自动化来监督,以防止产生有害结果。

因此,据称,该立法草案提出了一种平衡、适度的人工智能横向监管方法,仅限于解决人工智能相关风险和问题的最低必要要求,而不会过度限制或阻碍技术发展,或以其他方式不成比例地增加将人工智能解决方案投放市场的成本。

具体来看,该草案的主要内容包含以下几点:

采用基于风险占比的方法,为欧盟内人工智能系统的开发、市场投放和使用制定了统一规则。

禁止某些违背欧盟价值观、特别有害的人工智能做法。这类做法包括:使用人工智能进行“社会评分”、操纵人类行为以规避其自由意志等。

针对某些执法用途的远程生物识别系统提出了具体的限制和保障措施。比如,将禁止根据政治或宗教信仰、性取向或种族等敏感特征对人进行分类的生物识别扫描,媒体称这是谈判中最困难、最敏感的问题之一。

规定了一种可靠的风险方法,以界定对人的健康和安全或基本权利构成重大风险的 "高风险 "人工智能系统。

对于某些特定的人工智能系统,只提出了最低限度的透明度义务,特别是在使用聊天机器人或 “深度伪造技术(deepfake)”时。

值得注意的是,Breton表示,立法者同意采取两层办法,即“对所有通用人工智能模型(例如 ChatGPT)提出透明度要求”,以及对整个欧盟“具有系统影响的强大模型提出更严格的要求”。

知情人士也曾于12月8日向媒体透露,谈判代表已同意对OpenAI的ChatGPT和谷歌的Bard等能够根据命令生成内容的生成式人工智能工具进行一系列控制。

也就是说,该草案直接要求ChatGPT和通用人工智能系统(GPAI)等基础模型在投放市场之前遵守透明度义务,其中包括起草技术文件、遵守欧盟版权法以及传播有关培训内容的详细摘要。

比如,具有系统性风险的高影响力AI模型必须进行模型评估,评估和减轻系统性风险,进行对抗性测试,向欧盟委员会报告严重事件,确保网络安全并报告其能源效率;具有系统性风险的GPAI可能需要依靠实践守则来遵守新法规。

在处罚规定方面,拟议的立法将对违反规定的公司处以经济处罚,罚款最高可达3500万欧元,或全球营业额的7%,具体取决于违规情况和公司规模。

接下来,欧盟等还将就此草案讨论细节,这可能会改变最终立法的形式。法案正式颁布实施后,各成员国将基于本国的公共政策基础,做出一定的变通适用。

在监管与发展中寻求平衡

据透露,欧盟内部关于这一法案的会议讨论内容非常广泛,会议从周三下午持续到了深夜,也凸显出欧盟内部关于监管人工智能的争论非常激烈。

随着生成式AI工具的不断流行,各国政府和科技企业之间的分歧也越来越大。与美国、英国等其他国家政府一样,欧盟一直在努力在保护本土AI初创企业(如法国的Mistral AI和德国的Aleph Alpha)与规避潜在社会风险之间寻求平衡。

事实证明,这也正是欧盟谈判中的一个关键症结:包括法国和德国在内的一些国家反对多项对AI的监管规定,称它们会不必要地阻碍本土企业发展。

不过,在周四早间欧盟各方达成折中方案后,官员们对最终法案正式落成已经越来越有信心,不过该法案的技术细节仍需在一系列后续会议上敲定。

欧盟政策制定者提出了一项计划,要求支持人工智能模型的开发人员维护有关其模型如何训练的信息,总结所使用的受版权保护的材料,并给人工智能生成的内容打标签。欧盟还要求,所有存在“系统性风险”的系统必须与委员会合作通过行业行为准则,并必须监控和报告模型发生的任何事故。

我国首份生成式人工智能监管性文件正式实施

8月15日起正式落地实施。作为我国促进生成式人工智能发展和规范应用的专门立法,《办法》界定了该技术的基本概念,规定了对服务提供者的制度要求,为未来行业健康发展指明了方向。

今年暑期档,聚焦互联网诈骗主题的电影《孤注一掷》正在热映。影片生动揭示了诈骗背后,人工智能等新技术带来的虚假信息、隐私泄露、算法歧视等风险问题。“近年来,人工智能技术取得了突飞猛进的发展,尤其是大模型的出现带来了巨大便利;但随之而来的是人们对大模型的过度依赖,以及可能产生的安全风险。”中国工程院院士邬贺铨这样说。

一直以来,我国坚持发展和安全并重,《办法》在鼓励自主创新的同时,也强调了相关主体要依法承担责任,履行网络信息安全义务。周鸿祎认为,大模型是数字化的顶峰,同样也是一把“双刃剑”,带来生产力提升的同时,也存在数据和算法安全问题等风险。

“如何将海量的数据转换为能为大模型训练所用的数据是重点。”在近日举行的第十一届互联网安全大会上,中央网信办网络安全协调局副局长罗锋盈表示,要提升新技术、新应用安全风险防范能力,善于把数据资源转换为数据优势,构建网络安全教育技术产业融合发展的良性生态。

在全球范围内,意大利、德国、法国、西班牙等多个国家的监管部门对人工智能表达担忧或发起调查。中国电子技术标准化研究院党委书记杨建军表示,如何发展好、运用好、管理好生成式人工智能,已成为全世界面临的共同挑战。《办法》作为国际上较早出台的积极应对生成式人工智能安全风险的专门立法,为有序开展相关管理工作明确了方向。

“加强生成式人工智能大模型技术的安全向善、可信可控,是创新发展的前提,也是我们坚持攻克的方向。”周鸿祎表示,《办法》内容表明了国家相关部门鼓励创新,支持人工智能产业发展的态度,为科创领域从业者提供了信心和保障。

文章来源: 光明网,华尔街见闻,科创板日报,快科技

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:智能未来
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...