欧洲将严格监管高风险人工智能技术

科技日报 2020-02-21

人工智能

837 字丨阅读本文需 2 分钟

  (记者刘霞)据美国杂志《科学》网站19日报道,欧盟委员会宣布一项新计划,将颁布法律严格规范高风险人工智能技术,更新欧盟2018年人工智能发展战略,并在未来投资数十亿美元用于人工智能研发,以进一步推动欧盟人工智能产业的发展。

  委员会将起草新的法律来管理人工智能技术的高风险,比如医疗设备和自动驾驶汽车。尽管这些法律将比欧盟以前颁布的任何法律更加广泛和严格,但欧盟委员会主席乌尔苏拉·冯·德·莱恩表示,这些法律的目的是促进“信任,而不是恐惧”。

  与美国相比,欧洲对人工智能持更加谨慎的态度。欧盟官员希望通过监管赢得消费者的信任,从而促进人工智能技术的广泛采用,帮助欧洲在国际人工智能技术竞争中脱颖而出。

  欧盟委员会指出,有一套准则来确定某些应用程序是否属于“高风险”应用程序。例如,它是否会导致人员受伤,或者它是否会导致人员在决策中没有发言权(例如,人工智能用于招募或警察活动)。欧盟委员会希望高风险应用需要人工监管。

  法律还将决定谁对人工智能系统的行为负责:使用人工智能系统的公司还是设计人工智能系统的公司。高风险应用必须被证明符合法规,才能在欧盟广泛使用。

  此外,这些法律还将管理用于培训人工智能系统的大型数据集,以确保它们是合法购买和采购的。欧盟委员会反垄断专员玛格丽特·维斯塔格(Margaret Vestager)表示:“人工智能系统的可靠基础是强大而精确的技术。”

  欧盟委员会表示将“对欧洲的人脸识别人工智能系统进行广泛讨论”。尽管德国等欧盟国家宣布了部署这些系统的计划,但官员们表示,这些系统经常违反欧盟隐私法,包括警察工作的特别规定。

  新的人工智能计划不仅涉及法律法规,而且欧盟委员会还将提出一项“行动计划”,将人工智能纳入交通和医疗等公共服务,并将更新欧盟2018年人工智能发展战略,该战略计划投资15亿欧元用于人工智能研究。此外,欧盟委员会呼吁加大研发力度,包括建立人工智能“卓越和测试中心”,以及投资数十亿美元建立新的人工智能行业伙伴关系。

  在接下来的12周内,专家、游说团体和公众可以就此问题发表意见。然后,欧盟委员会开始起草具体的法律法规。最终的法律和法规需要得到欧洲议会和成员国政府的批准。预计今年不会完工。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:科技日报
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...