问题层出不穷的AI技术,如何监管,由谁监管?

智小仙 2023-10-19
2919 字丨阅读本文需 7 分钟

生成式人工智能在大幅解放生产力的同时,安全、合法、道德、伦理等问题如何规范?随着ChatGPT大火带来的AI热潮,如今,如何监管AI技术成为市场热议的话题。

平衡AI发展和安全

人工智能技术的益处不必赘述,与会专家基本都认可:它可以加速科学技术创新进步、刺激生产力和经济增长……但专家们也都认为,AI技术的风险不容忽视。

联合国教科文组织社会科学及人文科学部门助理总干事加布里埃拉·拉莫斯在视频致辞中提到,AI技术会复制放大歧视,进而加深社会不平等;对环境的影响也不容忽视,大模型产生的二氧化碳排放量相当于125次往返北京纽约的航班;大型语言模型还会产生大量错误和虚假信息。

关键在于平衡发展和安全。清华大学智能社会治理研究院院长苏竣从AI与环保角度切入举例:“目前数字化与绿色化发展之间还存在夹角,如果处理得当,智能技术将在推动能源生产消费革命方面发挥巨大作用,大幅降低能源消耗和碳排放,有助于尽快实现‘双碳’目标。反之,处理不当则可能带来更多能源消耗和社会福利的损失,使社会陷入生态危机。”

“为了有效平衡发展和安全,探索人工智能的治理框架,已经成为国际社会的共识。”市教育委员会副主任叶霖霖介绍。

AI监管深切讨论

一份最新的文件显示,谷歌和OpenAI这两大AI领域的领导者对政府应如何监管人工智能持有相反的看法。

OpenAI首席执行官Sam Altman最近一直在鼓吹由政府来监管AI技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管AI,而且他认为,该机构应该专注于监管AI技术,以及为使用该技术的实体颁发许可。但谷歌则不希望AI监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的AI治理方法”。

AI领域的其他人,包括研究人员,也表达了和谷歌类似的观点,称政府部门对AI进行监管可能是保护边缘化社区的更好方式——尽管OpenAI认为技术进步太快无法采用这种方法。

谷歌称:

在国家层面,我们支持中心辐射式方法——由美国国家标准与技术研究院(NIST)等中央机构通知部门监管机构监督AI实施——而不是一个“人工智能部门”。AI将在金融服务、医疗保健和其他受监管的行业带来前所未有的挑战,这些挑战将由具有这些行业经验的监管机构来应对,而不是一个新的、独立的部门来监管。

华盛顿大学计算语言学实验室教授兼主任Emily M. Bender说:

我完全同意所谓的AI系统不应该在没有某种认证程序的情况下部署。但是这个过程应该取决于系统的用途。现有的监管机构应保持其管辖权和决定权。

谷歌的这一观点与OpenAI和微软偏爱更集中的监管模式形成鲜明对比。微软总裁Brad Smith表示,他支持组建一个新的政府机构来监管人工智能,而OpenAI 的创始人们也公开表达了他们的愿景,即组建一个类似国际原子能机构的组织来监管AI。

谷歌全球事务总裁Kent Walker表示,他“不反对”由新监管机构监督大型语言模型许可的想法,但表示政府应该“更全面地”看待这项技术。

谷歌和微软在监管方面看似相反的观点表明人工智能领域的争论越来越多,争论远远超出了技术应该受到多少监管的范畴。

纷至沓来的监管者

在美国,诸多行为者正在争夺对AI监管的主导权。

首先是国会,参议院多数党领袖查克·舒默(Chuck Schumer)呼吁抢先立法,为AI产品和服务建立监管“护栏”。护栏的重点是用户透明度、政府报告以及“使这些系统与美国的价值观保持一致,并确保AI开发者兑现他们的承诺,创造一个更美好的世界。”然而,这一提议的模糊性并不令人乐观。

其次是拜登政府。政府内各联邦机构之间存在一些竞争,以实施2022年10月提出的一项白宫AI权利法案蓝图。该蓝图同样很笼统,呼吁开发者确保系统“安全和有效”,不要歧视或侵犯预期中的隐私权,并解释用户何时与自动化系统接触,为那些提出要求的用户提供人工“应急方案”——至少到目前为止,该蓝图尚未对这些关键术语中的任何一个进行定义。

在美国商务部,国家电信和信息管理局(National Telecommunications and Information Administration, NTIA)针对AI系统的审计和认证是否有用展开了调查。该机构已要求就AI系统责任方面的数十个问题发表意见,包括是否、何时、如何以及由谁对新的应用程序进行评估、认证或审计,以及在这些审查中应包括什么样的标准。在这里,调查的具体内容似乎走向了正确的方向。

与此同时,联邦贸易委员会主席莉娜·卡恩(Lina Kahn)采取了不同的方式,声称她的机构已经拥有对LLM的管辖权,并将该机构反竞争和保护消费者的军刀挥向了新技术的方向。卡恩推测,AI可能会加剧科技领域的现有问题,包括“勾结、垄断、兼并、价格歧视和不公平竞争手段”。这位联邦贸易委员会主席还认为,生成式AI凭借其创造虚假但令人信服的内容的能力,“有可能加剧欺诈行为”。而且,她指出,LLM可能——有意或无意地——根据有偏见的数据集来对用户请求作出回应,从而违反现有的隐私和反歧视法。

然后,还有更多地方一级的努力:至少有17个州已经出台了与AI相关的立法。这些拟议的法律中一部分会激励AI产品的本地开发,而另一部分会限制其在医疗保健和人才招聘等应用中的使用。许多州已经或正在考虑建立自己的工作组,以对未来的立法提出建议。

到目前为止,这些提案都没有什么具体细节,AI带来的各种假设性危害属于现有的类别,包括信息错误以及滥用版权和商标。无论如何,监管机构在短期内可能对该技术的发展不会产生什么影响。许多拟议的法规需要国会给予这些机构额外的法律授权,这在目前的政治气候下似乎不太可能。即使那样,新规则的应用也是法院的事情,这会演变为多年的磨合过程。而政府历来难以吸引到所需的技术专长,哪怕是为了确定LLM和其他AI应用可能造成的各种新伤害。

在联邦提案中,要感谢商务部提出了正确的问题。可是,目前尚不清楚部长吉娜·雷蒙多(Gina Raimondo)是否有法定权力来创建一个可持续的认证程序,或者是否有政治影响力来让科技行业支持国家电信和信息管理局的努力。此外,正如该部所承认的,它的调查只是白宫为AI服务创造一个可信环境的更大努力的一部分,这一目标需要在众多各自为政的政府部门之间进行前所未有的协调和合作。

这些讨论也是在美国法律发生巨大变化的背景下进行的,这些变化可能会决定谁将最终赢得AI主要监管者的角色。最高法院最近的决定极大地改变了商业法的法律格局,将权力从联邦监管机构转移到法院和各州,加大了执法行动的碎片化、不确定性和迟滞程度。最高法院为那些希望挑战机构规章的企业开了绿灯,比如,要求国会提供更具体的指示,实际上是将所采用的规则是否会生效的最终决定权外包给联邦法官。当然,与此同时,这项技术会继续以自己的速度加速发展。

这些局限性共同表明,主要的监管更有可能首先来自美国以外的地方。

对于竞争法,尤其是竞争法在科技公司中的应用,过去几十年的势头已经从美国转移到了欧洲。正当欧盟继续通过大量新的互联网立法之时,美国国会却犹豫不决,使得联邦贸易委员会和其他联邦机构在很大程度上没有工具或资源来与其欧洲同行竞争。欧洲议会最近批准了《人工智能法》(AI Act),这是一部100页的法规,它会主动禁止那些被认为具有“不可接受”之风险水平的应用程序,要求其他应用程序在欧盟使用前获得事先批准和许可,并对开发者的一系列违规行为处以巨额罚款。

中国的监管机构也在迅速行动,旨在激励本土的AI产品和服务,同时又界定它们可以如何运作以及不可以如何运作。这不仅可以限制非中国企业与超过10亿的潜在中国用户互动,而且可以通过抢占先机成为未来应用事实上的法律制度。欧盟的人工智能立法工作已经取得了长足进展,中国国家网信办也起草了生成式人工智能服务管理办法的征求意见稿。《人工智能大模型伦理规范操作指引》(下简称“操作指引”)正是旨在应对人工智能大模型的风险,推动伦理规范落地实施。研究团队相关负责人、同济大学人文学院特聘教授杜严勇表示,大多数人工智能伦理原则和指南内容是趋同和重叠的,说明对于核心的人工智能伦理原则,基本已经取得了高度共识。但这些伦理原则如何落地实施,却始终没有较有力的措施,这也是尝试探讨人工智能大模型伦理规范操作指引的根本原因,“我们尽可能指向人工智能大模型技术特征以及可能的应用场景,提高操作指引的针对性。”

文章来源: 哈佛商业评论,上观新闻,华尔街见闻

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:智小仙
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...