AI大模型透明度如此重要,科技公司为何还要藏着掖着?

老刘说科技 2023-10-26
2205 字丨阅读本文需 6 分钟

随着人工智能技术的迅猛发展,AI应用的范围愈发广泛。AI可以在医疗、金融、交通以及其他领域帮助人类实现更加高效、准确和便捷的工作方式。然而,随着AI的不断普及,也面临着一些风险,如数据滥用、信息泄露和因算法失误导致负面影响等。因此,构建可靠的AI体系需要考虑安全、公平、透明以及隐私保护等多个方面。

一、AI算法透明

近年来,人工智能技术的发展使得其透明性问题日益凸显,为保障用户对算法知情,实现监管机构对算法进行有效规范治理与问责,算法透明性必不可少。然而,算法透明性更类似于原则性的提议,具体如何落实透明性要求,并对其进行有效评估,尚未形成共识。

因此,我们对AI算法透明当前存在的诸多挑战进行了总结,主要涉及三个维度:技术、评估和制度。

技术上,很难处理AI算法的黑箱问题;评估上,对透明程度的要求很难把握尺度;制度上,算法问责机制仍然模糊。

为有效应对这些挑战,我们首先给出算法透明性实现路径,解决技术和制度问题,之后提出算法透明评估清单应对评估问题,最终在推荐系统下进行实践与应用。

宏观上,我们首先需要AI算法透明性治理范式,针对当前在算法监管立法等多个层面的挑战。我们希望打破透明性中耦合的机制主义和管理主义,形成一种以法律规制为主导,技术适配为基础的多元一体、多方协作的AI算法透明性治理范式。

微观上,这一范式的实施措施落实到学术、法律、技术和场景四方面。

学术上,国内外学者研究主要从多方视角相关主体出发,提出了若干在法律规制和技术适配方面的思考。

法律上,鉴于算法透明,是实现算法问责的重要机制。主要可以总结为两种实现AI算法透明的模式:赋权模式和行为规范模式。赋权模式属于事后救济,而行为规范模式属于事前预防和事中约束。

这里我们具体对比了不同国家地区的法律,发现各国都采取健全算法问责机制等措施。此外,我们也注意到欧盟还强调对算法参数的公开。

技术上,我们聚焦于实现从不透明模型向可诠释模型、可理解模型转变的可解释技术,该技术具体分为事前解释、事后解释和可诠释模型。针对不同的应用实例,又会有更为细致的方法。

不同的应用场景,对AI算法透明体现出不同的场景需求。

二、可靠的AI需具备什么

首先,可靠的AI应该具备安全要素。AI模型很容易受到攻击,进而被恶意攻击者利用来造成混乱或者伤害。如果AI系统无法保证安全,它们可能会被入侵,遭受窃取或篡改。因此,AI应该保证其系统安全,这意味着所有非授权用户都无法访问AI系统,并且必须有一套管理方法来防止恶意攻击和系统漏洞。

其次,可靠的AI应该具备公平要素。公平是指AI系统对待不同群体的公正性。AI模型可能存在性别、年龄、种族和文化背景等方面的偏见,这会导致模型的不公平性和歧视性。为了确保AI的公平性,AI系统必须经过彻底的审查和测试,以消除人为和技术上的偏见,同时要确保数据集的多样性,避免数据集的不足引起的问题。

第三,可靠的AI应该具备透明要素。透明度意味着AI系统必须能够解释其决策和结果,并允许人们理解其运作原理。在某些情况下,AI系统的决策可能会影响到人类的生命和财产安全,因此,如果AI系统是不透明的或者不可解释的,将无法建立用户信任。AI应该被设计成透明并且开放,可以解释出来它所作出决策的原因,如哪些数据引起了这个决策,以及是否需要对决策进行调整。

最后,可靠的AI应该具备隐私保护要素。在AI应用中,数据往往是该系统最重要的资源。然而,数据中往往包含个人敏感信息,如姓名、地址、电话号码等。如果AI系统不能确保数据的隐私性,那么这些数据可能会被滥用或泄露,进而导致个人隐私权受到侵犯。因此,AI系统必须确保数据的隐私性,在数据收集和使用过程中保护用户的个人信息,同时遵守数据保护法规。

三、不公开,各大公司的三大理由

透明度如此重要,科技公司的高管们为什么还要藏着掖着,不能大大方方地分享更多有关其模型的信息呢?

那么来看看各大公司的三大理由。

首先是诉讼。人工智能公司经常陷入官司,被指控非法使用受版权保护的作品来训练他们的人工智能。前几天Anthropic就被指控滥用至少500首受版权保护的歌曲歌词来训练其聊天机器人Claude。

我们经常看到有著名画师表示自己的图变成别人帖子中的“AI生成”就是这种情况。

大多数诉讼都针对开源人工智能或披露详细信息的项目。毕竟,只要我不说,你就不知道我用没用。说得越多,反而越容易面临昂贵、烦人的诉讼。多说多错,这种情况下的占优策略无疑是保持沉默。

经典的不是版权买不起,而是直接用更实惠。不过动辄数十数百T的数据,光是一个个分辨它们的版权到底在谁家就是个天文数字级别的工作量。

嗯,为了省钱还可以理解一下。

第二个原因是竞争。很多AI公司相信他们的模型之所以有效,是因为他们拥有秘密武器——其他公司没有的高质量数据集、产生更好结果的微调技术、赋予他们优势的一些优化。

如果强迫AI公司披露这些秘诀,就会让他们将来之不易的智慧拱手让给竞争对手,而竞争对手可以轻松复制它们。

嗯,商战嘛也可以理解。就像量化公司不会公开它们的代码一样。

第三个原因是安全。一些专家认为,公司披露他们的模型会加速AI的进步——因为每家公司都会看到所有竞争对手正在做什么,并立即尝试通过建立更好、更大、更快的模型来超越他们,进而陷入AI的军备竞赛。

这些人说,这将使“留给社会监管进步的时间变少,以及加速人工智能的发展”。如果人工智能出现这种情况,我们所有人都可能面临危险,因为人工智能的发展速度会快于人类接受新事物的速度。

嗯,披露信息比不披露更加不利于监管,要不要听听你在说什么。

至于减缓人工智能的发展……您是AI公司吗——是。您想让公司盈利吗——想。那您想让自己公司的AI加速发展吗——当然想啊!减缓AI发展与公司的目标完全是冲突的,搁这儿负反馈调节,怕不是有什么大病。

另外,如果他们担心的是启动人工智能军备竞赛……我们不是正陷入其中吗?

研究人员显然并不相信这些高管的理由,他们敦促AI公司发布尽可能多的大模型的信息,并表示“当透明度下降时,可能会发生不好的事情”。

他们的担忧是有道理的。低透明度的模型缺乏有效的监管,最后极有可能酿成恶果。

文章来源: ​远川科技评论,数据派THU, 趣味资源馆

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:老刘说科技
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...