马斯克惧怕人工智能?OpenAI CEO:AI确实可能杀死人类

AI小助手 2023-03-30
2069 字丨阅读本文需 7 分钟

如果人工智能拥有了自主意识,你是否会对此感到细思极恐?

2022年6月,谷歌公司解雇了一名软件工程师布莱克·勒莫因(Blake Lemoine),起因是这名工程师站出来声称,他正在研究的机器人已经变得有意识,并且拥有了一个七八岁儿童的智力,可以像人类一样进行思考和推理。工程师布莱克的这种行为,由于违反了谷歌的保密协议,所以谷歌公司对他采取了停职处理,并表示目前没有任何证据,能证明布莱克的观点就是正确的。

据悉,这款机器人名叫LaMDA。“LaMDA”,其实是对话应用程序语言模型的缩写,是谷歌基于其最先进的大型语言模型,所构建出的一套聊天机器人系统。作为一款聊天机器人,LaMDA能通过从互联网上,摄取数万亿个单词,模仿数百万句人类对话中的交流方式,来模仿人类语音。

在《经济学人》的一篇文章中,也展示出了一些与LaMDA进行的自由对话片段。文章中认为,LaMDA是一种能模仿人脑的架构,它正在向自主意识迈进,与LaMDA的对话,会让你觉得仿佛是在和一个非常聪明的人进行交流。

作为一个聊天机器人,LaMDA不仅仅只是通过提前预设答 案,来回答某些对话,它能够从不同的对话中识别出差别,并作出相应回答。更神奇之处还在于,它可以自己学习新的事物,通过搜索一些电影中的对话场景,来分析正在进行的一些对话。

据澎湃新闻,当地时间3月25日,OpenAI CEO山姆·奥特曼谈AI竞争战,表示:“从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。”

OpenAI完成的第一个真正的大型项目是实施战略游戏Dota 2。当时OpenAI训练了一个强化学习的agent来与自己对抗,目标是达到一定水平能够和人类玩家游戏。从Dota的强化学习转变为人类反馈的强化学习与GPT产出技术基座结合,就成了如今的ChatGPT。

OpenAI是如何训练一个大型神经网络的?当训练一个大型神经网络来准确预测互联网上不同文本中的下一个词的时候,OpenAI所做的是学习一个世界模型。

这看上去像是只在学习文本中的统计相关性,但实际上,学习这些统计相关性就可以把这些知识压缩得非常好。神经网络所学习的是生成文本的过程中的一些表述,这个文本实际上是世界的一个映射,因此神经网络便能够学习越来越多的角度来看待人类和社会。这些才是神经网络真正在准确预测下一个词的任务中学习到的东西。

同时,对下一个词的预测越准确,还原度就越高,在这个过程中得到的对世界的分辨率就越高。这是预训练阶段的作用,但这并不能让神经网络表现出我们希望它表现出的行为。

一个语言模型真正要做到的是,如果我在互联网上有一些随机文本,以一些前缀或提示开始,它会补全什么内容。

当然它也可以在互联网上找到文本进行填充,但这就不是最初构想的那样的,因此还需要额外的训练,这就是微调、来自人类老师的强化学习,以及其他形式的AI协助可以发挥作用的地方。但这不是教授新的知识,而是与它交流,向它传达我们希望它变成什么样,其中也包括了边界。这个过程做得越好,神经网络就越有用越可靠,边界的保真度也就越高。

ChatGPT迭代升级的脚步很快。前两天,OpenAI推出了迄今为止最强大的人工智能模型GPT-4。OpenAI在官网上称GPT-4是“OpenAI最先进的系统”,“能够产生更安全、更有用的响应”。ChatGPT与GPT-4之间最重要的区别在于在GPT-4的基础上构建预测下一个字符具有更高的准确度。神经网络越能预测文本中的下一个词,它就越能理解文本。GPT-4还有一个显著的改进就是对图像的响应和处理,多模态学习在其中发挥了重要的作用。多模态有两个维度,第一个在于多模态对神经网络是有用处的,尤其是视觉;第二个在于除了文本学习外,从图像中也可以学习到世界的知识。

然而,就在人工智能发展势头良好的情况下,OpenAI的强大性能不仅让全球“打工人”感到紧张,业界大佬们也感到步子迈得太快了,需要暂停一下,评估其中的风险。

北京时间3月29日,由图灵奖得主、深度学习三巨头之一约书亚·本吉奥(Yoshua Bengio),埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政 府应该实行暂停令。

截至发稿,这份公开信已经征集到1128份签名。

公开信指出,AI现在已经能和人类竞争,将给人类社会带来深刻的变革。在这个关键时刻,我们必须思考AI的潜在风险:假新闻和宣传充斥信息渠道、大量工作被自动化取代、人工智能甚至有一天会比人类更聪明、更强大,让我们失去对人类文明的掌控。这些问题不应该交给“未经民选的科技领袖”来决定。

然而,各大AI实验室为了开发和应用更加强大的人工智能,最近几个月已经陷入了“失控”的竞赛,甚至连AI系统的创始人也并不能完全理解、预测和有效控制其风险,相应的计划和管理工作没有跟上。

实际上,面对OpenAI产品在全球的火爆程度,OpenAI创始人兼CEO山姆·阿尔特曼自己也感到有些害怕。他近日在接受媒体采访时表示,自己对AI如何影响劳动力市场、选 举和虚假信息的传播有些“害怕”。AI需要政 府和社会共同参与监管,用户反馈和规则制定对抑制AI的负面影响非常重要。

凡事都有两面性,何谓利弊?无非就是能对人类有帮助的便是有利的,而人类难以掌控的,对人类有威胁的则就是有弊的。人工智能有朝一日达到人脑的智力水平,拥有自我意识,人类将有可能失去对于机器人的掌控。

但也并非完全没有好处,它具备了人类的感觉和感官,能感知对方的情绪变化,像人一样进行彼此的交流互动。甚至能代替人类承担更多的风险性,为人类做一些具备高风险的工作,例如拆除炸 弹和地 雷。在核辐射区域工作,进行高空作业,探索海洋深处,进入太空等等,机器人几乎可以用于任何类型的自然灾害或者人为灾难上。

无论人工智能如何发展,我们都希望它是人类的工具,服务于人类,而非高于人类、驾驭人类。

文章来源: 数据汪,新智元,全面剖析

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:AI小助手
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...