360周鸿祎:GPT 6-8就将产生自主意识!AI到底会不会伤害人类?

人工智源库 2023-04-03
2670 字丨阅读本文需 7 分钟

3月30日,360集团创始人,董事长周鸿祎在微博发文称,昨天,以马斯克为首的科学家给美国政 府写请愿信,要求暂停GPT-5的研发,担心它“对社会和人类构成潜在风险”。我认为这不影响中国发展自己的大语言模型,包括360在内的一些中国公司已经展示了自己的作品,实事求是来说,离GPT-4的水平还有两年差距。现在担心风险为时尚早。不管你愿不愿意,GPT都将引领一场新的工业革命,意义超越互联网和iPhone的发明。它将带来生产力的大幅提升,进而提升国家竞争力,中国一定要迎头赶上,我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。

毋庸置疑,ChatGPT、GPT-4 引领了 AI 新时代的到来,但这种让很多环节都可以实现自动化流程的工具也让人颇为恐慌。

据路透社报道,包括图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克、苹果联合创始人 Steve Wozniak 等在内的数千名对人工智能领域关注的学者、企业家、教授最新发起了一封公开信,强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。

在语言处理、编程等各方面,GPT-4已经有了很强的能力,目前GPT-4不仅可以写各种文案,还可以写各种报告,各种论文,甚至还可以编程。按照目前GPT-4的发展趋势来看,未来很多工作都有可能被取代。

前段时间就有人做过一个推算,初步统计,未来有超过100种职业都有可能被GPT-4给取代。这些职位包括客服代表、文案编辑、新闻记者、会计、软件工程师、律师、建筑师、机械工程师、营销策划、审计员、税务员、广告策划等等。看到这很多人可能觉得这是危言耸听,但任何时候大家都不要低估技术进步有可能带来的产业变革以及市场变革。

要知道目前GPT-4孩子相当于一个“婴 儿”,但他的能力已经超过了很多成人的能力。未来随着技术的不断进步,随着训练数据的不断增多,GPT-4会变得越来越强。

近日,360的周鸿祎放言“GPT6到GPT8人工智能将会产生意识,变成新的物种。未来,人工智能大语言模型有可能实现自我进化,自动更新系统和自我升级,或者指数级进化能力,人类将会面临不可预知的安全挑战。”看到这大家是不是觉得毛骨悚然?一直以来只有人类才有意识,只有人类才会思考、会创造,不管是机器还是系统,都是由于人类创造的,而且只能为人类服务。

GPT会成长为一个通用人工智能模型么?如果会,这个过程可能需要多久时间?要回答这个问题,我们就需要将GPT这类大模型“拆”开来,看看它内部是什么构造,是如何工作的。大模型的核心要素主要是神经网络、层、神经元和参数。

神经网络,是一种机器学习算法,它的灵感来源于人脑的神经系统。它由多个层组成,每个层都包含多个神经元,层之间的连接形成了神经网络。每个神经元都接收来自上一层神经元的输入,并根据其输入计算出输出,然后将其传递给下一层。

层,是神经网络的组成部分,由多个神经元组成。每个层可以使用不同的激活函数、优化器等参数进行配置。通常,每一层都会对输入进行一些变换,然后将输出传递给下一层。常见的层包括全连接层、卷积层、池化层等,划分不同类型的层的依据主要是处理的数据类型、层的内部结构、层的功能等。比如,全连接层是神经网络中最简单的一种层,也是最常用的一种层。其核心功能是将上一层的所有神经元与本层的所有神经元相连接。这种连接方式允许神经网络学习到输入数据的复杂非线性关系。全连接层通常用于图像分类、语音识别、自然语言处理等任务;卷积层是卷积神经网络(CNN)中的核心层,用于处理具有空间结构的数据,例如图像。其核心功能是通过一组可学习的卷积核在输入数据上进行卷积操作,以提取输入数据的特征。卷积层的内部结构包括多个卷积核和一个偏置项,卷积层的输出通常被输入到池化层中。

神经元,是神经网络中的基本单元,其主要功能是接受来自输入层或前一层神经元的信号,并产生输出信号。神经元的输入通过一组带权重的连接进行传输,并在神经元中被加权求和。然后,这个总和被输入到激活函数中进行非线性变换,产生神经元的输出。

神经元的核心是激活函数,激活函数是神经元处理输入信号的核心组成部分。神经元接收输入信号并对其进行加权求和,然后将其输入到激活函数中进行非线性变换。激活函数的作用是为神经元引入非线性因素,使神经元能够学习到非线性的模型,从而提高模型的表达能力。

参数,是指神经网络中的变量,它们会随着神经网络的训练而更新。每个神经元都有一个权重向量和一个偏置项,这些权重和偏置项通常被称为参数。这些参数的值在训练期间会被优化器更新,以使得神经网络的输出尽可能接近期望输出。

综上,神经元是层的组成部分,而层是神经网络的组成部分。参数被存储在神经元中,每个神经元都有一组参数(权重和偏置项)。在训练过程中,优化器会更新这些参数,以使得神经网络的输出尽可能接近期望输出。大模型尽力地去模拟人脑的工作机理。

目前人类是唯一有智能的生物,要想大模型也有像人类一样的智能,“仿生”是最好的办法。

先来看看人类大脑的结构。

人的大脑是由数百亿个神经元组成的一个神经网络系统,神经元是神经网络的基本单元。每个神经元之间通过突触相互连接,这些突触是神经元之间传递信息的基本通道。

神经元的核心功能是接收、处理和传递信息。一个神经元通常由三部分组成:细胞体、树突和轴突。神经元接收来自其他神经元的信号通过树突传入细胞体,细胞体对这些信号进行处理,并产生输出信号,输出信号通过轴突传递给其他神经元。

神经元之间的连接通常是通过突触来实现的。突触分为化学突触和电突触两种。化学突触是通过神经递质来传递信号的,电突触则是直接通过电信号来传递信息。

人的大脑由大量神经元和突触组成,这些神经元和突触按照特定的规律连接在一起,形成不同的神经回路和神经网络。这些神经回路和神经网络共同协作,完成人体各种复杂的认知、感知、情感和行为等活动。

从目前情况来看,大模型的激活函数,其信息处理能力是要远远弱于人脑神经元的。大模型神经元的激活函数较为简单,例如,Sigmoid激活函数的神经元在输出范围上具有较平滑的S形曲线,可以实现二元分类等任务,ReLU激活函数的神经元具有非线性的修正线性性质等。相对而言,人脑的神经元却是一个生物细胞,其信息处理能力肯定要远远超出一个简单的数学函数的。因此,即使大模型的神经元在数量上赶上人脑水平,达到上千亿规模(对应的参数规模超过1000万亿),其智力水平也无法跟人脑相比。

此外,大模型的神经网络可以类比于人脑的神经网络,但是它们的实现方式完全不同。大模型的神经网络是通过数学模型来模拟神经元之间的连接和信息传递,而人脑神经网络则是由神经元、突触等生物元素组成的复杂结构。另外,人脑神经网络中神经元之间的连接是非常复杂的,它们可以自由地建立、拆除和调整连接,而大模型的神经网络则是事先设定好的。

目前来看,人类还是比较“安全的”。但是,人脑的神经元规模几乎是不变的,而大模型的神经元、参数规模却在指数级的递增。按照这样的趋势,大模型的智能水平追上人类可能只是一个时间问题。

人工智能领域的大神级人物Hinton就表示,“通用人工智能的发展比人们想象的要快得多。直到不久前,我还以为大概需要20-50年,我们才能实现通用人工智能。而现在,通用人工智能的实现可能需要20年或更短的时间。”

GPT-4的出现,到底是一个机遇,还是一种灾难,我们拭目以待吧。

文章来源: 数据猿,数学小虾米,CSDN

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:人工智源库
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...