大模型掀热潮,如何走好全面开源之路?

智者先行 2023-10-08
3367 字丨阅读本文需 8 分钟

ChatGPT出来以后很多人都在说开源,认为只要OpenAI大发善心或者哪个高超的黑客黑进服务器,把ChatGPT的源码发出来放到网上,那么到不了第二天天亮,全世界就会人手一个ChatGPT。

这是一种常见的误解。

开源字面意思是公开源代码,过去我们通常是指公开某款软件项目的源代码。知名的譬如说Linux操作系统,准确来说是操作系统内核,我们拿到Linux的源码,只要搭建好相应的编译环境,就能在本地编译一套一模一样的操作系统内核。

当然,实际会复杂一点,同一套源码用不同方法编译,运行效率、资源占用等都可能不同。这里姑且不再细抠,总之,过去软件开源给我们的印象就是,甭管什么阆苑仙葩,只要一开源就能人手一份,而且很快还会有各种换皮魔改,同人逼死官方。往好了说,这叫开源带来澎湃力量。

但大语言模型的“开源”完全不是这么一回事。先别管OpenAI现在名叫钮钴禄氏·CloseAI,就算哪天良心发现,真的要找回自己做一个名副其实的OpenAI,洗心革面把GPT-4给开源了。先别着急着高兴,对于99%的人来说,GPT-4的源码毫无意义,对于剩下的1%里的99%,可能也就蹭一些研究论文。只有最后剩下的1%里的1%才会有真正帮助,不过,也只是有帮助,但不算很大。

一、大模型开源,开的是什么?

梳理后发现,目前,大模型厂商和创业公司在开源和闭源的选择上,一共有三条路径:

一是完全闭源,这类代表公司国外有OpenAI的GPT-3.5、GPT-4,国内有百度的文心大模型;

二是先闭源再开源,这类代表公司有阿里云的通义千问,智谱AI开源GLM系列模型;

三是先开源再闭源,这类代表公司有百川智能的Baichuan-7B、Baichuan-13B。

现在中国市场上能够主动开源大模型,且提供商业许可的企业数量还比较有限,主要公司包括了以开源为切入的百川智能、大模型厂商代表阿里、大模型初创公司代表智谱AI以及走精调Llama 2路线的虎博科技。

这从侧面也说明了一个问题,大模型开源并不是没有门槛,相反开源对一家企业的基础技术能力要求十分高,比如智谱AI的GLM-130大模型是去年亚洲唯一入选斯坦福大学评测榜的大模型;阿里通义千问大模型在IDC的“AI大模型技术能力评估测试”中获得了6项满分。

如果再进一步将以上的公司分类,可以归为两类,一类是走自研大模型开源路线,一类是走Llama 2路线。

这两条路线在国际上也十分典型,譬如走自研模型开源路线的Stability AI,已经陆续开源了Stable DiffusionV1、StableLM、Stable Diffusion XL(SDXL)1.0等模型,凭一己之力撑起了文生图开源领域;另一类如中东土豪研究院就死盯住Llama 2,在其基础上继续做大参数、做强性能,Llama 2开源50天后,地表最强开源模型Falcon 180B横空出世, 霸榜Hugging Face。

不过,这两条路线也不是完全泾渭分明,Llama 2的开源也进一步促进了许多自研开源大模型的更新升级。8月Stability AI迅速推出类ChatGPT产品——Stable Chat,背后的大语言模型Stable Beluga就是其在两代Llama的基础上精调出来。更开放,更快迭代发展,这或许也是开源的意义。

除了逆天的Falcon,目前开源模型的参数基本都控制在7B-13B左右。大模型厂商告诉光锥智能,“目前7B-13B亿参数量是一个较为合理的开源规模”。这是基于多重因素所得出的参数量规模,如计算资源限制、内存限制、开源成本考量等。

阿里云CTO周靖人基于云厂商的角度考虑道:“我们希望企业和开发者,在不同的场景可以根据自己的需求选择不一样规模的模型,来真正地应用在自己的开发环境。我们提供更多可能性。”

二、人工智能时代,需要真开源

在今年2月的FlagOpen飞智发布会上,智源研究院院长黄铁军曾表示:“人工智能时代,开源开放生态,是唯一的出路。”

黄铁军指出,智能时代需要真开源,不是安卓那样的利用开源,不是某一企业控制的开源,而是完全在开源社区发展的大家的开源,就像Linux、RISC-V和2022年完全转入开源社区的PyTorch。“大模型时代需要这样的开源,也只有这样的开源体系,成为哺育智能之树蓬勃生长的大地母亲。”

除了新增的FlagEmbedding语义向量模型开源项目板块,FlagOpen还包括大模型算法、模型、数据、工具、评测等重要组成部分,致力于打造大模型时代的AI技术基础设施,未来将持续向学术界和产业界开源更为完整的大模型全栈技术。

数据对大模型训练起着至关重要的基础作用。构建高质量开源数据集,特别是用于训练基础模型的开源数据集对大模型发展意义重大,然而中文社区却鲜少数据开源贡献者。

日前,在2023年国家网络安全宣传周活动上,北京智源人工智能研究院院长黄铁军表示:“数据可以说是AI大模型最重要的一个要素,大家认识不同,但是总的来说几乎所有人都认为数据的质量对模型智能水平影响最高,差不多要超过60%。”

智源研究院工作人员告诉封面新闻记者,智研正在持续进行包括数据在内的大模型全栈技术开源,持续贡献高质量中文数据集建设与数据资源开源开放。

2021年,智源推出全球最大语料库WuDaoCorpora,开放200GB高质量低风险中文语料,由400余个产学研单位合作,已有770多个研发团队申请,为微软、哈佛大学、斯坦福大学、华为、阿里巴巴、腾讯、鹏城实验室等提供数据服务,有效支撑全球大模型相关研究。

三、如何避免开源大模型重蹈覆辙,体现出开源的价值

谈起为何开源大模型,周靖人强调了安全性,“我们不单单只是开源大模型,更重要的是要能够呈现出各项指标的表现效果,基于此,才能够让大家去评估其中的使用风险,更加有效地进行模型应用。”

“重要的是,随着参数量的增加,模型效果提升会逐渐收敛。当模型达到一定规模后,继续增加参数对效果提升的边际效益只会下降,70-130亿参数量一般已经接近收敛状态了。”上述大模型厂商道。

光锥智能发现,除了阿里云在视觉语言模型的细分领域发布了开源大模型外,其余公司皆提供的是通用能力的大模型。这或许与大模型开源仍处于非常早期阶段有关系,但考虑到开源大模型也要落地到场景中,太过于同质化的通用大模型对企业来说也容易沦为“鸡肋”。

如何避免开源大模型重蹈覆辙,体现出开源的价值,回顾Meta接连祭出的“大招”,一条开源的路径似乎逐渐显现——构建开源大模型生态。

2月份,Meta凭借开源的Llama大模型回到生成式AI核心阵列;

5月9日,开源了新的AI 模型ImageBind,连接文本、图像 / 视频、音频、3D 测量(深度)、温度数据(热)和运动数据六种模态;

5个月后,Llama 2开源可商业,含70亿、130亿和700亿三种参数规模,其中700亿参数模型能力已接近GPT-3.5;

8月25日,Meta推出一款帮助开发人员自动生成代码的开源模型——Code Llama,该代码生成模型基于其开源大语言模型Llama 2;

8月25日,发布全新AI模型SeamlessM4T,与一般AI翻译只能从文本到文本不同,这款翻译器还能够“从语音到文本”或者反过来“从文本到语音”地直接完成翻译;

9月1日,允许开源视觉模型DINOv2商业化,同时推出视觉评估模型FACET。

可以看到,Meta开源的思路是在各个AI领域遍地开花,通过发布该领域最先进的AI开源模型,吸引更多开发者的关注和使用,壮大整个AI开源生态后来反哺业务、巩固行业地位,这就如同当年的英伟达推动GPU计算的开源策略。

当年英伟达推动GPU计算的开源化,不仅吸引了大量研究人员在Caffe、TensorFlow等框架上进行创新,也为自身GPU产品积累了大量优化经验,这些经验后来也帮助英伟达设计出了更适合深度学习的新型GPU架构。

另一方面,GPU计算的开源生态越来越繁荣后,也为其带来了巨大的市场空间,Nvidia DGX企业级的深度学习训练平台概念应运而生,为英伟达的显卡和平台销售创造了千亿级市场。

国内阿里云也在通过建设完善生态的方式,试图帮助开发者更好的用好大模型,据周靖人介绍,目前阿里云不仅有自研开源大模型,也接入了超过100个开源模型,同时打造了开源社区魔搭,更好地服务开发者和企业用户,用好、调好大模型。

四、开源闭源不矛盾,是手段而非目的

据外媒爆料,Meta正在加紧研发全新的开源大模型,支持免费商用,能力对标GPT-4,参数量比Llama 2还要大上数倍,计划在2024年初开始训练。

国外大模型格局看似是OpenAI“一超多强”,实则是众多公司环伺,可以预见,开源大模型对闭源的围剿,越来越步步紧逼。

国外一份研究报告称,大模型前期的发展创新由OpenAI、微软、谷歌等大公司闭源模型主导,但越到后期开源模型和社区的贡献值就越大。

光锥智能也了解到,在国内开源大模型也成为了企业的“新卖点”,有企业甚至通过对外宣称已使用了“史上最强大模型Falcon 180B”,来展现其底层模型技术能力的强大,顶着“史上最强”的称号,又收割了“一波韭菜”。

现阶段,开源大模型已经证明了几点重要的事实。

首先,在非常大的数据集上进行训练,拥有几十亿个参数的大模型在性能上就可以与超大规模大模型相媲美;其次,只需要极少的预算、适量的数据以及低阶适应(Low-rank adaptation,LoRA)等技术就可以把小参数的大模型调到一个满意的效果,且将训练成本降低了上千倍。开源大模型为现在的企业提供了闭源的替代方案,低成本成为最吸引他们的地方;最后,我们也看到开源大模型的发展速度也远快于封闭生态系统。

开源固然“迷人”,但更为关键的是,既不能为了开源而开源,也不能为了闭源而闭源。开源与闭源只是形式上的区别,并不矛盾,开源本身不是目的,而是手段。

以开源切入大模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源大模型后,王小川拿出了Baichuan-53B闭源大模型。在问到为什么没有继续开源时,王小川回答称:“模型变大之后没有走开源的这样一种方式,因为大家部署起来成本也会非常的高,就使用闭源模式让大家在网上调用API”。

由此可见,是否开源或闭源并非完全没有参考,能够闭源一定是其能够提供价值。在当前,这个价值的集中体现可能是替用户完成高性能的大模型训练、推理和部署,通过调用API的方式来帮助降低门槛,这也是OpenAI闭源的思路,但因为其自身技术的绝对领先优势,使得其价值也非常得大。

文章来源: 光锥智能,封面新闻,木羊

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:智者先行
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...