将大模型与智能化结合,提高产业数字化效率才是最终目的

AI前沿人 2023-09-21
1409 字丨阅读本文需 4 分钟

9月20日下午,2023亚布力智能制造发展论坛在合肥召开,360集团创始人、董事长周鸿祎出席论坛并发表开幕演讲。

周鸿祎表示,大模型很热,但它绝不是风口和泡沫,而是代表了一次工业革命的机会,将大幅提高生产力和生产效率。作为新一代的生产力工具,大模型具有前所未有的理解、推理和规划能力,标志着通用人工智能时代和强人工智能时代的到来,有引领一场新工业革命的潜质,将给人类社会带来深远的影响,包括颠覆信息生产模式、变革人机交互方式、重塑产业格局,最终推动数字化进入智能化的顶峰。

“现在国家一个很重要的战略是产业数字化,我认为只有把大模型‘拉下神坛’,去提升政府和企业的生产力和生产效率,让每个企业都用得起,它才能真正引领工业革命,这也是顺势而为。”周鸿祎说道。

他还表示,目前,360智脑已通过《生成式人工智能服务管理暂行办法》的备案,即将正式上线并逐步向公众开放。

大模型下沉至日常场景

今年以来,随着人工智能大模型技术跃升与应用加速,一批国产大模型上线发布,但都是小范围测试,没有面向全体公众全面开放。此轮通过备案并集中上线的国产大模型,成为首批“正式上线”者。

人工智能大模型和普通人有何关系,是怎么赋能工作与生活呢?

以最新开放的星火认知大模型为例,据科大讯飞董事长刘庆峰介绍,自5月6日进行小范围测试以来,星火APP的用户已经开发出1万多个性化的AI助手,每一个普通人能调用多个已经上架的AI助手,也能通过简单几步开发自己的专属AI助手,满足职场、营销、出行、生活、公文、客服等多种场景需求,帮助解决工作生活中的各种问题。

星火认知大模型后台数据显示,目前用户刚需使用场景依次集中在知识问答、内容生成、教育学习、编程辅助等场景。

为了让大模型“更聪明”“更好用”,各大研发企业和机构正加速技术和产品的迭代升级。

效率是最终核心竞争力

数据、算力高成本投入后形成的模型越大,在后期运行时的成本也就越大。

摩根士丹利银行在今年年初就给出测算,如果把谷歌一半的搜索工作替换成当下的GPT程序来处理的话,谷歌每年可能会额外损失60亿美元。模型越大,损失的钱就越多。

OpenAI公司的CEO山姆·阿尔特曼在今年4月份回顾AI大模型的发展历史时坦言:“我们正处于一个时代的终结点上。”这个时代就是AI模型越大越好的时代。

杨帆对此也有类似的判断。在他看来,近十几年来AI的发展脉络中,对数据、算力等因素的大规模的追求是一条明线,而真正决定核心竞争力的其实是那条暗线,即对效率的优化。

“这条暗线里,有大量的工程性、细节性的问题要解决,除了对算力有一定的要求,也还要一步一步地去做。”杨帆说。

业界已经开始将注意力转向提高模型效率的研究上,其中一个方法就是减少模型参数的数量,但用更多输入数据来训练现有的、规模更小的模型。这个方法的训练时间虽然更长,模型规模虽小,但运行速度会更快,使用成本也会更低。

另一个方法来自谷歌的一个研究团队。他们把大型通用模型所需的特定知识,分拣、提炼到一个规模相对较小的专用模型中。让大模型当老师,小模型当学生。在具体的训练过程中,研究人员要求“老师”回答问题,并要具体展示它自己是如何推理得出结论的。然后,再把大模型老师得出的答案和答案背后的推理逻辑,用来训练小模型学生模型。

通过这个老师言传身教的方法,能够训练一个只包含7.7亿个参数的小模型,而它在专门的逻辑推理任务上要优于拥有5400亿个参数的大模型。

杨帆给出的方法是,在输入训练数据时,数据科学家分拣、“清洁”出其中大量的低效、垃圾信息,目的是避免大模型“学傻了”。

“大模型对规模的追求,在一定程度上是数据、算力、电力等这些资源的堆积。但如果效率优化做得越好,在同等量资源投入时,就可以支撑对更大规模的追求目标。”杨帆说,“所以说,效率优化真正决定了AI模型在产业服务端的核心竞争力。”

文章来源: 中国企业家杂志,金融界,新华社

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:AI前沿人
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...