诞生一年,大模型从竞争“出生”到竞争“上岗”,商业落地有四难

科技少年QAQ 2023-12-20
2777 字丨阅读本文需 7 分钟

回顾人类历史,我们会发现一个惊人的事实——人类一直在不断被技术替代。最典型的就是大型机械出现后,大量劳动力被替换。

只是,大模型出现后,人们终于开始意识到,技术正在替代人类的大脑。很多人开始恐惧、焦虑,甚至希望技术中止发展。但技术的长河不会倒流,奇点已来,尽早拥抱新浪潮无疑是最明智的选择。

问题在于,以什么样的姿势拥抱。

经过一年发酵,大模型已经逐渐深入商业世界。但投资人、创业者、企业家、学术界和普罗大众对于这项新技术的认知千差万别,各方不断交流最新信息、更新认知,这是蔓延在过去一整年的事情。

在这个过程中,各位玩家也逐渐在大模型的世界找到自己的跑道,找到埋在万般困难之下的“真机会”。

大模型究竟改变了什么?

“大模型会将所有行业重做一遍”的论断几乎在ChatGPT刚推出时就反复被提及。但“重做什么”“如何重做”等细分命题,是所有大模型相关从业者用一年时间全力解答的课题。

大模型最大的颠覆性在于对人机交互方式的改变。

ChatGPT出现前的十年,尽管AlphaGo、AlphaZero已经超出了人类的部分能力边界,但在语音交互方面,经不起人类的10次挑战便会“暴露”智商缺陷。

但ChatGPT开启了一个新纪元。“ChatGPT对人机交互真正的颠覆性变革在于,它能够让人与机器实现人与人之间最自然的交互。”飞书产品副总裁齐俊元曾对「甲子光年」表示。

尽管大模型尚存的幻觉问题屡遭诟病,但换一个角度便会发现,幻觉某种程度上也是大模型智能涌现的结果,而智能涌现是大模型最有魅力的能力所在。

生成式AI提供了一种开放式的搜索形式,也带来很多想象空间,并已深入影响各行各业。著名数学家陶哲轩就曾预测,如果使用得当,到2026年,AI将成为数学研究和许多其他领域值得信赖的合著者。

可以预见,人机交互方式的改变也将催生颠覆式的产品和商业模式。ChatGPT本身就是大模型时代的第一款bot类产品,而OpenAI推出的按API调用频次的收费模式也成为新一代商业模式的雏形。

大模型出现后,整个大数据的使用将更加规范化。如果把数据比作“电力”,大模型就是“发电厂”,能够将数据的能量释放到各行各业。

昆仑万维董事长、CEO方汉则认为,这波AI浪潮是“大潮将起,落地为王”。这波AI大潮与2000年的互联网和2010年的移动互联网一样,将是下一个十年里最主要的创业主题。

多模态成竞争红海

文本生成或为全民刚需

由ChatGPT掀起的国内大模型之战,已经从文本生成蔓延到文生图、语音处理、视频处理、代码处理,并在办公、学习、医疗、零售、金融、制造等多领域应用实践。AI视频生成、AI剪辑、AI作画、AI编程等应用产品在国内市场海量井喷,妙鸭相机等产品的昙花一现为市场带来短暂的兴奋后,最终落地普及的技术似乎依旧是最开始的文本生成。

如果说大模型让全民振奋的话,那么文本生成或许可以用全民刚需来形容。作为大模型生成的基础能力,文本生成的应用人群的广泛性、普适性、传播性、内容延展性更高,相比需借助强算力的音视频图像生成响应速度也更快。从商业模式上而言,文本生成技术成熟可带来的规模化付费也更客观。在中国市场长时间软件免费、需短时间考核投产的背景下,文本生成似乎是大模型这块诱人佳肴的最佳开胃前菜。

大模型落地有四道难关

近年来,随着人工智能(AI)领域的迅猛发展,大模型逐渐成为引领创新和商业应用的关键推动力。然而,要想将AI大模型成功商业化,仅仅依赖商业模式的探索尝试是远远不够的。实际上,成功商业化的关键在于解决大模型发展的底层问题。

首先,大模型的商业化需要深刻理解并解决技术挑战。这包括提高模型的训练效率、降低计算成本、优化模型的泛化能力等方面。技术研发是大模型商业化的基础,只有不断推动技术创新,才能更好地满足市场需求。

其次,数据质量和隐私问题也是大模型商业化过程中不可忽视的难题。在收集、存储和处理海量数据的过程中,必须建立健全的数据安全体系,确保用户隐私得到充分保护。同时,高质量的训练数据是保障模型性能的关键,因此建立可持续的数据采集和管理机制至关重要。

除了技术和数据层面的挑战,商业生态的建设也是AI大模型商业化的重要环节。厂商需要与不同行业的合作伙伴建立紧密联系,深入了解各领域的实际需求,根据市场反馈调整模型的优化方向。同时,推动标准化和产业化进程,使得大模型能够更广泛地应用于各个领域。

此外,政策和法规的制定也是AI大模型商业化的关键因素。在不同国家和地区,对于AI的监管政策可能存在差异,因此在商业化过程中需要与政府相关部门积极合作,确保业务的合法性和合规性,避免潜在的法律风险。

综合而言,AI大模型的商业化之路需要在技术、数据、商业生态和法规等多个方面取得平衡。只有全面解决底层问题,才能确保大模型在商业应用中发挥最大的潜力,推动人工智能技术不断迈向新的高度。在这一进程中,各个环节的参与者都需要通力合作,共同推动AI大模型商业化迈向成功。

烧钱如何变赚钱?

烧钱如流水,大模型的商业变现显得更为急切,但是与巨大的投入成本相比,当前的收入能否覆盖各项成本支出仍未可知。

冰鉴科技研究院认为,在产品定价方面,大模型企业针对C端客户的产品按月收费,针对B端客户,按照调用量(token、次数)计价可能是明智的选择。虽然C端客户付费意愿不强,但只要用户量足够大,大模型公司就可以从广告主处获得补偿,类似Ask AI。企业客户由于工作需求,付费能力更强,日常使用调用量较大,按照调用量收费才能更好的覆盖成本。除此之外,由于大型企业拥有更强的付费能力,为银行、大型央企、国企、上市公司等提供定制化、一站式服务,可以为大模型企业带来更多收入。比如目前一些大型银行在公布大模型采购服务时,服务内容就不仅包括AI软件与模型开发服务,还包括大模型GPU服务器、GPU专用存储服务器、IB交换机等硬件采购。

不过,红杉资本的文章《Generative AI’s Act Two》提到,当前生成式AI客户参与度较低。与一些消费公司拥有60%-65%的日活或者月活相比,生成式AI应用程序的中位数仅仅14%,这意味着用户还没有在生成式人工智能产品中找到足够的价值来每天使用它们。因此,大模型平台必须进一步优化产品,让生成式AI结果更加满足用户需求。

展望未来,训练成本、芯片采购成本不断攀升,严重阻碍大模型升级迭代,而占比最大的是AI芯片成本,如何降低芯片成本成为大模型企业的当务之急!

据伯恩斯坦分析师Stacy Rasgon分析,如果ChatGPT的查询规模增长到谷歌搜索的十分之一,OpenAI的 GPU采购成本高达480亿美元,另外,还需要每年支付160亿美元芯片运维成本。

面对巨额成本,除了等待芯片价格下降外,大模型企业也在想办法制造芯片,如OpenAI不仅考虑自研芯片,还投资了3家芯片公司,其中包括美国算力芯片公司Cerebras。这家公司造出了世界最大的芯片,拥有1.2万个晶体管、面积大过ipad。

国内的大模型企业面临的压力尤甚。

随着美国不断收紧AI芯片出口,不仅面临着芯片难买、还面临着价格飞涨的窘境。10月17日,美国商务部工业与安全局(BIS)进一步收紧对尖端人工智能芯片的出口管制,严格限制英伟达和其他芯片制造商向中国销售高性能半导体。根据新规受到管制的英伟达芯片涉及 A100、A800、H100、H800、L40,甚至包括RTX4090。

与此同时,相关芯片存货价格翻倍式上涨,A800、H100等每台已经涨到150万以上,RTX 4090显卡价格更是从原本的1.5万元飙升至3万元以上,其他芯片更是有价无市。芯片等价格飞涨导致国内大模型企业研发支出成倍增长,企业盈利状况不断恶化。科大讯飞今年三季度归属于上市公司股东的净利润同比下降81.86%,其表示主要原因系公司在通用人工智能认知大模型等方面坚定投入。

种种不利条件,导致刚起步的国内大模型企业在与国外同行竞争时,面临着算力不足,大模型优化升级滞后,从而引起客户付费意愿不足的窘境。

文章来源: 简搭jabdp低代码,钛媒体APP,36氪,甲子光年

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:科技少年QAQ
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...