夹缝中出生的火山引擎,入局大模型,凭何拿下国内七成玩家?

数据包 2023-07-06
4820 字丨阅读本文需 11 分钟

“过去我们做To C的业务,其实更有难度的是B端业务......如果C端做完可以往上游进入B端基础设施,如果能做成,是对中国科技企业的提高。”2018年,字节创始人张一鸣在一场对话活动中,变相透露出未来的构想。

三年后的6月,字节跳动正式推出了企业技术服务平台——火山引擎。这个新平台也被外界称为“字节云”,它和协同办公平台飞书共同构成字节对外的To B服务体系。

实际上,即便没有张一鸣的“耳提面命”,“字节云”的诞生也是这个商业帝国膨胀过程中的必然。

在大模型这个热潮中,中国已经出现了“百模大战”的雏形,如果再加上各个细分领域的行业大模型,这场面堪比当年团购兴起时的“千团大战”。

在这场竞争中,百度率先发起进攻,随后的阿里巴巴、360、华为、京东等迅速跟进。在一众互联网巨头中,反而是字节跳动显得有点姗姗来迟,存在感不高。火山引擎作为字节跳动To B的核心载体,无疑承担着关键角色。

1、卖铲子与掮客

AI浪潮袭来,大模型又开始改变云计算行业的游戏规则。

一方面,大语言模型在训练和推理过程中需要大量的计算资源,即算力。投资机构A16Z认为,生成式AI市场里的大量资金,其实最终流向了云服务商这样的基础设施公司。

另一方面,大模型的兴起,让许多复杂任务可以通过预训练模型来解决。模型即服务(Model as a Service,MaaS)将成为新的云计算服务形式,企业可以通过API调用预训练模型来满足自身业务需求,而降低了云服务的使用门槛。

众多云服务厂商,因此热衷于在国内大模型热潮中抢占先机,想要成为这场变革的引领者。后来者火山引擎也不例外。

先是4月,字节跳动发布大模型训练云平台,称国内七成大模型企业在用火山引擎云;紧接着6月28日,火山引擎举办发布会,推出企业级大模型服务平台“火山方舟”,一举从“卖铲子的人”升级成为“掮客”。

“卖铲子”好理解。与其他云厂商力主推自家大模型不同,火山引擎为多家大模型公司提供算力等技术服务。自己不做大模型,而是服务大模型客户。

至于“掮客”,则是与阿里云、腾讯云把自研大模型直接落地到云服务上不同,“火山方舟”是通过集成其他公司的大模型提供服务的。

二者模式的相似之处在于,都是通过提供一种服务或平台,帮助他人实现他们的目标。它们都不直接参与最终的生产或消费行为,而是在交易的过程中提供必要的工具或者桥梁。

但问题是,两种模式都依赖于规模效应,需要有大量的用户或客户来实现盈利。

意识到这点后,火山引擎在原有的多云理论基础上,又推出多模态的观点,认为一个企业未来一定会在多个场景中应用多个模型,因为每个模型在不同场景下的性价比是不一样的。甚至多次强调,国内大模型领域的数十家企业,超过七成已经在火山引擎云上,尽管这些模型的质量可能并不高。

然而,这种论调未免过于乐观和理想化。实际上,“百模大战”最终势必会走向结束,而且很可能形成新的垄断局面。在这种情况下,那些拥有最先进技术、最强大资源和最广泛客户群的头部厂商,很可能会垄断市场,而小型企业和后来者则会被挤出市场。

因此,多模态的未来只是一种理想化的设想,现实未必朝着这个方向演进。这无疑对火山引擎的“卖铲子”和“掮客”生意,构成底层逻辑上的挑战。

整体上,火山引擎的策略和动作,多次给人留下“另辟蹊径”的印象。毕竟,在国内已经全面开启“百模大战”的今天,字节跳动在大模型的研究和开发上却没有取得显著的成果,甚至未提出具体落地时间表,放在这家以扁平化组织和快速反应著称的公司身上是难以想象的。

非常规的策略,可能源于火山引擎对市场环境独树一帜的解读,亦或是其对自身能力的过分乐观评估。然而更有可能的是,火山引擎在本质上存在一些先天不足。

有行业人士指出,字节跳动在过去的几年里,实际上主要是在判别式AI方向上进行深度开发,这与当前的生成式AI热潮有所区别。如“抖音的推荐算法是基于对你的喜好进行预测,这与生成式AI‘无中生有’的逻辑是不同的”。

基因上的缺陷可能在其运营模式、技术实力,甚至是整体战略规划等多个层面都有所体现,从而导致其在云服务市场中的表现,难以达到预期水平。

2、真有七成大模型用户都在火山引擎上?

在不久前火山引擎的一场发布会上,火山引擎总裁谭待抛出一番“七成大模型用户都在火山引擎上”的言论,这一石激起千层浪。火山引擎这么厉害么?百度、阿里、腾讯都白忙活了?

上次激起这么大争议的,还要追溯到几年前,当时的阿里CTO张建锋扬言,“中国有两朵云,一朵是阿里云,一朵叫其他云。”未免让人感觉有点狂妄。

“七成大模型用户都在火山引擎上”是怎么算出来的,谭待给出的算法是“把火山引擎上的大模型客户统计出来,拉一个目前市面上的大模型名单做分母,就是70%。”

即使这个数据有很大水分,打个对折,30%的大模型用户都在用火山引擎,也已经是一个很惊人的数据了。要知道,在云计算这个修罗场,火山引擎还是一个新玩家,阿里云、腾讯云、百度云这些年构建的壁垒就那么容易被击穿?况且,这些云巨头在大模型领域可是异常激进,一手发布自己的大模型,另一手则是云服务大降价。降价对于大模型玩家可是有致命吸引力的,当其他几朵云价格战正酣时,火山引擎可没听说有什么大动作。

不管怎样,只要谭待没有撒谎,那火山引擎在这场大模型军备竞赛中,貌似已经提前拿下一城了,可以算做阶段性成功。那火山引擎为什么能够俘获近七成的大模型用户?这就值得好好分析一下了。

3、 头部赛道的差异化打法

虽然在6月28日这天,火山引擎并没有推出自研的大模型,但就凭火山方舟的创新服务模式,火山引擎成为了目前国内大模型赛道的最大变量之一,把自己拉到了中国“模型即服务”的第一阵营。

作为全球AI唯二的创新源地,国内目前的大模型赛道可谓“群模乱舞”,但能够进入第一阵营的只有区区几家而已。

例如阿里巴巴,它在中国云计算市场上仍然处于头部优势地位,而“模型即服务”也属于广义云服务的范畴。

由于长达十几年的云计算研发、运营经验,和AI、BigData、cloud三者融合的必然趋势,阿里巴巴在云计算相关的软硬件上都做了广泛深入的投资,技术底蕴雄厚,例如其大模型基于阿里云、达摩院打造的硬件优势,可将大模型所需算力大幅度压缩。

另外,阿里全自研的底层技术优势,也非常有利于构建AI服务的统一底层,这些都属于战略级而非战术级的优势;阿里的通义千问,也是国内第二家发布的生成式大模型。所以可以说,阿里目前已经可以基于自身大模型,向市场提供实际落地的大模型服务。

百度也不可不提。作为国内AI研发的正规军之一,百度应该是国内最早投入AI研发的互联网企业,多年累积投入千亿以上,生态建设全面。包括有深度学习框架—飞桨,有非常适合产生AI的业务——搜索……以及国内首发的生成式大模型——文心一言及其云服务模型“文心千帆”等。

火山引擎总裁谭待并不否认这些头部企业的优势,他指出,目前国内大模型市场的最顶层,还将是几家超级平台支撑的超级大模型并存的格局,这种存在是不可否认的。

那么,火山引擎作为相对的后来人,它的战略设计有何独特之处?

在笔者看来,火山引擎的打法,就是坚定走自己“多云多模型”的路,而不是跟着别人的节奏起舞。

所以我们看到,虽然火山引擎不直接做大模型,但通过为大模型企业提供AI基础设施,国内几十家做大模型的企业,多数已经在火山引擎的云上。

又比如,由于大量的服务于大模型企业,也使得火山引擎针对大模型的服务支撑不断强化,并打造了深层次的软硬件一体化能力,如火山引擎的自研DPU,将通信优化的算法直接写到网卡硬件中,以降低延迟、削减拥塞等。

如是的类似技术细节还有很多,但笔者认为,真正关键的不仅仅在于火山引擎的技术,还有它为大模型赛道设计的独特模式和竞争策略。

4、大模型是云计算的黄金机会,哪种模式好还未可知

当然,目前来看,只能说火山引擎走出了一条跟百度智能云、阿里云等不同的道路,到底哪一种模式更好,现在还无法下定论。但有一点是可以确定的,那就是大模型将是云计算产业的一个黄金机会。

首先,大模型的计算需求将大大增加。这些模型通常需要大量的计算资源进行训练和推理,而云计算平台恰好可以提供强大、灵活和按需分配的计算资源。其次,大模型的存储需求也将大大增加。这些模型通常需要处理大量的数据,而云计算提供的大规模、分布式、安全可靠的存储服务能很好地满足这一需求。此外,云计算平台还能提供数据的快速访问和高效处理,进一步提高了大模型的运行效率。大模型的规模化商用也将带来对分布式计算、自动化管理、数据安全等更高级的云计算服务的需求。此外,云计算平台还可以提供自动化的资源管理、高效的数据处理、强大的安全防护等服务。

进一步的,随着大模型的商用逐渐普及,云计算平台的专业服务需求也随之增加。这些服务包括但不限于模型的优化、自动化调参、模型的部署等。这不仅能帮助用户更好地利用大模型,提高其商业价值,同时也为云计算服务商提供了更多的增值服务的机会。

例如,优化模型的过程可能包括减少模型的大小、提高模型的运行速度、降低模型的能耗等。云计算服务商可以利用他们的专业知识和丰富的经验,为用户提供模型优化的服务;调参是训练模型的重要步骤,但这个过程通常需要大量的时间和精力。通过自动化调参,可以大大简化这个过程,提高效率。云计算服务商可以开发出自动化调参的工具和服务,帮助用户快速地找到最优的参数设置。

在模型训练完毕后,需要将模型部署到生产环境中,以便在实际场景中使用。模型部署的过程可能包括模型的转换、容器化、集群部署等。云计算服务商可以提供一键部署的服务,简化部署过程,同时也可以提供故障排查、性能监控等服务,确保模型在生产环境中的稳定运行。

总的来说,大模型的规模化商用将对云计算产业产生深远影响,极大地拉动其发展。火山引擎作为一个“后进生”,要想赶超一众前辈,就需要另辟蹊径。

正如上面所说,我们可以将大模型+云服务划分为两种商业模式:自有模型+云服务模式(如百度智能云和文心一言)以及第三方模型+云服务模式(如火山引擎)。在实际运作中,这两种模式都有各自的特点和优劣。

自有模型+云服务模式能实现品牌的联动效应,同时由于模型和云服务都由同一企业控制,可以保证模型在云平台上的最优运行,实现云服务性能的最大化。此外,一体化服务也能极大提升用户体验。然而,这种模式的挑战在于需要较大的资源投入以维护和优化云服务和大模型,同时如果模型出现问题,可能会影响到云服务的声誉和业绩。

相比之下,第三方模型+云服务模式则能让云服务平台更专注于优质云服务的提供,同时可以引入多种第三方大模型以满足不同用户的需求,增加了平台的吸引力。此模式风险分散,即使某个模型出现问题,也不会直接影响到云平台的声誉和业绩。然而,由于模型由第三方控制,平台可能无法保证模型在其平台上的最优运行,从而影响云服务的性能和效率。此外,服务链条较长可能导致用户体验下降。

文章最开始提到,火山引擎总裁谭待给出了一个数据——“七成大模型用户都在火山引擎上”。这个数据其实有迷惑性,我们需要分清楚三个指标——大模型企业、大模型应用企业,以及大模型的最终用户。

OpenAI(ChatGPT)、百度(文心一言)、阿里巴巴(通义千问)、出门问问、MiniMax是大模型企业,每个大模型企业又可以接入大量的应用型企业,比如接入百度文心一言的智能客服企业。目前,无论是百度文心一言还是阿里巴巴的通义千问,对外披露的数据,都显示有几十万家企业等着接入其大模型。而每一个应用大模型的企业,又有大量的终端用户。

在计算最终的算力消耗时,要分清上面三个指标的差异。我们来做一些简单的计算,假如,中国有100个大模型,其中有70个大模型部署在火山引擎的云平台上。但是如果要计算调用这些大模型的企业数量,可能这70家大模型的客户还没有百度文心一言一个模型的客户多。再来看最终用户,ChatGPT的用户规模超过10亿,远远超过中国所有大模型用户。所以,ChatGPT一个模型可能需要几十万个GPU,而火山引擎的云平台上纵然部署了几十个大模型,但其云资源消耗要远远小于ChatGPT。

火山引擎的策略,成功的关键在于,与其合作的大模型厂商中,至少要有几个能够成长起来,甚至在客户规模上成为媲美百度文心一言、阿里通义千问的巨头。从目前情况来看,这有很大的难度。

当然,火山引擎采用这个策略有一定的合理性。毕竟,无论是在云计算还是大模型领域,火山引擎都很难跟阿里巴巴、百度、腾讯“硬拼刺刀”。通过战略性放弃自研大模型,主打中立性,“招安”一众第三方大模型厂商,走“农村包围城市”的道路,也不失为一个好办法。不管怎样,火山引擎为中国的大模型和云计算市场提供了一个独特的样本。

此外,火山引擎对于大模型的策略,其实与华为针对智能汽车的策略相近。华为一直宣称不造车,只帮助车企造车,以此来打消其他车企的顾虑。但是,业界对于华为不造车一直是有疑虑的,现在不造车,不代表以后永远不造车。而且,即使华为坚持不造车,但他在与汽车伙伴合作时十分强势,这也引来诸多诟病。对于车企而言,当然不想华为来当“灵魂”,自己沦为一个“躯壳”。同样的,火山引擎的中立性能维持多久,也需要打一个问号。会不会过一段时间,火山引擎推出自己的大模型,来与平台上一众第三方大模型厂商竞争?即使火山引擎不推出大模型,那字节跳动集团不可能不推出自己的大模型吧?那火山引擎还能维持中立么?

一切都才刚刚开始,还有很多的不确定性。至于最终结果如何,就让子弹先飞一会吧,我们拭目以待吧!

文章来源: 科技新知,数据猿,胡说成理

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:数据包
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...