新华三专攻“私有化”大模型,这类市场正在成为AI落地场景新标的

科技观察 2023-08-28
2833 字丨阅读本文需 7 分钟

6月,新华三2023 NAVIGATE领航者峰会在杭州国际博览中心正式举办,峰会以“风起云涌 数智未来”为主题。

会上,新华三发布了私域大模型“百业灵犀”LinSeer,旨在为垂直行业和专属地域的客户赋能。同时,新华三集团高级副总裁、紫光云与智能事业群执行总裁陈子云解读了紫光云过去一年的发展情况以及新动向。

据了解,云与智能事业群的业务涵盖三个部分:一是云的能力,包括紫光云,以及新华三的私有云业务;二是以绿洲平台为代表的大数据能力;三是具体的产品。

陈子云表示,紫光云与智能事业群过去三年的业务复合增长平均在63%左右,宏观上得益于国家对数字经济的重视以及新华三集团对云的投入;从微观上看,则是云服务覆盖了更多的场景,以及功能不断完善,满足企业上云的需求。

具体来看,陈子云认为,云计算如果不与行业结合,很难体现价值。因此,紫光云将业务聚焦到政府、企业的需求场景之下,为客户提供定制化服务。

为什么要做私域大模型?

大模型解决方案可以在公有云、私有云上部署。

公有云部署大模型,其逻辑是在数据中心部署数千甚至数万枚顶级GPU芯片,为各行各业提供AI算力和通用/行业模型。客户通常以租赁方式按量、按时计费。常见使用场景包括,互联网公司的信息流推荐、汽车厂商自动驾驶训练。这种模式的毛利率相对较高(超过60%),和美国市场的主流模式相对接近。

私有云上部署大模型,其逻辑是用私有化、专属化的方式为客户部署专属模型和AI软件。客户只需要采购数百枚、数千枚中端GPU芯片,工程师会根据客户需求定制模型、软件。常见使用场景包括政府的城市大脑,银行建立风控模型,制造企业的工业质检。私有、专属模型可能在中国市场有较大空间。

于英涛称,术业有专攻。新华三只专注在私域大模型。在通用领域,互联网公司的数据量很大,具有优势。在垂直行业领域,新华三深耕多年,更懂得行业的特点和需求。

无论是从中国企业IT支出结构、信息安全考量、一线客户IT架构和实际需求等因素来看,在企业级市场上,私域大模型都贴近中国市场现实。

中国数字化市场尚处于云转型的中前期。混合云、私有云的IT架构上必然会长出私域大模型。

第三方市场调研机构Gartner在2022年4月的一组数据显示,中国软件支出在IT支出中的占比仅为4.9%。相比之下,全球市场软件支出在IT支出中的占比为15.2%。

中国IT支出结构特征就是硬件大于软件,定制化大于产品化。中国数字化市场不像美国以公有云为主,而是公有云、混合云、私有云并存。这在SaaS/PaaS软件发展阶段就出现了明显分岔。

这种分叉延续到了AI模型市场。一位云厂商CTO曾对我们直言,中国AI模型市场中,定制化/私有化需求会占据较大比重,尤其在政府、金融、制造等市场。

从海外市场的实践来看,公有云上面向C端大众用户的大模型产品,可能存在数据泄漏等问题。

在海外市场,部分政府、金融机构、电信运营商、制造企业甚至是科技公司已经明确禁止或限制员工在工作场合使用ChatGPT等大模型产品。其中包括苹果、三星、摩根大通、花旗银行等知名企业。理由通常是,担心专利或机密资讯泄密、客户资料外流。

从技术逻辑来看,当员工在公开网络使用ChatGPT等跑在公有云上的大模型时,资料会被回传到云上用于模型的改善、调教。其他用户在输入类似内容时,可能会获取被上传的资料。

从中国市场客户实际需求看,过去几年银行、保险、制造等行业的采购招标案例中,就时常出现千万元级别的私有化小模型部署案例。

以金融机构为例,企业会采购数百枚中低性能GPU,再加上算法调教、软件定制成本,整体标包价格通常为1000万-2000万元。

一位云厂商产品技术负责人向我们解释,过去的私有化小模型落地瓶颈是,要针对不同业务场景,人工标注、定制算法。随着大模型技术成熟,一套通用算法可以应对过去数十种场景。研发成本、人力成本得以降低。

事实上,部分金融机构一期工程落地小模型后,二期正在试图落地大模型技术——采购数百枚高性能GPU,部署基于大模型的算法、应用。其综合成本和上一代小模型相差不大。这意味着企业能以相同的价格获得更好的效果。

AI落地的又一标的?

除了新华三针发布的私域大模型“百业灵犀”LinSeer,中国电科发布了专为党政企行业用户服务的AIGC大模型“小可”、百应科技发布的政务行业专有大模型“万机”……百度智能云、阿里云、三六零、科大讯飞、商汤等也都在针对政企客户,发布了相关产品和解决方案。

这一趋势同样发生在海外。有消息称微软正在使用其 Azure 云服务把 OpenAI 的强大的语言生成模型引入政府机构,这些模型包括 OpenAI 最新、最先进的大型语言模型(LLM)GPT-4以及 GPT-3。

然而,从国内发布政企大模型的各大厂商的动作来看,并未有较多的落地案例。背后的原因有很多,一是产品发布时间短,无法及时得到较大反馈;二是由大模型引起的AI热潮还处于爆发期,政企对于合作厂商的选择还需考量。

“我们接触的客户都在探索这方面的内容,政企会有这方面的诉求。”某业内人士告诉产业家,“但对于AI大模型在政企领域的应用,大家都处于观望+探索的阶段。”

在国内,政企普遍体量大、业务复杂、定制化要求高,有着沉重的IT建设包袱,各部门、业务之间难以协同,数据壁垒也难以打破,这使得政企的数字化转型困难重重。

而大模型可以把人与人、人与机器之间的交互过程数据完整的沉淀下来,让它自主学习进步,持续演进。杜绝了过去的烟囱式建设,降本增效的同时还能推动政企数字化进程。

这种技术应用的趋势,推动着诸多厂商开始将自身的TOG产品与大模型结合。

不过客观来看,当下虽然深耕AI产业链的玩家众多,但在政企领域,出于对算力、行业专业度、数据安全、国产化等各方因素的考量,厂商难以给出合适的AI解决方案。

AI大模型作为数字化的新基建,如何赋能行业仍需不断探索、实践。很多企业也在不断进行新的尝试。

政企大模型,亦需“群战”

术业有专攻,大模型能力同样如此。

在政务AI大模型应用方面,周鸿祎曾直言,预测未来中国不会只有一个大模型,每个城市、每个政府部门都会有自己的专有大模型。

信创化的浪潮下,全技术栈的国产化已经成为服务政企客户的准入门槛。所以对于政企而言,信创生态能力成为其选择厂商的重要标准。

目前来看,能实现全技术栈国产化的AI大模型厂商屈指可数。能否吸引更多信创伙伴成为关键,取长补短,或将实现双赢。

此外,在国产化的基础上,不同的场景应用,也需要与不同的厂商合作,例如互联网云厂商在终端软件应用的优势;运营商的网络优势;华为在芯片、系统上的优势。

除了基于客户需求的合作,还有来自算力等资源稀缺所带来的压力。

AI新一轮热潮袭来,服务器需要配备大量GPU/NPU/FPGA/ASIC等芯片以支持高算力,但就目前来看,算力不仅价格高昂且资源紧张。

目前,支撑包括ChatGPT大模型在内的95%用于机器学习的芯片都是英伟达的A100(或者国内使用的替代产品A800),该芯片的单价超过1万美元。此外,英伟达最新一代的H100芯片的性能也远超A100,但价格也更高,约合25万元人民币。

而在取长补短的AI大模型产业生态下,将大幅度杜绝模型的重复搭建、实现数据的重复利用,大大节约算力资源利用率。同时还可以减少政企客户的AI部署成本。

所以,对于布局政企大模型的厂商而言,在私有化的前提下,通过开源、API接口等形式,以通用大模型和客户或自身集成的数据,帮助客户调教模型,形成定制化的AI产品,或将推动政企大模型快速落地。

一些厂商也正在验证了这种路径的可行性。

例如中国电科面向党政企,提供“通用智能模型大循环 + 行业智能模型小循环”双循环、“模型训练 + 测试评估 + 场景精调 + 可信增强”四阶段的行业应用新范式。

再比如,新华三面向政企发布的百业灵犀LinSeer既支持“私域大模型+新华三ICT基础架构”的模式保障数据安全,也支持“客户自选大模型+新华三ICT基础架构”的模式满足多种需求。

政企AI服务的走向逐渐清晰,即政企或许更需要“自助餐”式的服务模式。客户可以选择适合自身需求的芯片、模型技术方、数据集成方、软件厂商等。

经历过多次寒冬的AI,能否抓住这次时代的机遇,仍需时间来验证。

文章来源: 雷峰网,财经杂志,产业家

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:科技观察
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...