首页 > 社会新闻 > 正文

2023年AI的钱被谁赚走了?

自2023年初ChatGPT爆火以来,各互联网大厂、大模型初创企业,甚至千行百业都在下场做大模型,“通用大模型”“垂类大模型”“AI智能算法”等成为企业自身业务和产品的高频词。一时间,几乎无处不AI。

投资机构和互联网大厂对于AI的投入可谓大手笔:MiniMax、智谱AI、百川智能、月之暗面、零一万物等大模型初创企业已完成数轮融资,其中MiniMax估值达到25亿美元,月之暗面新一轮估值已达到30亿美元。

科大讯飞(002230.SZ)、商汤(00020.HK)等企业也在不断加大对AI的投入。2024年一季度,科大讯飞在大模型研发及大模型产业落地拓展等方面,新增投入约3亿元。早在2018年前后,商汤就开始每年数十亿投入到SenseCore大装置,并建设了临港AIDC(人工智能计算中心)。

但疯狂烧钱的AI想落地变现,实现盈利并不容易。2023年,国内AI产业链上究竟有谁赚到了钱?

纯AI算法厂商几乎全部亏损

对于部分纯AI算法企业来说,2023年生成式AI的爆发确实给营收带来了一定的增长。

2023年年报显示,商汤实现营收34.05亿元,其中生成式AI业务收入达11.84亿元,同比增长200%,总收入占比达35%。受益于人工智能相关产品需求增长,云从科技(688327.SH)2023年营收增长19.33%。第四范式(6682.HK)先知AI平台业务2023年实现营收25.06亿元,同比增长68.0%。

此外,业内有观点认为“所有产品都值得用AI再做一遍”,多家企业在2023年均对产品进行了智能升级,贴上AI标签以助益营收增长。

不过,大模型的入场券价格昂贵,AI算法企业的研发成本、训练成本高企。

据半导体产业分析机构SemiAnalysis的专家DylanPatel统计,OpenAI光是运行ChatGPT,每日投入的成本就可能高达70万美元。国盛证券估算,大型语言模型单次训练成本少则200万美元,多则达到夸张的1200万美元(约合8600万元人民币)。业内预测,到2025年或2026年,训练最新大语言模型的成本将达到50亿至100亿美元。

2023年年报显示,第四范式研发费用超17亿元,研发费用率超40%;格灵深瞳(688207.SH)为发展多模态大模型,2023年研发费用为1.84亿元,同比增长39%,而其当年营收为2.62亿元,研发投入占营收约70%。

高投入下,纯AI算法厂商几乎全部亏损。2023年,商汤亏损近65亿元,第四范式亏损9.21亿元,云从科技亏损6.43亿元,格灵深瞳亏损0.90亿元。

2023年AI的钱被谁赚走了?

数据厂商境内外收入双双下滑

作为AI三要素之一,数据的数量和质量对AI大模型的训练成果起着决定性作用。

作为重要的上游原材料,数据理论上也是AI算法企业刚需的研发投入。但A股稀缺的AI训练数据厂商海天瑞声(688787.SH)的2023年业绩表现却并未体现出这一点。2023年,海天瑞声营业收入同比下滑35.33%,扣非前后归母净利润均为负数。

2023年AI的钱被谁赚走了?

海天瑞声年报解释称,境外部分客户2023年预算释放进度放缓,叠加2023年上半年数据出境相关法规落地实施的阶段性影响,公司境外收入同比大幅下滑;境内业务方面,受内外部环境影响,部分境内客户对集中性研发投入仍持谨慎态度,基础数据服务领域客户预算及需求释放出现阶段性减缓,叠加行业内竞争加剧,综合导致境内收入同比下滑。

第一财经在调研中了解到,数据是刚需,但买数据未必是刚需,对于算法企业来说,购买数据的成本太高,企业仅会为小部分难以获取的高质量数据付费。

“头部人工智能公司的数据大多数靠自己的团队从开放的互联网上全量爬回来。”某AI算法企业高层对第一财经表示,“我只会从数据公司购买急需的小部分数据,大量购买数据的成本太高。”

某种程度上,做人工智能就是做数据,OpenAI约三分之二的员工都在做数据相关工作。挖掘、标注更多更优质的数据,本身就是人工智能企业需要具备的重要能力。“我觉得做搜索引擎出身的百川智能是最可能成功的一家大模型公司,在我看来会做数据的团队最后会成功。”上述高层表示。

AI“卖水人”的二八定律

算力是算法企业做AI的硬成本,AI芯片厂商可谓AI行业的“卖水人”。在2023年GPU一卡难求的背景下,买GPU甚至成为部分企业的“信仰”。

华为年报显示,多样性算力正在改变数据中心算力格局,AI算力成为主要增量。预计到2030年,全球通用算力需求将达到3.3ZFLOPS,是2020年的10倍;AI算力需求将达到105ZFLOPS,是2020年的500倍;全球每年产生的数据总量将达1YB,是2020年的23倍。

目前全球GPU主要市场份额被英伟达及AMD占据,其中英伟达约占据79%,AMD约20%。2023年,英伟达营收达到552.68亿美元,同比增长105%;AMD全年营收小幅下滑,但四季度数据中心GPU芯片销售额超过了预期的4亿美元,并调高了2024年数据中心GPU业绩预期,预计2024年销售额将达到35亿美元,高于此前预测的20亿美元。

国内市场方面也呈现出明显的二八定律。

2023年全年,华为实现全球销售收入7042亿元,同比增长9.64%,净利润870亿元,同比增长145%。其中云计算业务销售收入553亿元,同比增长21.9%。华为年报称,华为云昇腾AI云服务依托贵安、乌兰察布、芜湖3大AI云算力中心,为业界提供稳定可靠、随取随用的澎湃AI算力,大模型训练30天长稳率达到90%,断点恢复时长不超过10分钟,有力支撑智能时代“百模千态”创新。

海光信息(688041.SH)的DCU系列产品以GPGPU架构为基础,兼容通用的“类CUDA”环境,主要部署在服务器集群或数据中心,能够支持全精度模型训练,实现LLaMa、GPT、Bloom、ChatGLM、悟道、紫东太初等为代表的大模型的全面应用,与国内包括文心一言等大模型全面适配。2023年,海光信息实现营收60.12亿元,同比增长17.30%;实现归母净利润12.63亿元,同比增长57.17%。

寒武纪(688256.SH)2023年营收小幅下滑,亏损收窄,研发投入占据营收157.53%。2023年其智能芯片及加速卡实现收入1.01亿元,在大模型领域与部分公司达成了算力产品合作和大模型适配。

景嘉微(300474.SZ)表示2023年其GPU产品的应用场景由图形渲染领域扩展至AI训练、AI推理和科学计算领域。2023年,景嘉微营收下滑38.19%,净利润腰斩近八成。

2023年AI的钱被谁赚走了?

2023年AI的钱被谁赚走了?

“芯片行业有一个非常明显的特点,它会有一个体量巨大的老大和一个还活得不错的老二,剩下的全都会死。”上述AI算法上市公司高管表示,“因为芯片的主要原材料是沙子,难的是工艺。换句话说,流水线一旦启动,造一颗芯片和造100万颗芯片的价格不会相差很多,所以出货量大的企业才能盈利。今年有很多芯片创业公司的经营状况不好,这是符合市场规律的,他们需要在残酷的市场竞争中最少变成老二。”

场景找算法更容易变现

数据与算力都需要算法企业来买单,但如前文所述,纯算法企业目前几乎普遍陷入亏损的境地。如何把AI算法变成市场能接受的产品,对于所有算法企业来说,都是一场巨大的挑战。特别是进入2024年,资本对于AI的投入变得更为冷静,AI如何更好地实现商业化落地和变现成为全行业关注的焦点。

相比纯算法厂商“算法找应用场景”的模式,“应用场景找算法”的变现模式更容易一些:一些在行业中扎根多年、具备大规模的基础业务、已积累丰富应用场景的企业,将AI算法赋能产品和场景,或按照场景需求定制算法,逐渐进入良性循环。

海康威视(002415.SZ)就属于此类厂商。海康威视起家于安防视频业务,多年来深耕千行百业,积累了丰富的碎片化的数字化场景,通过数万种型号硬件产品打造了智能物联(AIoT)产品矩阵,近年将AI算法应用到各种感知产品中,解决数字化场景需求。

科大讯飞推出了全球首款认知大模型AI学习机,将星火大模型的技术优势转换为产品功能特性并形成市场竞争力,用户净推荐值NPS持续保持行业第一;该公司的个性化学习手册英语学科产品也融合了星火认知大模型,单品销量同比增长40%。

金山办公(688111.SH)2023年发布了基于大语言模型的智能办公应用WPSAI,锚定AIGC(内容创作)、Copilot(智慧助理)、Insight(知识洞察)三个方向,并于2023年四季度全端投放进入公测阶段。

此外,目前看,面向C端的互联网公司,其AI的投入产出比或许更高,想象空间也更大。

“如果做B端,最后一定是变成了一个行业公司。这也是kimi成为一个非常好的投资标的的原因,它看起来有机会成为一个C端平台型产品,这显然是最有想象力的。目前大模型的能力特点是什么都会一点,但不会非常准确,很适合没有那么严肃的C端应用场景。”上述高管表示,比如小红书、抖音等企业的用户可以免费使用大模型能力,从而丰富自身平台内容,“但抖音、小红书不会说自己做大模型能赚到多少钱,他们的钱不来自于这里。”

从这个角度来说,更早开始接触客户或用户,并且更早在用户身上获得反馈和价值的企业,更容易在AI领域获得成功。

责任编辑:张玉

相关阅读:
张雪峰一门课卖近两万元,割韭菜还是真刚需? 剧组在ICU拍短剧,竟让患者家属“哭小声点”?多方回应