「豆包」拉低价格线,全球大模型开卷性价比

豆包以高性价比亮相之前,通义千问、智普 AI、DeepSeek 等国内很多大模型都开始「卷」起价格。

撰文:木沐

大模型也开始打起价格战。

5 月 15 日,字节跳动旗下火山引擎发布豆包大模型,除了针对 C 端用户的豆包 APP 可免费使用该模型的应用外,豆包大模型将 B 端用价拉至行业最低。

按照火山引擎总裁谭待的说法,豆包主力模型(≤32K)在企业市场的定价只有 0.0008 元 / 千 Tokens,0.8 厘就能处理 1500 多个汉字,比行业便宜 99.3%。

豆包以高性价比亮相之前,通义千问、智普 AI、DeepSeek 等国内很多大模型都开始「卷」起价格,百模大战也随着集体降价进入了新阶段。正如谭待所说,降低成本是推动大模型快进到「价值创造阶段」的一个关键因素。

「豆包」将 B 端用价拉至行业新低

豆包大模型的前身是云雀大模型,也是 2023 年 8 月字节跳动旗下发布的首个基于 Transformer 架构的大模型。半年后,豆包大模型不仅出了全家桶,还将针对行业 B 端用户降价。

豆包主力模型在企业市场的定价只有 0.0008 元 / 千 Tokens,0.8 厘就能处理 1500 多个汉字,比行业便宜 99.3%。据此计算,1 块钱就能买到豆包主力模型的 125 万 Tokens 的用量,大约为 200 万个汉字,相当于三本《三国演义》。而 128K 的豆包通用模型也只需要 0.005 元 / 千 Tokens,比行业价格低 95.8%。

要知道 GPT-4 Turbo 输入 1000 Tokens 为 0.01 美元,输出 1000 Tokens 价格为 0.21 元。相比之下,字节跳动直接把价格「打骨折」,堪称 AI 界的拼多多。

不止「豆包」,国内不少大模型都在降价。

不久前,百度发布了文心大模型轻量版,其中 ERNIE Tiny 版本的价格降到了 0.001 元每千 Tokens,相当于 1 元 100 万 Tokens。

今年 5 月,智谱 AI 的大模型商用价格也大幅降价。入门级产品 GLM-3 Turbo 模型调用价格下调 80%,从 5 元 / 百万 Tokens 降至 1 元 / 百万 Tokens,足以让更多企业和个人都能用上这款入门级产品。

「豆包」拉低价格线,全球大模型开卷性价比智谱 AI 的大模型的价格

5 月 小白导航6 日,国内知名私募巨头幻方量化旗下的 AI 公司 DeepSeek 发布全新第二代 MoE 大模型 DeepSeek-V2,DeepSeek-V2 API 定价为每百万 Tokens 输入 1 元、输出 2 元(32K 上下文)。

5 月 9 日,阿里云正式发布通义千问 2.5,根据 OpenCompass 的测评结果,通义千问 2.5 得分追平 GPT-4 Turbo,与此同时,个人用户可从 App、官网和小程序免费使用。

5 月 14 日,腾讯的混元文生图大模型直接开源,免费商用。

在海外,OpenAI 刚刚发布的 GPT-4o 也大幅度降价,不仅供所有用户免费使用,在 API 调用方面也比去年 11 月发布的 GPT-4-turbo 降价一半,但速度提升两倍。这是 OpenAI 大模型产品的第三次降价。

法国人工智能企业 Mistral AI 大模型 Mistral Large 的输入、输出价格目前也比 GPT-4 Turbo 便宜约 20%,一度引起广泛关注。

无论国内还是海外,大模型正在集体降价。

大模型降本 应用落地增效‍‍

各个厂商「价格战」已经开打,而在大半年前,人们获知的常识是大模型训练很烧钱,为何仅仅半年时间,厂商们就能将价格「打下来」、纷纷卷了起来?

火山引擎总裁谭待认为,降低成本是推动大模型快进到「价值创造阶段」的一个关键因素。对于中小型企业客户而言,调用大模型的一个重要考虑就是成本。谭待透露,字节跳动在模型结构、训练、生产等各种技术层面有很多优化手段能够实现降价。

OpenAI CEO Sam Altman 也为人们不用在 ChatGPT 上看广告就能使用它而感到骄傲, 「我们的一个关键使命就是将 AI 产品免费提供给人们。」

的确,低价正在帮助大模型研发企业抓住市场机会,以占据一席之地。而用户体量的增加也能反过来帮助研发训练出更好模型。那么,大模型的训练成本真的降低了吗?

去年 GPT-4 发布时,Sam Altman 曾透露,OpenAI 最大模型的训练成本「远远超过了 5000 万美元」。据斯坦福大学发布的《2024 年人工智能指数报告》估算,OpenAI 的 GPT-4 训练成本为 7800 万美元。

高昂的大模型训练成本也直接推高的使用费用,直接将很多企业用户阻拦在外。

不过,研究人员们正在寻找更低成本的训练方法。去年,新加坡国立大学和清华大学的研究者提出了一个名为 VPGTrans 框架,以极低成本训练高性能多模态大模型,相比于从头训练视觉模块,VPGTrans 框架可以将 BLIP-2 FlanT5-XXL 的训练开销从 19000 + 人民币缩减到不到 1000 元。

国产大模型中,研发人员也各个方面找到降本增效的办法。DeepSeek-V2 提升数据集质量、优化架构后,AI 异构计算平台「百舸」将训练和推理场景的吞吐量最高提升 30% 和 60%。

除了训练过程外,一些大模型训练的基础设施——芯片也在降价,比如英伟达 AI 芯片 Nvidia A100 的降价直接将大模型训练成本降低了约 60%。

大模型价格战最直接的影响就是应用落地开始提速。豆包平台上,已经有超过 800 万个智能体被创建。GPT Store 已有超过 300 万个依托 GPT 模型的 APP 被创建。

仅半年时间,砸钱拼大模型性能的时代似乎已经是过去式。现如今,市场用户也随着各家大模型的降价更看重谁家大模型又实惠又好用。这将推动大模型应用更快在场景和商业上实现落地。

文章来源于互联网:「豆包」拉低价格线,全球大模型开卷性价比

相关推荐: Fantom 即将上线亚秒级交易网络 Sonic,Layer2 能否稳坐宝座?

老牌公链 Fantom 再度崛起。 撰文:Daniel Li 当前的加密货币市场中,老牌山寨币 FTM 再次引发了投资者的关注。尤其令人瞩目的是,仅在 3 月份,FTM 的价格就暴涨了 150%。更令人惊奇的是,即便在最近的一个周内,当比特币和以太坊因为日本加…

分享到
© 版权声明

相关文章