厂商停不下来,反映的恰恰是对未来的焦虑。在这场大模型的军备竞赛中,豆包想要上演大力出li>一是包含模型推理的基础服务,指的是根据输入的信息内容,给出回答的过程。简单来说就是实际使用模型的过程。这部分各家都有不同的模型标准。
这3种收费模式,代表的也是大模型开发由浅入深的过程。而各大科技公司疯狂砍价的,其实是种基础服务,即标准版模型的推理费用。而这部分定价又分成了输入和输出两部分。简单来说,输入就是用户提问的内容,而输出则是大模型的回答。在调用大模型时往往会根据输入和输出的token数量,进行双向计费。这种细微差异,很容易成为大模型公司的套路。
例如,豆包的通用模型DoubaoPro-32k,输入价格为0.8元/百万tokens,按照官方说法是比行业便宜了99.3%,一些主流模型也都开始了降价,比如阿里云三款通义千问主力模型Qwen-Turbo价格较之前直降85%,低至百万tokens0.3元,Qwen-Plus和Qwen-Max的输入价格分别再降价80%和50%,分别为0.8元/百万tokens和20元/百万tokens。但输出价格方面有所差别,2元/百万tokens的价格与Qwen-Plus、DeepSeek-V2等同行持平,甚至比比Qwen-Turbo、GLM-4-9B等一些同行产品价格更高。
再看的豆包视觉理解模型Doubao-vision-pro-32k,输入化为每百万tokens的售价为3元,大概是0.4美元,输出直接来到了9元,大概为1.23美元。按照豆包说法,这个售价比行业平均价格便宜85%。但对比几个直接竞争者:阿里的多模态模型Qwen-VL系列在最近降价后与其价格一致;多模态的Gemini1.5Flash模型每百万输入tokens报价为0.075美元、每百万输出tokens成本为0.3美元,对于较小的上下文(小于128k)还另有折扣价;GPT-4omini则是输入0.15美元,输出0.6美元。
不过不止豆包,国内其他厂商基本也都有类似的降价套路。例如百度宣布免费的ERNIE-Speed-8K,如果实际部署,收费就变成了5元/百万tokens。还有阿里的Qwen-Max,实际与字节跳动的豆包通用模型Pro-32k一样,只是降低了输入的价格。
值得一提的是,标准模型的推理费用必然不会是企业在未来大模型商业化中唯一的收入来源。随着大模型被更多开发者使用,规模化商用加速,大模型的商业化路径还会逐渐走向多元化,包括更深入的模型定制化、服务化和聚焦行业应用等。但对于当下的厂商来说,将大模型的标准版推理费用降低到几乎可以忽略不计,无疑是抢占用户、获取企业市场的重要手段。
价格战的背后,是大模型火爆背后厂商的焦虑
回看大模型赛道近一年来的演变,各家疯狂卷价格的背后,还是追赶者,都想占领高地,这其中也不乏市场炒作和泡沫成分。在价格战的背后,是大模型火爆背后厂商的焦虑。
价格战的终点在哪里?
有业内人士担忧,价格战最终可能损害大模型行业的健康发展。如果大模型厂商只顾着一味降价出货,而忽视了技术创新和商业模式的探索,可能会造成行业内耗加剧,创新动力不足。也有观点认为,价格战不可避免,关键是要找到可持续的商业模式。
百度大模型业务总经理马艳军表示,降价只是阶段性措施,关键还是要做大规模,利用规模效应来推动技术和商业模式的创新。阿里巴巴人工智能研究院副院长杨红霞也曾指出,大模型的商业化是一个长期过程,不能一蹴而就,降价只是阶段性手段,关键是要提升模型的效率和效果。
归根结底,大模型价格战的终点,应该是一个良性的竞争环境,各家厂商根据自身优势,在技术创新、商业模式探索、行业应用等方面良性竞争,同时通过规模效应,不断降低大模型的整体使用成本,让大模型真正惠及广大开发者和企业。