降价75%,DeepSeek“错峰定价”,压力给到了豆包们?
直播吧12月3日讯据西班牙《阿斯报》报道,巴萨在俱乐部125周年后的首场比赛中失利,巴萨主帅弗里克为此向主席拉波尔塔致歉。巴萨在上周末的西甲联赛中主场不敌拉斯帕尔马斯,拉波尔塔本周一来到体育城给全队打气,并与弗里克进行了交流。
还在搞事。
作为 钦定的「开源周」,DeepSeek 本周已经陆续开源四个项目,星期四 发布了实现双向并行的 DualPipe(直译为「双向管道」)。与此同时,DeepSeek 还整了一个不大不小的活——。
周三(2月26日),DeepSeek 发文宣布当天起,北京时间每日00:30至08:30的夜间空闲时段,DeepSeek 开放 推出错峰 活动。而就在前一天,DeepSeek 才刚刚恢复 的 充值服务。
但说回 ,DeepSeek 不可谓不给力。根据 公告,DeepSeek API 调用价格将在夜间空闲时段大幅下调:DeepSeek-V3降至原价的50%;DeepSeek-R1更是低至25%(降了75%)。
图/ DeepSeek
具体价格调整如图,就不赘述了,总之就是帮兄弟们「自砍一刀」。
值得一提的是,不同于 DeepSeek-V3发布之初的「 体验期」有明确的时间期限,这次的错峰 仅有「时段限制」,而没有「期限」。换言之,我们可以干脆一点将错峰 视为长期的:
「错峰定价」。
另外还有一点不得不提,两款模型不仅 时段一致, 后的价格也变得完全一样了:
输入(缓存命中)为0.25元 / 百万 tokens;
输入(缓存未命中)为1元 / 百万 tokens;
输出为4元 / 百万 tokens。
这可能也是 DeepSeek 有意为之。
毕竟推理模型已经成为了大模型厂商的共识,通过在 时段拉齐定价,DeepSeek 不仅能够降低开发者使用 DeepSeek-R1的成本顾虑,事实上也模糊了两种模型的边界,鼓励开发者根据自己的需求灵活调用两种模型。
这就像前两天 Anthropic 推出的全球首款混合推理模型——Claude3.7Sonnet,结合了传统模型的「迅速回答」和推理模型的「高级推理」优势,实现更灵活的计算与更适合的 AI 体验。
图/ Claude
不过 DeepSeek 这次调整最核心的变动,还是「错峰定价」这种运营策略的采用,其中「肉眼可见」的优势很有可能引起豆包、通义千问等其他大模型的跟进,甚至可能成为又一场大模型价格战的导火索:
一如2024年初 DeepSeek-V2发布后,掀起的那场价格战。
需要说明的是,DeepSeek-V3实际上「降过价」,雷科技之前报道过 DeepSeek-V3「 体验期」在本月初的结束,那之前全时段的 价甚至比现在 时段的价格更便宜:
输入(缓存命中)为0.1元 / 百万 tokens;
输入(缓存未命中)为1元 / 百万 tokens;
输出为2元 / 百万 tokens。
2月初结束了,图/ DeepSeek
但不同的是,DeepSeek-R1可没有,发布以来的价格一直没变,都是输入(缓存命中)1元 / 百万 tokens、输入(缓存未命中)4元 / 百万 tokens、输出16元 / 百万 tokens。
而相对地,这也让这次 DeepSeek-R1高达75折的「错峰降价」更为惊喜。
首先在能力上,我相信今时今日已经不需要强调 DeepSeek-R1的表现了,不管是产品层面思维链的创新,还是工程层面实现的极致成本,都让 DeepSeek-R1成为了当下最成功的模型。
在此基础上,降价毫无疑问是降低开发者调用成本和门槛最有力的策略之一,间接也会进一步将更好的 AI 体验推广到更多的 AI 应用(通过接入 DeepSeek)中。
事实上,标准时段 DeepSeek 的价格已经比其他厂商的不少大模型都更便宜,而 时段的 DeepSeek,更是比起很多主力大模型都要便宜:
单位为每百万 tokens,图/雷科技
以字节跳动旗下的豆包通用模型为例,火山引擎 显示的价格是:doubao-pro-32k,输入为0.8元 / 百万 tokens,输出为2元 / 百万 tokens;doubao-pro-128k / doubao-pro-256k,输入为5元 / 百万 tokens;输出为9元 / 百万 tokens。
甚至我们还能看到,火山引擎上 deepseek-r1-distill-qwen-32b(蒸馏版)的价格是:输入1.5元 / 百万 tokens、输出6元 / 百万 tokens。
也就说,DeepSeek-R1 满血版在 时段的价格,甚至比32b 蒸馏版还要更便宜。
这也还只是在国内,DeepSeek-R1/V3在海外也推出了同样的运营策略,也有50% 和75% 的大幅降价,而且 时段是直接对应北京时间00:30至08:30。也就是说,伦敦时间16:30至00:30、纽约时间11:30至19:30都可以直接享受到 DeepSeek 的 时段价格。
换言之,DeepSeek 对于不少面向部分海外用户市场的开发者,还有更强的吸引力,相当于是在高峰时段享受了 时段的价格。
错峰定价本身并不稀奇,比如我们最熟悉的错峰电价,在不同时段用电的价格也会有不小的价格差。
为了尽可能避免在用电高峰时段用电紧张、用电低谷时电能空置,国内就设置了峰谷电价,通过峰谷价差来鼓励用户错峰用电,最大程度配置电网资源的同时帮助用户节省用电成本,挖掘更多的经济效益和生态效益。
事实上,DeepSeek 在新闻稿中也提到了类似的说法,表示推出错峰 活动是:「鼓励用户充分利用这一时段,享受更经济更流畅的服务体验。」
从开发者的角度来看,这种错峰定价的运营策略几乎算得上百利而无一害,而从大模型厂商和云计算 的角度看,实际上也是利大于弊,可以更大程度利用服务器资源。
所以目前来看,大模型跟进错峰定价的运营策略应该算得上是题中应有之义,只是具体策略上会有不同的调整,比如前文提到的不同时区(不同用户市场)问题。
不过,DeepSeek 这次会引发行业连锁反应,甚至复刻一年前的大模型价格战吗?可能还有待观察。
不少关注 AI 的读者可能还记得,2024年5月初,大众眼中「名不见经传」的 DeepSeek 发布了第二代 MoE 大模型 DeepSeek-V2,并且首次引入了多头潜在注意力( A)机制,拥有2360亿参数,每个 token210亿个活跃参数,称得上当时最强的开源 MoE 模型。
DeepSeek V2技术论文摘要,图/雷科技
但更重要的是,DeepSeek-V2的价格达到了:输入1元 / 百万 tokens、输出2元 / 百万 tokens。
现在看起来可能不太惊艳,但这个价格,仅为当时 Ch GPT 主力模型 GPT-4T bo 的近百分之一,在性价比上直接 了国内外一众大模型,也让不少人记住了这家名为「DeepSeek(深度求索)」的大模型厂商,并冠以「AI 界拼多多」的称号。
而更让人印象深刻的是,DeepSeek-V2之后,中国大模型价格战由此一触即发,字节、腾讯、 、阿里等大厂纷纷降价,通义千问对标 GPT-4的主力模型 Qwen-Long,API 输入价格甚至从从20元 / 百万 tokens 降至0.5元 / 百万 tokens。
「错峰定价」的运营策略或许很难单独推动,但考虑到 DeepSeek 在开源周展现出一系列能力,比如长上下文的突破、芯片利用效率的提升等,未必不会是又一 模型价格战的「新开端」。
DeepSeek 毫无疑问是今年以来 AI 行业最大的鲶鱼,业界领头羊 OpenAI 也被迫做出了诸多回应。根据多家媒体爆料,OpenAI 近期就计划推出「酝酿已久」的 GPT-4.5。
当然,其他大模型厂商的追赶甚至超越,也在倒逼 DeepSeek 自己加快节奏。路透社 报道就指出,新一代 R2推理模型真的要来了,DeepSeek 原计划要在5月推出,但最近已经在考虑提前推出。
这些变化都在推动 AI 的迭代和进步,也在改变今日的世界。