豆包日均120万亿Token:字节AI的全线爆发,以及那个刚开放的视频模型

4月2日,火山引擎总裁谭待在武汉的一场活动上抛出了一个数字:120万亿

这是豆包大模型截至2026年3月的日均Token调用量。中国第一,全球前三。两年前,2024年5月豆包刚发布的时候,这个数字是1200亿——也就是说,两年涨了整整1000倍

这不是科幻小说的情节,这是发生在上周的事。


120万亿是个什么概念?

光说”120万亿”没什么感觉。换个角度:这意味着全球每天通过豆包处理的文字量,已经超过地球上所有图书馆藏书总字数的数百倍。

更直观的对比来自增长曲线:

  • 2024年5月(发布初期):1200亿 tokens/天
  • 2025年12月:约63万亿 tokens/天
  • 2026年3月:突破120万亿 tokens/天

三个月翻倍,两年涨千倍。这种指数级的速度,背后是字节把AI能力塞进了它旗下几乎每一款产品——豆包App、抖音的创作助手、飞书的AI功能、剪映的智能剪辑……用户即便从没主动”用AI”,每天刷短视频、写飞书文档,也在不知不觉中消耗着豆包的推理算力。

这个打法和其他大模型公司有本质区别。大多数AI公司还在靠API卖算力,字节直接把模型能力嵌进了日活十亿级的产品里。流量换Token,这是目前最有效率的规模化路径。

在企业端,火山引擎的数据也在印证这一趋势:平台上累计Token使用量超过一万亿的企业客户,已从去年底的100家增长到140家,三个月多了40家。


国产模型的Token反超,静悄悄地发生了

谭待没有特别渲染,但话里藏着一个信息量很大的判断:国产大模型的整体调用量,已连续一个月超越海外主流模型。

这句话值得停一下想想。就在一年多前,很多从业者还在担心国内模型跟国际的差距什么时候才能追平。现在,至少在使用量这个维度,反超已经是既成事实。

当然,有几点需要客观看待:

  1. 中文场景的天然优势。国产模型在中文理解、本土知识、内容合规上本来就比海外模型更适配。大量中文场景的AI需求,国内模型是首选。
  2. 定价策略的作用。过去一年,主流国产模型的API价格大幅下探,部分模型对轻量用户甚至提供了相当长时间的免费额度,直接推动了调用量快速放量。
  3. 生态绑定的力量。像豆包这样深度集成进字节系产品,百度文心嵌入搜索和文档,阿里通义贯穿钉钉和淘宝——这些不是靠技术指标赢的,是靠渠道和生态赢的。

这不是说技术不重要,而是说在这个阶段,落地速度和生态覆盖,可能比参数量更决定谁能跑出来。


同一天,Seedance 2.0 开放了

就在豆包公布120万亿数据的同一天,字节还推了另一件事:Seedance 2.0 正式开放API申请

Seedance是字节的视频生成模型,2.0版本在今年2月发布。4月2日,它面向完成企业认证的用户开放了API。

视频生成这个赛道,目前国内玩家已经相当多,可灵、即梦、Vidu都有一定用户基础。Seedance 2.0想要在这里找到差异化,主要押注在三个方向上:

1. 声画原生同步 传统的AI视频生成,音频和视频是分开生成然后拼在一起的——这导致嘴型对不上、声音和画面节奏脱节的问题很常见。Seedance 2.0宣称做到了”原生声画同步”,音视频在同一个生成过程里联合处理,不需要后期配音。

2. 导演级相机控制 能精确控制镜头运动:推拉摇移、焦点变化、跟拍等。这对想用AI做视频内容的创作者来说意义比较实际——不是生成一个随机的画面,而是你能描述想要什么镜头语言,它执行。

3. 角色一致性 在多帧、多场景的视频里保持同一个人物外观一致,这是AI视频的老大难问题。Seedance 2.0在这一点上号称有明显改进。

目前的开放是面向企业用户的API,还需要走企业认证。普通用户的体验入口是字节旗下的即梦AI([jianying.com](https://jianying.com),剪映的AI创作平台),部分功能已经在里面集成了。


这跟我有什么关系?

如果你是内容创作者,Seedance 2.0的开放是个值得关注的信号。过去AI视频的最大痛点是”生成的东西很漂亮但没法用”——镜头失控、角色乱跳、声音和画面不搭。如果上面说的几点改进是真的,意味着AI视频从”演示品”变成”生产工具”的进程又近了一步。

如果你是开发者,火山引擎的API是个值得纳入工具箱的选项。豆包大模型2.0系列在多模态理解和复杂任务执行上有明显进步,而且中文能力基本不用担心。关于如何在本地或者云端部署和调用大模型,可以参考站内之前写的本地部署大模型完全指南,里面有Ollama和LM Studio的完整流程对比。

如果你只是普通用户,120万亿这个数字对你的直接影响,可能就是你每天用豆包App、抖音、飞书的体验在悄悄变好——模型推理更快,回答更准,功能越来越多。这就是那1000倍增长换来的东西。


字节AI的逻辑

把这两件事放在一起看,能隐约看到字节做AI的整体逻辑:

  • 豆包:走量,用字节的产品矩阵把模型使用量堆到一个难以超越的规模。
  • Seedance:补齐视频生成这块多模态拼图,在内容生产这个字节的主战场保持技术壁垒。

这和OpenAI主推API生态、Anthropic押注安全和企业的路线都不一样。字节的核心竞争力始终是内容平台,AI对他们来说是把这个平台护城河挖得更深的工具。

所以你看到的不是一家”AI公司”,而是一家”用AI武装起来的内容公司”在展示战绩。120万亿,只是这张成绩单上的一个数字。


更多AI工具的实战玩法,可以看这篇:AI实战应用指南(2026版):普通人也能用好的10个场景

如果你对本地跑大模型感兴趣,这篇是目前最完整的教程:本地部署大模型完全指南(2026版):Ollama 与 LM Studio 实战对比


数据来源:火山引擎”2026 Force Link AI 创新巡展·武汉站”活动披露,2026年4月2日

推荐文章

  • 豆包日均120万亿Token:字节AI的全线爆发,以及那个刚开放的视频模型

    4月2日,火山引擎总裁谭待在武汉的一场活动上抛出了一个数字:120万亿。 这是豆包大模型截至2026年3月的日均Token调用量。中国第一,全球前三。两年前,2024年5月豆包刚发布的时候,这个数字是…

  • Claude Code 源码泄露风波:51万行代码、三大隐私机制曝光,这已经是第二次了

    2026年3月31日,Anthropic碰上了一个不大不小的尴尬。 它们的AI编程工具Claude Code在发布npm包时,不小心把一个57MB的cli.js.map源映射文件打进了发布包里。这个看…

  • Ollama 0.19 发布:本地大模型终于能联网了,Mac 跑模型速度也翻了倍

    本地大模型的使用体验,从 3 月 30 日起有了明显的变化。 Ollama 在这天发布了 0.19 版本预览版,同时官方博客贴出了一篇文章:Ollama is now powered by MLX o…

  • AI独角兽集体奔赴IPO:Anthropic、Kimi、OpenAI同期上市背后,这场资本盛宴说明了什么?

    2026年3月的最后几天,AI圈发生了一件值得所有人停下来认真想想的事。 Anthropic、OpenAI、月之暗面(Kimi)、SpaceX——这四家公司在同一个月内,相继传出IPO消息。 这不是巧…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

暗夜独行