DeepSeek V4预览版发布,主打Agent能力并引入百万级上下文
“跳票”许久的DeepSeek-V4,终于来了。几个小时前,DeepSeek-V4预览版上线并开源。巧的是,几乎同一天,OpenAI也推出了GPT-5.5。 一个继续讲闭源生产力系统,一个继续讲开源、长上下文和低成本推理。中美AI产业中流量最大的两家基模公司,在同一天相遇。 DeepSeek-V4分为Pro与Flash两个版本,均支持百万(1M)token超长上下文,总参数规模分别达到1.6T(激活49B)与284B(激活13B)。 不过,相比起“1.6T参数”或者“百万token上下文”这两个夸张数字,技术文档里的两个十位数更值得关注:27%和10%。根据HuggingFace上V4系列的介绍,在100万token上下文场景下,V4-Pro的单token推理FLOPs只有V3.2的27%,KVcache只有V3.2的10%。翻译成人话就是,在处理超长材料的场景下,V4不只是“能装得下”,而且跑得更快、还更便宜。这也许是V4这次更新中最值得关注的地方。过去半年,长上下文已经成了头部模型的共同卖点。Claude、Qwen、Kimi、GLM都在往长文本、代码仓库和Agent任务上走,DeepSeek这次把主线放在了长文本场景里最贵的部分:计算和缓存。 略显遗憾的是,V4目前并没有原生多模态功能,这会限制它在一些场景的发挥。 所以,V4的关键词,并不是行业内期盼已久的“新物种”,而是“效率工程”的再进一步。 回顾过往也确实如此,DeepSeek这家公司,一直都不是那种“性感”产品的路线,在Token调用暴涨的海洋中,V4要撑起的,是这家超级独角兽200亿美元估值的野望。