扑克王下载:
DeepSeek 带着 R1 在一年前的昨天(2025.1.20)横空出世,一出场就吸引了全球的目光。
那时候为了能顺畅用上 DeepSeek,我翻遍了自部署教程,也下载过不少号称「XX - DeepSeek 满血版」的各类应用。
豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更加不用说海外的 ChatGPT、Gemini 等 SOTA 模型产品。
当这些全能 AI 助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着 DeepSeek?」
于是,DeepSeek 在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。
看一眼 App Store 的排行榜,这种「变心」又似乎不是我一个人的错觉。
免费应用下载榜的前三名,已经被国产互联网大厂的「御三家」包揽,而曾经霸榜的 DeepSeek,已经悄悄来到了第七名。
在一众恨不得把全能、多模态、AI 搜索写在脸上的竞品里,DeepSeek 显得格格不入,51.7 MB 的极简安装包,不追热点,不卷宣发,甚至连视觉推理和多模态功能都还没上。
但这正是最有意思的地方。表面上看,它似乎真的「掉队」了,但实际是 DeepSeek 相关的模型调用仍是多数平台的首选。
而当我试图总结 DeepSeek 过去这一年的动作,把视线从这个单一的下载榜单移开,去看全球的 AI 发展,了解为什么它如此地不慌不忙,以及即将发布的 V4,又准备给这个行业带来什么新的震动;
我发现这个「第七名」对 DeepSeek 来说毫无含金量,它一直是那个让巨头们真正睡不着觉的「幽灵」。
当全球的 AI 巨头都在被资本裹挟着,通过商业化来换取利润时,DeepSeek 活得像是一个唯一的自由球员。看看它的竞争对手们,无论是国内刚刚港股上市的智谱和 MiniMax,还是国外疯狂卷投资的 OpenAI 和 Anthropic。
为了维持昂贵的算力竞赛,就连马斯克都没办法拒绝资本的诱惑,前几天刚刚才为 xAI 融了 200 亿美元。
年度私募百强榜,按公司平均收益排名,幻方量化位于第七名,百亿以上规模排名第二|图片来源:
在这个所有人都急着变现、急着向投资人交作业的时代,DeepSeek 之所以敢掉队,是因为它背后站着一台超级「印钞机」,幻方量化。
作为 DeepSeek 的母公司,这家量化基金在去年实现了超高的 53% 回报率,利润超过 7 亿美元(约合人民币 50 亿元)。
梁文锋直接用这笔老钱,来供养「DeepSeek AGI」的新梦。这种模式,也让 DeepSeek 极其奢侈地拥有了对金钱的掌控权。
没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的 Thinking Machine Lab;还有小扎的 Meta AI 实验室各种绯闻。
只对技术负责, 因没有外部估值压力,DeepSeek 不需要为了财报好看而急于推出全能 App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。
App Store 的下载量排名,对于一家需要向 VC 证明「日活增长」的勇于探索商业模式的公司来说是命门。但对于一家只对 AI 发展负责、不仅不缺钱还不想被钱通过 KPI 控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。
即便 DeepSeek 可能根本不在意,我们是不是已经选择了其他更好用的 AI 应用,但它过去这一年带来的影响,可以说各行各业都没有错过。
最开始的 DeepSeek,不单单是一个好用的工具,更像是一个风向标,用一种极其高效且低成本的方式,打碎了硅谷巨头们精心编织的高门槛神话。
如果说一年前的 AI 竞赛是比谁的显卡多、谁的模型参数大,那么 DeepSeek 的出现,硬生生把这场竞赛的规则改写了。在 OpenAI 及其内部团队(The Prompt) 的最近发布总结回顾中,他们不得不承认,
DeepSeek R1 的发布在当时给 AI 竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。
DeepSeek 一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。
根据 ICIS 情报服务公司最近的分析,DeepSeek 的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。
这直接导致了全球 AI 竞赛从「造出最聪明的模型」,转向了「谁能把模型做得更高效、更便宜、更易于部署」。
当硅谷巨头们还在争夺付费订阅用户时,DeepSeek 也开始在被巨头遗忘的地方扎根。
在微软上周发布的《2025 全球 AI 普及报告》中,DeepSeek 的崛起被列为 2025 年「最意想不到的发展之一」。报告揭示了一个有意思的数据:
非洲使用率高:因为 DeepSeek 的免费策略和开源属性,消除了昂贵的订阅费和信用卡门槛。它在非洲的使用率是别的地方的 2 到 4 倍。
占领受限市场: 在那些美国科技巨头难以触达或服务受限的地区,DeepSeek 几乎成了唯一的选择。多个方面数据显示,它国内的市场占有率高达 89%,在白俄罗斯达到 56%,在古巴也有 49%。
微软在报告里也不得不承认,DeepSeek 的成功更加确定了,AI 的普及不仅取决于模型有多强,更取决于谁能用得起。
下一个十亿级 AI 用户,可能不会来自传统的科技中心,而是来自 DeepSeek 覆盖的这些地区。
欧洲一直是被动地使用美国的 AI,虽然也有自己的模型 Mistral,但一直不温不火。DeepSeek 的成功让欧洲人看到了一条新路,既然一家资源有限的中国实验室能做到,欧洲为什么不行?
据连线杂志最近的一篇报道,欧洲科技界正在掀起一场「打造欧洲版 DeepSeek」的竞赛。不少来自欧洲的开发者,开始打造开源大模型,其中一个叫 SOOFI 的欧洲开源项目更是明确说,「我们将成为欧洲的 DeepSeek。」
DeepSeek 过去这一年的影响,也加剧了欧洲对于「AI 主权」的焦虑。他们开始意识到,过度依赖美国的闭源模型是一种风险,而 DeepSeek 这种高效、开源的模式,正是他们要的参照。
影响还在继续,如果说一年前的 R1 是 DeepSeek 给 AI 行业的一次示范,那么马上就要来临的 V4,会不会又是一次反常识的操作。
根据前段时间零零散散的爆料,和最近公开的技术论文,我们梳理了关于 V4 最需要我们来关注的几个个核心信号。
在 DeepSeek-R1 发布一周年之际,官方 GitHub 代码库意外曝光了代号为「MODEL1」的全新模型线索。
在代码逻辑结构中,「MODEL1」是作为与「V32」(即 DeepSeek-V3.2)并列的独立分支出现的,这一细节意味着「MODEL1」并不共享 V3 系列的参数配置或基础架构,而是一个全新的、独立的技术路径。
结合之前的爆料和泄露的代码片段,我们梳理了「MODEL1」有几率存在的技术特征:
代码显示其采用了与现行模型完全不同的 KV Cache 布局策略,并在稀疏性(Sparsity)处理上引入了新机制。
在 FP8 解码路径上有多处针对性的内存优化调整,预示着新模型在推理效率和显存占用上可能有更好的表现。
此前爆料称,V4 的代码表现已超越 Claude 和 GPT 系列,并且具备处理复杂项目架构和大规模代码库的工程化能力。
业界普遍推测,DeepSeek 近期发表的两篇重磅论文——关于优化残差链接的 「mHC」 以及 AI 记忆模块 「Engram」,非常有可能被整合进「MODEL1」的架构中,从而解决长上下文记忆和计算效率的核心痛点。
此前有传闻称,DeepSeek 计划在 2 月中旬(春节前后) 发布下一代旗舰模型 V4。此次 GitHub 代码的提前部署,在时间线上与该传闻高度吻合。如果属实,这将是继 R1 之后,DeepSeek 推出的第二个重要模型。
值得一提的是,全球最大的 AI 开源社区 Hugging Face 最近也专门发文复盘了 R1 发布这一年的影响,核心观点就是「中国 AI 真的站起来了」。
他们认为 R1 的出现是个分水岭,证明了哪怕算力受限,靠开源也能实现技术上的弯道超车,让中国 AI 产业从封闭走向了开源爆发。在他们看来,R1 的真正价值在于降低了门槛:
技术上: 公开推理细节,让高级能力可复用。 应用上: 宽松协议(MIT)让模型迅速融入商业落地。
心理上: 建立了中国 AI 从「追随」到「引领」的自信。 2025 年,中国开源模型的下载量在全球都占据了主导地位,不仅国内的大厂和勇于探索商业模式的公司都在全面拥抱开源,甚至国外现在很多所谓的新模型,实际上都建立在中国开源模型的基础之上。
DeepSeek 似乎偏爱在农历新年这一段时间节点搞事情。有消息透露,DeepSeek 计划在 2 月中旬(农历新年前后)发布新一代旗舰模型 V4。去年的 R1 也是在这一段时间节点发布,随后在春节假期引爆了全球关注。
不得不说,这种时机选择避开了欧美科技圈的常规发布拥堵期,还充分用到了长假期间用户的尝鲜心理,确实能为病毒式的传播埋下种子。
在通用对话已经趋于同质化的今天,V4 选择了一个更硬核的突破口:生产力级别的代码能力。
据接近 DeepSeek 的的人偷偷表示,V4 并没有止步于 V3.2 在基准测试上的优异表现,而是在内部测试中,让其代码生成和解决能力,直接超越了 Anthropic 的 Claude 和 OpenAI 的 GPT 系列。
更关键的是,V4 试图解决当前编程 AI 的一大痛点:「超长代码提示词」的处理。这在某种程度上预示着 V4 不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。
为了实现这一点,V4 也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。
比起 V4 模型本身,更需要我们来关注的是 DeepSeek 在上周联合北京大学团队发表的一篇重磅论文。
这篇论文揭示了 DeepSeek 能够在算力受限下持续突围的真正底牌,是一项名为 「Engram(印迹/条件记忆)」 的新技术。
HBM(高带宽内存)是全球 AI 算力竞争的关键领域之一,当对手都在疯狂囤积 H100 显卡来堆内存时,DeepSeek 再次走了一条不寻常的路。
计算与记忆解耦: 现有的模型为了获取基础信息,往往需要消耗大量昂贵的计算力来进行检索。Engram 技术能让模型高效地查阅这一些信息,而不需要每次都浪费算力去计算 。
研究人员称,这种技术能绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。
在显卡资源日趋紧张的背景下,DeepSeek 的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。
DeepSeek 这一年的进化,本质上是在用反常识的方式,解决 AI 行业的常识性难题。
它一年进账 50 亿,能够用来训练出上千个 DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的 HBM。
过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。
这些选择,在短期看都是「错的」。不融资,怎么跟 OpenAI 拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?
但如果把时间线拉长,这些「错的」选择,可能正在为 DeepSeek 的 V4 和 R2 铺路。
这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4 会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。
但至少现在我们大家都知道,在 AI 这个行业里,反常识,有时候才是最大的常识。