DeepSeek 真的失势了?实则已融入大众生活

2025 年 7 月 26 日消息,QuestMobile 发布的《2025 年二季度 AI 应用价值榜》数据显示,一季度曾以 8111.3 万月均下载量登顶的 DeepSeek,在二季度月均下载量降至 2258.9 万,环比下降 72.2%,数据落差之大,使得不少人开始质疑 DeepSeek 是否 “跌落神坛”。然而,业内人士却有着截然不同的看法,认为这一数据并不能反映 DeepSeek 的真实热度,其实际已凭借多元接入方式 “飞入寻常百姓家”。

从数据统计的局限性来看,DeepSeek 的使用场景极为多元,大量高黏性用户并非通过官网和 APP 访问。许多服务商为满足用户需求,纷纷接入 DeepSeek 接口,像腾讯元宝、百度、火山、微信小程序等,都能让用户便捷使用 DeepSeek 的服务。同时,不少工作单位出于提升办公效率、优化业务流程等考虑,主动在本地部署 DeepSeek,将其深度融入日常工作中,如企业内部的智能客服、数据分析、流程自动化等环节。这些实际使用数据因并非源自官网或 APP,未被 QuestMobile 统计在内,从而导致数据层面呈现出热度大幅下降的假象。

在技术革新层面,DeepSeek 堪称搅动行业格局的颠覆者。它创新性地攻克了大模型训练长期存在的 “不可能三角”—— 高性能、低成本和易用性。过往,AI 领域普遍认为大模型性能与算力投入紧密相关,高昂的训练成本和硬件规模要求,令众多初创公司望而却步。以美国人工智能初创公司 Anthropic 为例,其首席执行官达里奥・阿莫迪曾透露,GPT-4o 的模型训练成本约为 1 亿美元。OpenAI 训练 GPT-4 动用了数万块英伟达 A100 GPU,微软更是为其提供强大的 “星际之门(Starship)” 超级计算机集群支持;谷歌也凭借庞大的 TPU(Tensor Processing Unit)资源训练 PaLM 2 等模型。而 DeepSeek 另辟蹊径,以 “低成本、高性能、全开源” 策略异军突起,数据显示,DeepSeek-V3 模型训练成本仅 557.6 万美元,仅使用 2048 块 H800 显卡,且耗时不到两个月,大大降低了行业准入门槛,为众多开发者和企业带来新的可能。

DeepSeek 的开源策略更是其得以广泛传播与应用的关键因素。与 ChatGPT、Claude 等闭源大模型不同,DeepSeek 选择全面开源,在过去一周内,连续在 GitHub 开源 8 个核心技术项目,涵盖计算加速、专家并行、数据处理等大模型基础设施技术栈的关键领域。例如,FlashMLA 作为为 Hopper GPU 优化的高效 MLA 解码内核,在 H800 SXM5 GPU 上,内存受限配置下实现 3000 GB/s 的吞吐量,计算受限配置下达 580 TFLOPS,显著提升模型处理速度,降低推理成本,且获得 MetaX、摩尔线程、海光 DCU 等国产 GPU 厂商广泛支持。开源社区的蓬勃发展,吸引全球开发者参与模型优化与应用开发,形成技术迭代的良性循环,不仅加速了模型的升级优化,还极大地降低了中小企业应用 AI 的门槛,推动 AI 应用在细分场景的定制化开发,让人工智能不再遥不可及,真正走向大众。

从市场应用角度,DeepSeek 已在政务、金融、医疗、教育等多领域崭露头角。在政务管理中,它通过数据挖掘与智能分析,助力舆情监测与风险防控,优化政府决策流程;金融领域,用于高频交易分析与合规审查,提升金融机构运营效率与风险管控能力;医疗行业借助定制化模型,在专业数据稀缺情况下实现精准诊断辅助;教育领域则能根据学生个性化需求,提供针对性学习方案。此外,在智能交通与汽车领域,虽对自动驾驶直接影响有限,但在智能座舱人机交互、个性化服务方面潜力巨大,推动车企业务数字化转型。这些广泛且深入的应用,表明 DeepSeek 正切实改变着各行业的运作模式,融入大众的工作与生活之中。

尽管 DeepSeek 在数据统计层面呈现下载量下滑趋势,但从实际使用场景、技术革新、开源生态及市场应用等多维度综合考量,它并未 “跌落神坛”,而是凭借自身技术优势与开源策略,以更隐蔽、更深入的方式融入到各行各业和大众生活里,持续发挥着强大的影响力,为 AI 行业的发展注入源源不断的活力。随着技术的持续进步与应用场景的不断拓展,DeepSeek 有望在未来创造更多可能,推动 AI 技术进一步普及与创新。

为您推荐