中国AI将再次突袭!DeepSeek R2参数曝光,1.2万亿模型竟比GPT-4便宜97%,使用华为Ascend芯片训练
中国AI公司DeepSeek即将推出下一代大模型DeepSeek R2,而最新泄露的规格显示,它可能成为GPT-4 Turbo和Gemini 2.0 Pro的强劲竞争对手。据传,该模型不仅在性能上比肩顶级AI,更在训练成本、算力利用率等方面实现惊人突破,甚至可能再次撼动全球AI市场格局。
DeepSeek R2 关键泄露信息(未官宣,仅供参考)
1. 性能对标GPT-4,但成本仅3%?
- 1.2万亿参数(R1的两倍),采用混合MoE架构(78B活跃参数)
- 推理成本仅GPT-4的2.7%(输入0.07/百万,输出0.07/百万token,输出0.27/百万token)
- 训练数据5.2PB,在C-Eval 2.0基准测试达89.7%(接近GPT-4水平)
- 视觉能力大幅提升(COCO数据集92.4%,超越多数多模态模型)
-
完全基于华为Ascend 910B训练,算力利用率82%
- 512 PetaFLOPS(FP16)算力集群,证明国产AI芯片已具备国际竞争力
- 摆脱美国供应链依赖,实现从芯片到模型的全栈自主可控
- 相比英伟达H800,华为Ascend在AI训练任务上展现更高性价比
-
或再次冲击全球AI市场
- DeepSeek R1曾让美股AI概念股单日蒸发数十亿美元
- 若R2如期发布,OpenAI、Google等巨头或被迫调整定价策略
- 中国企业字节跳动、腾讯、阿里或成首批商用客户
行业影响:中国AI的“垂直整合”战略成功?
DeepSeek R2 的泄露信息表明,中国AI公司正加速“去英伟达化”,转而采用华为Ascend等国产芯片进行大模型训练。这一趋势可能带来三大深远影响:
算力自主:减少对A100/H100的依赖,降低地缘政治风险
成本优势:训练/推理成本大幅下降,企业AI应用门槛降低
生态竞争:全球AI市场或从“软件竞赛”转向“芯片+模型”全栈竞争
分析师点评:
“如果数据属实,DeepSeek R2 可能成为首个在性能、成本、国产化率三个维度同时突破的AI模型,标志着中国AI产业进入新阶段。”
仍需谨慎看待的未解之谜
- 官方尚未确认参数,最终版本可能调整
- 华为Ascend芯片的实际训练稳定性待验证
- 国际市场接受度:能否挑战GPT-4的全球开发者生态?