Nvidia 在周一的一份声明中,对中国初创公司 DeepSeek 所推出的 R1 型号给予高度评价,称其为「卓越的人工智能进步」,即使这项突破导致 Nvidia 股价单日下跌 17%。Nvidia 发言人对《CNBC》表示:「DeepSeek 的工作展现了如何使用测试时间扩展(Test Time Scaling)技术,并利用完全符合出口管制规范的广泛可用型号与计算资源来创建新型号。」
重点文章
- 【农历年优惠】NordVPN 限时降价 70%
- iTunes 电影新春限时优惠 大量新电影史上最低价
- iOS 18.2.1 续航力实试 2 款 iPhone 型号获显着提升
- 【教学】非美国用户也可使用 Apple Intelligence
低成本突破
DeepSeek 上周发布的 R1 型号是一种开源推理型号,自称以不到 600 万美元的训练成本超越 OpenAI 等美国公司的最佳型号,远低於矽谷企业投入的数十亿美元。Nvidia 表示,DeepSeek 的突破或将增加对其高效能图形处理单元(GPU)的需求。
Nvidia 强调:「推理需要大量 NVIDIA GPUs 与高效能网络支持。我们现在有三条扩展法则:预训练、後训练,以及新的测试时间扩展。」此外,Nvidia 还明确指出,DeepSeek 所使用的 GPUs 完全符合出口规范,反驳了 Scale AI 执行长 Alexandr Wang 的质疑。
重构产业投资
DeepSeek 的突破引发外界对美国科技巨头资本投入效率的疑问。目前,Microsoft 和 Meta 等公司正计划在 2025 年分别投资 800 亿美元与 600 至 650 亿美元於人工智能基础设施,但分析师担忧,这些基於 Nvidia 晶片的投入是否能产生应有回报。
BofA Securities 分析师 Justin Post 在周一的一份报告中指出:「如果型号训练成本显着降低,广告、旅游与其他使用云端人工智能服务的应用公司将短期内获益,而长期来看,超大规模云端运算服务的相关收入与成本可能下滑。」
AI 扩展法则的新方向
自 2020 年 OpenAI 提出的「扩展法则」以来,大量计算与数据投入成为 AI 发展的主要驱动力。然而,自去年 11 月起,Nvidia 执行长黄仁勳与 OpenAI 执行长 Sam Altman 等人开始将焦点转向「测试时间扩展」。这项新概念主张,经完整训练的 AI 型号在进行预测或生成内容时,若能在使用额外运算资源进行「推理」时花费更多时间,其结果将更为准确。
相关文章
- DeepSeek 再放震撼弹 推出升级版 Janus-Pro 超越 DALL-E 3 及 Stable Diffusion
- DeepSeek 限制新用户注册 疑遭大规模恶意攻击
- 忧 DeepSeek 引爆降价潮?OpenAI 金主微软 CEO 看法
- DeepSeek 成为全球多地 App Store 下载榜 No.1