黄仁勋首度回应DeepSeek冲击:英伟达暴跌系投资者误解未来算力仍至关重要
财联社 2 月 22 日讯(编辑 刘蕊)今年 1 月,中国人工智能初创公司 DeepSeek 发布的开源推理模型 R1 在海外引起巨大反响,并引发美股 "AI 宠儿 " 英伟达单日市值一度蒸发近 6000 亿美元。
而近日,英伟达首席执行官黄仁勋首度对此事做出了公开回应。他称,DeepSeep-R1 推理模型 " 令人印象深刻 ",但未来的人工智能模型仍将依赖英伟达的计算能力,此前市场对英伟达股票的抛售是基于误解。
DeepSeek 不意味着算力需求减弱
今年 1 月末,DeepSeek 的横空出世一度令美股科技股遭受重创。在这其中,英伟达首当其冲。由于 DeepSeek 在模型构建和训练中使用的芯片性能和成本都较低,这让投资者一度担心未来大型科技公司可能会缩减对英伟达更高端芯片产品的需求。
美东时间 1 月 27 日,英伟达股价一度暴跌 17%,市值一夜蒸发超 6000 亿美元。不过自那之后,英伟达股价在接下来近一个月里震荡回升,目前已经收复了大部分失地。
近日,在一场线上活动中,英伟达 CEO 黄仁勋通过预录制的采访视频表示:投资者们误将 DeepSeek 的进步视为 AI 公司不再需要高强度算力的信号,而实际并非如此
" 我认为市场当时对 R1 的反应是‘哦,我的天哪,人工智能结束了!它从天而降,我们不再需要进行任何计算了!’ " 黄仁勋表示," 而事实恰恰相反。"
" 从投资者的角度来看,他们有一种思维模式,他们认为世界就是先进行预训练,然后进行推理,而推理就是向 AI 提问并立即得到答案。" 黄仁勋说," 我不知道这种误解是谁造成的,但显然,这种观念是错误的。"
黄仁勋表示,尽管预训练仍然重要,但‘后训练’(post-training)才是 " 智能最重要的部分 ",也是 " 学习解决问题的关键环节 "。教会人工智能模型更好地" 推理 " 是科技行业的下一个扩展前沿,仍然依赖于巨大的计算能力。
今年 1 月,英伟达公司在声明中也表达了类似的观点:" 推理需要大量的英伟达 GPU 和高性能的网络。我们现在掌握三种缩放定律(Scaling Law):预训练和后训练,它们会继续,还有新的测试时间缩放。"
DeepSeek 为 AI 带来新活力
在采访中,黄仁勋还特别称赞 DeepSeek 的创新为人工智能领域注入了新的活力," 这太令人兴奋了。随着 R1 的开源,世界各地的热情高涨,这太不可思议了。"
英伟达目前仍控制着 AI 市场的主导份额,一直是全球 AI 热潮的最大受益者之一。近日,摩根大通美国股票研究部分析师在报告中表示,DeepSeek 可能会对英伟达产生积极影响。
小摩分析师表示,DeepSeek 展示的成本效益和 AI 创新将带来对更高性能 GPU 的 " 强劲需求 " 。因此,英伟达在先进 AI 芯片方面的领导地位 " 应该能够让他们解锁新的用例 "。
(财联社 刘蕊)