英伟达筑高围墙,市值猛追苹果,AI芯片战事升级

本报记者(chinatimes.net.cn)石飞跃卢晓报道。

“2.21万亿美元”,这是英伟达在当地时间3月18日收盘时的最新市值。目前这一市值位居全球第三,仅次于微软的3.1万亿美元和苹果的2.68万亿美元。在股市屡创新高后,英伟达的下一步动作如何是投资者和业界关注的焦点。

3月19日凌晨,NVIDIA在2024年GUP技术大会(GTC)上回答了这个问题。该公司推出的新一代AI GPU B200的推理性能与上一代H100相比最高可提高30倍,这意味着NVIDIA再次拉大了与其他芯片公司的距离。

与此同时,NVIDIA内部的生态护城河被挖得越来越深,前不久突然增加了CUDA限制条款。业内人士认为,这是NVIDIA在市场上“垄断”地位的体现。虽然目前对其他芯片公司的影响并不大,但也对他们起到了警示作用。

“地表最强”AI芯片拉大差距

英伟达首席执行官黄仁勋再次穿着皮衣亮相,并正式发布了基于布莱克威尔架构的最新一代人工智能GPU。这种芯片被命名为B200,计划于今年晚些时候推出。电脑开机主板温度过高

上一代GPU“王者”是2022年发布的H100,这是许多AI公司在去年这波大型号中争夺的芯片之一。与H100相比,B200的整体性能有了很大的提高。其AI性能为每秒2万亿次浮点运算,H100为每秒4万亿次浮点运算,约为其5倍,推理性能最高可提升30倍,但其功耗和成本降至上一代的1/25。

“过去,计算能力的性能平均每十年提高100倍,但在过去的8年里,我们的性能提高了1000倍。”黄仁勋说。

黄仁勋没有公布B200及其相关产品的价格。他只说亚马逊、谷歌、微软和甲骨文都计划在其云服务产品中装配NVL72机架,但没有公布这些公司的采购数量。他只是透露,亚马逊AWS曾计划购买一个由2万个GB200芯片组成的服务器集群,该集群可以部署一个具有27万亿个参数的模型。

资深通信工程师和战略规划专家袁波告诉《华夏时报》,B200是目前世界上最强大的GPU,这将有助于NVIDIA进一步确立其在人工智能计算硬件领域的主导地位。

一方面,这款芯片在一定程度上满足了人工智能快速发展时代对计算能力和降低能耗的需求。“无论是ChatGPT还是黑脸田鸡,近两年大规模模型业务的快速发展反映出人工智能的应用场景正从专业领域变得越来越普及,以计算能力为核心技术的面向公众的消费和娱乐技术的蓬勃发展将成为未来信息产业的热点。AI将给公众带来对计算能力资源需求的急剧增加,但与此同时,降低计算带来的巨大能耗的需求也越来越迫切。”袁波说。

另一方面,袁波指出B200在计算能力和能源消耗方面表现出色,再次扩大了公司与其竞争对手之间的差距。“无论是英伟达的老对手AMD、英特尔,还是AI芯片新贵谷歌、亚马逊和微软,都被英伟达进一步拉大了差距。特别是对中国来说,计算基础设施能力的差距在短期内进一步扩大。风险。”

不过,随着芯片禁令进一步收紧,恐怕中国的AI公司暂时买不到这款芯片。在之前的业绩发布会上,NVIDIA高管表示,他们已经开始向中国提供不需要许可证的替代产品,但该公司在本次发布会上没有透露更多信息。《华夏时报》记者就此采访英伟达方面,截至发稿,对方未给出回复。

值得一提的是,英伟达正在扩大与中国汽车制造商的合作。英伟达表示,比亚迪将使用英伟达名为Drive Thor的下一代汽车芯片实现更高级别的自动驾驶和其他数字化功能。此外,许多头部电动汽车制造商展示了其基于英伟达最新技术的下一代人工智能车型,包括广汽埃安、、李和氪等许多中国车企。

在2024年GTC开始之前,NVIDIA的股价在当天上涨了4%以上,然后回落,最终收于884.55美元/股,上涨了0.7%。

限制性条款增加了生态壁垒

在AI芯片领域与其他企业差距不断拉大的同时,英伟达也在通过加大限制来加深其生态护城河。

不久前,一名德国工程师在安装CUDA 11.6时发现,NVIDIA在EULA的受限类别中添加了一项条款:“不得对使用SDK元素生成的输出进行反向工程、反编译或反汇编,以将此类输出工件转换为非NVIDIA平台”。

CUDA是NVIDIA于2006年推出的统一计算设计架构。英伟达现在在AI芯片市场的主导地位不仅取决于其出色的GPU,还取决于CUDA。CUDA使NVIDIA的GPU能够解决复杂的计算问题,并可以针对不同的任务对处理器进行编程。

过去,其他科技巨头试图打破英伟达的技术和市场壁垒。例如,苹果在2008年推出了针对CUDA的OpenCL,AMD在2016年推出了开放软件平台ROCm,但它们都未能打破CUDA的独特地位。

对于英伟达加入CUDA限制的原因,业内有各种猜测。他们认为此举是针对英特尔和AMD都参与的ZUDA项目(ZUDA主要是为了实现CUDA应用程序可以在AMD硬件中运行而无需修改源代码),或者它可能指向一些通过转换层使用CUDA代码的中国GPU制造商。

“在NVIDIA的GPU呈现全球垄断地位的前提下,其AI芯片的软件系统和开发者生态相对成熟。对于AI芯片市场的新玩家来说,他们可以兼容CUDA,这无疑是快速切入市场的一种方式。”袁波告诉记者,为了保持其垄断地位,NVIDIA需要在硬件芯片方面实现断崖式领先,同时还需要加深自身生态的粘性,并增加将生态软件迁移到其他硬件平台的难度。因此,CUDA的这一新规定实际上加深了NVIDIA的护城河,这也意味着AI芯片市场的竞争将越来越激烈。

目前,袁波指出,无论是英特尔、AMD还是国内的摩尔线程,CUDA的兼容模式主要是API接口兼容,因此受该条款影响较小。

Moorish Thread此前也发表声明称,Moorish Thread MUSA/MUSIFY不涉及NVIDIA EULA(最终用户许可协议)的相关规定,开发者可以放心使用。Moorish Thread还表示,MUSA是一个功能齐全的GPU高级计算统一系统架构,拥有所有知识产权,不依赖CUDA。QQ浏览器收藏夹位置

不过,在袁波看来,这也对国内AI芯片企业起到了警示作用,非常有必要尽快构建自己的软件生态,尤其是在一些特定的行业领域,通过构建自己的软件生态,行业可以加速对NVIDIA AI芯片的替代。

责任编辑:于总编辑:韩峰

手机办公软件

未经允许不得转载:科技让生活更美好 » 英伟达筑高围墙,市值猛追苹果,AI芯片战事升级