Google不只挑战OpenAI,还有英伟达

没有一场精心准备的发布会和海量宣传,凭借一篇博文和一份技术报告,全球大模式的格局可能又要被改变了。

当地时间12月6日,谷歌发布了三个版本的多模态大型机型Gemini(双子座),其中Gemini Ultra版本是最强大的机型GPT-4。谷歌首席执行官桑德尔·皮帅表示:“这是我们迄今为止最强大和最通用的模型,它领先于许多领先的基准。”

与新型号相比,在某些评价指标上与GPT-4相当甚至超过。Google培养这个大模特的过程和方法,可能会对整个大模特行业产生更大的影响。

作为谷歌自研的TPU v4和TPU v5e训练出来的大型模型,双子三个版本各有侧重,共同打破了之前的局限——在挑战OpenAI的同时,也可能动摇Nvidia在AI芯片上的垄断地位。

Gemini Ultra将谷歌放入大模型的第一梯队

谷歌称,Gemini Ultra在30个大模型能力测试中超过了之前最强的大模型GPT-4,在测试数学、历史、物理、法律等57个学科知识水平的MMLU测试中得分高达90%,成为第一个超过人类专家的模型。

双子座超已超过GPT-4在许多评价。左图为文字能力,右图为图片、视频、音频能力。图片来自谷歌。

谷歌CEO皮查伊用一个绘画视频展示了Gemini Ultra在不同维度的理解能力。当真人一边画一边和鸭子说话时,大模型能理解人类每一步在做什么,并准确说出。

比如把一只鸭子涂成蓝色,大模型会说“鸭子看起来是蓝色的”,然后在不接受新指令的情况下指出蓝色的鸭子并不常见。

flash的代码大全

不过,最强版本的双子座要到明年才会对外开放,其真实效果能否超越GPT-4还有待验证。sundar pichai在接受采访时解释说,更多的时间花在了严格的安全测试和发现其真正的功能上。在OpenAI训练GPT-4之后,花了半年时间做了类似的事情。

另外两个参数较小的较大模型已经以不同的形式发给了用户和开发者。Android开发者已经可以使用Gemini Nano在谷歌手机Pixel 8 Pro上开发应用;Pixel 8 Pro用户也可以用它来总结录制分钟等等。李焕昌 深圳市昌红科技股份有限公司

与此同时,谷歌将其聊天机器人Bard背后的型号从PaLM 2改为Gemini Pro。有开发者测试后发现,虽然效果比原版好,但与GPT-4相比差距很大,甚至有人说只是GPT-3.5的水平。

看着谷歌的最新成果,局外的人工智能领域和华尔街的专业人士都有些无动于衷。一些人工智能专家没有像看到GPT-4时那样感叹技术进步如此之大,而只是说谷歌回来了。在他们看来,谷歌早就应该这么做了。

这似乎解释了为什么谷歌股价在数小时后跌幅超过纳斯达克指数(0.74%)。然而,这比他们年初发布聊天机器人Bard时要好——那一次谷歌股价暴跌7.4%。

谷歌在人工智能的浪潮中一直处于独一无二的地位。是最早研究人工智能、技术实力最强的公司之一,拥有多项人工智能底层技术专利。在Google的技术报告中,有837个签约的Gemini贡献者,比OpenAI (770)整个公司都多。

它也是世界上最大的互联网公司,每天为数十亿人提供服务。它的Andriod可以直接影响全球30多亿人使用的手机。它比其他公司更有能力收集海量数据,不仅是文本,还有视频(YouTube)。

在基础设施层面,它已经开发了八年的人工智能芯片,并将很快拥有世界上最强的人工智能计算能力。OpenAI成立的原因之一是为了防止强大的人工智能落入谷歌手中——联合微软、英伟达和OpenAI,已经分阶段实现了这一目标。

继云计算之后,谷歌再次早起,赶了个晚集。然而,它现在有机会展示人工智能芯片的一种新选择:你可以在没有顶级GPU的情况下训练顶级的大模型。

用自研的TPU训练顶级大模,挑战英伟达。

在这次大会上,谷歌还带来了新的AI芯片TPU v5p,据说它的训练效果是上一代产品TPU v4的两倍。

只看单个芯片的性能,谷歌已经训练出Gemini Ultra的芯片TPU v4和TPU v5e,还不如英伟达的旗舰芯片H100,性能指标最多只有英伟达三年前发布的A100的60%。

而且只用单个芯片或者几十个芯片,很难训练出几十亿、上千亿甚至上万亿参数的人工智能模型。芯片研究机构Semianalys首席分析师迪伦·帕特尔(Dylan Patel)表示,去年OpenAI用25000个A100芯片训练GPT-4花了3个多月的时间。联想g400笔记本内存条型号

谷歌擅长将成千上万的AI芯片连接在一起,形成一个强大的计算平台。它在2015年开始开发自己的芯片,两年后发布了由TPU组建的训练集群(Pod),由庞大的内部业务(YouTube、Gmail、谷歌地图、Android)使用,一直迭代到现在。

“对于人工智能基础设施来说,系统能力比微架构更重要。”帕特尔说。谷歌没有公布多少TPU用于训练双子座,只是强调使用了不止一个集群,甚至不止一个数据中心。

一个TPU v4集群最多有4096个芯片。Patel估计双子星1.0版本用了14个TPV4集群,计算能力超过了GPT-4。基于TPU v5p集群的双子星座迭代版本(预训练预计今年年底完成)消耗的计算能力可能是GPT-4的5倍。

原本受芯片和训练簇之间数据传输的带宽,甚至宇宙射线(高能粒子穿透大气层,会影响芯片的性能)的影响,使用大量芯片训练单一模型会提高故障率,大大降低硬件利用率。但是谷歌可以依靠自己更强的基础软件研发能力,让每一个芯片尽可能的发挥作用。

谷歌在技术报告中介绍如何训练双子座时,提到了三个训练框架——张量流(XLA)、JAX和Pathways,都是谷歌开发的。

今年11月,腾讯机器学习平台部总监陶阳宇在一次技术交流会上透露,主流开源框架使用大量芯片训练大型模型时,硬件利用率仅为26%。在同等条件下,基于腾讯开发的AngelPTM框架训练模型,利用率可提升至53%。

虽然英伟达一直声称自己是一家软件公司,并投入了数千名工程师对CUDA等基础软件进行优化,但在大型机型领域,围绕TPU软硬件集成能力,谷歌可能更胜一筹。毕竟大模型的基础技术,比如变形金刚,也是来自谷歌。

谷歌新发布的TPU v5p的计算能力约为H100的一半,内存略高,带宽略低。单个集群的规模可以容纳8960个芯片。“直到最近,对于许多组织来说,训练大型模型并使用它们来提供大规模服务仍然过于复杂和昂贵。”谷歌云高管阿明·瓦达特(Amin Vahdat)表示,“有了TPU v5p,他们可以更具成本效益地利用人工智能。”

短时间内,谷歌在单个芯片的性能上超越英伟达可能不太现实。但是对于Goolge来说,通过软件和硬件的高度集成,做出一个可以替代Nvidia的解决方案,并且不再为此纳税,就是成功的。

当竞争对手买不到足够多的英伟达GPU时,谷歌通过自研带来的计算能力资源,不仅能使其更快地迭代大型模型,还有机会通过销售硬件获得更多收入。他们声称,Salesforce和Lightrick等客户已经在使用谷歌云的TPU v5p超级计算机来训练大型模型。

多年来,谷歌人工智能产品的研发和推出比小公司更多考虑了法律和舆论的风险,所以看起来极其保守,这也是很多谷歌员工认为OpenAI可以先推出ChatGPT的原因之一。

面对OpenAI和微软联盟的强大攻势,谷歌迅速行动,整合了习惯单打独斗的Google AI和DeepMind,并开始延迟最新研究成果的发布,试图弥补失去的优势——错过云计算时代的谷歌已经很难接受自己在人工智能时代的落后。

在Gemini的技术文档和公开演讲中,谷歌高管一再强调,目前只是1.0版本,明年还会发布更先进的大型机型。

今年早些时候,皮查伊被问及“在ChatGPT之前,你没有发布Bard,你错过了什么?”。他给了一个大公司的CEO一个标准答案。谷歌不是第一个制造搜索引擎或浏览器的公司。“有时候做第一很重要,有时候不重要。”他认为,只要不断改进产品,实现更好的功能,后来者就可以先到了。

现在,皮查伊接受采访时,问题变成了“你通过GPT-4学到了什么?”他的回答是:“现在远不是零和游戏,人工智能影响巨大。我们仍处于非常早期的阶段。前方有机会。”

未经允许不得转载:科技让生活更美好 » Google不只挑战OpenAI,还有英伟达