编程客栈() 8月9日消息:英伟达于周二发布了一款设计用于运行人工智能模型的新芯片,以抵挡包括 AMD、谷歌和亚马逊在内的竞争对手在 AI 硬件领域的挑战。
根据一些估算,目前英伟达在 AI 芯片市场占有超过 80% 的份额。该公司专攻图形处理单元(GPU),已成为支撑生成式AI 软件(如谷歌的 Bard 和编程客栈OpenAI 的 ChatGPT)的较大型 AI 模型的首选芯片。然而,由于科技巨头、云服务提供商和初创公司争夺 GPU 能力来开发自己的 AI 模型,英伟达的芯片供应短缺。
英伟达的新芯片 GH200 与公司目前最高端的 AI 芯片 H100 采用相同的 GPU。但WKUJat是,GH200 将该 GPU 与 141GB 的尖端内存以及 72 核的 ARM 中央处理器配对。
【资料图】
英伟达 CEO 黄仁勋在周二的一次演讲中表示:「我们给这个处理js器做了增强。」他还补充道:「这个处理器专为全球数据中心的规模而设计。」
据黄仁勋称,这款新芯片将于明年第二季度在英伟达的经销商处面市,并将在年底前供样品测试。英伟达代表拒绝透露价格。
通常,使用 AI 模型的过程分为训练和推理至少两个部分。
首先,使用大量数据对模型进行训练,这个过程可能需要数月时间,有时需要像英伟达的 H100 和 A100 芯片那样的成千上万个 GPU。然后,将模型用于软件中进行预测或生成内容,这个过程称为推理。与训练一样,推理需要大量的计算编程资源开销,并且每次软件运行时都需要大量的处理能力,比如生成文本或图像时。但与训练不同的是,推理几乎是持续进行的,而训练只有在需要更新模型时才需要进行。
黄仁勋表示:「你可以选择几乎任何大型语言模型放入其中,它将以令人惊讶的速度进行推理。大型语言模型的推理成本将大幅降低。」
英伟达的新 GH200 芯片专为推理而设计,因为它拥有更大的存储容量,可以将更大的 AI 模型放置在一个单独的系统上,英伟达副总裁 Ian Buck 在周二与分析师和记者的电话会议上表示。英伟达的 H100 内存容量为 80GB,而新的 GH200 为 141GB。英伟达还宣布推出了一个将两个 GH200 芯片结合成一台计算机的系统,以运行更大的模型。
Buck 说:「更大的存储容量使得模型可以常驻在单个 GPU 上,无需多个系统或多个 GPU 来运行。」
此次宣布正值英伟达的主要 GPU 竞争对手 AMD 最近发布了自己的 AI 芯片 MI300X,该芯片支持 192GB 的内存,被市场推广为适用于 AI 推理。包括谷歌和亚马逊在内的公司也正在设计自己的定制 AI 芯片用于推理。
关键词:
Copyright 2015-2022 大西洋地质网版权所有 备案号:沪ICP备2020036824号-2 联系邮箱: 562 66 29@qq.com