侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

就在今晚!AMD即将“放大招”,与英伟达正面争夺AI领地

AMD在2023年11月15日宣布,将于太平洋时间 2023年12月6日举办一场现场直播活动“Advancing AI”,推出下一代AMD Instinct MI300数据中心GPU加速器系列,欲在AI界与英伟达正面交锋!。

Advancing AI上,AMD董事长兼首席执行官苏姿丰博士将与AMD高管、人工智能生态系统合作伙伴和客户一起讨论 AMD 产品和软件如何重塑人工智能、自适应和高性能计算格局。

在AI领域,AMD最大的对手是英伟达(NVIDA),在ChatGPT-4掀起的人工智能热潮中,95%的人工智能大模型训练使用的是英伟达A100、H100等芯片,单价早早突破1万美金,成为AI圈里的硬通货。

据Omdia的报告显示,英伟达向Meta和微软提供了超过15万块H100 GPU,是最大的出货口,腾讯以5万块H100 GPU的购买量位列出货榜第三,与其并列的还有甲骨文、亚马逊以及谷歌。

“硬通货”是如何产生的

AI大模型的训练通常使用GPU而不是传统的CPU,得益于它在高性能计算、并行处理和能效等方面的优势。

GPU是为处理图形和图像计算而设计的,具有大量的小处理单元,能够同时执行多个相似的任务,这种并行性非常适合深度学习中涉及的大规模矩阵运算和张量运算。相比之下,CPU虽然也能够执行并行计算,但GPU的设计更为专业,因此在深度学习训练中通常更为高效。

在深度学习中,大规模的数据集需要被分割成小批量进行训练,GPU能够有效地处理这种数据并行性,同时计算多个样本的梯度,从而提高训练速度。

同时,GPU通常与比CPU相比而言,能够在相同时间内完成更多的计算工作,这对于深度学习中需要大量迭代和优化的训练过程非常重要。

当前主流AI厂商都进入了“千亿参数时代”,多采用了英伟达的GPU进行大模型训练,据统计,英伟达在售的用于大模型训练的GPU至少有9款型号,其中包括V100、A800、A100及H100为高性能GPU。

如此高的市占率,让英伟达GPU一度供不应求,价格自然水涨船高,也就演变成AI圈的硬通货。

面对这份几乎被独占的蛋糕,AMD奋起直追,逐渐缩小了与NVIDA的差距。

根据统计机构Jon Peddie Research的数据显示,截至2022年四季度,英伟达占据了独立GPU84%的市场份额,其中AI芯片的贡献不可忽视。而AMD紧随其后,占据着12%的市场份额。

AMD能分一杯羹吗?

今年6月,AMD在发布会上推出了配备192GB HBM内存的AI大模型专用GPU MI300X,其提供的内存容量和带宽分别是英伟达H100的2.4倍和1.6倍,为AMD赢得了与NVIDA竞争中的一些优势。

AMD的MI300X AI芯片是专为大模型训练设计的,更高的内存支持使大模型进行训练和推理变得更快、更高效;此外,为了适应云计算和超大规模用户的需求,AMD还推出了代号为Bergamo的全新EPYC服务器处理器,每个插槽最多包含128个内核,并针对各种容器化工。

在 11月15日的Microsoft Ignite上,AMD和Microsoft介绍了AMD产品,包括即将推出的AMD Instinct MI300X加速器、AMD EPYC CPU等。

AMD 人工智能高级副总裁 Vamsi Boppana 表示:“AMD 正在推动人工智能无处不在,从云端到企业和终端设备,所有这些都由我们的 CPU、GPU、加速器和人工智能引擎提供支持。AMD与Microsoft以及快速发展的软件和硬件合作伙伴生态系统一起,正在加速创新,通过不断扩展的软件功能,将人工智能的优势带入广泛的计算引擎产品组合中。”

而AMD新一代Instinct MI300系列加速器即将迎来发布,作为AMD用于对标英伟达的产品,Instinct MI300系列预计出货量在30万到40万区间,这主要受台积电产能短缺影响,否则数据将进一步增长。

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    机器人 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号