AI与科技出海生态平台

AMD推出大杀器MI300X: 可运行多达800亿参数模型

6月13日,AMD在“AMD数据中心与人工智能技术首映会”上宣布,即将推出迄今为止最先进的人工智能GPU MI300X芯片,该芯片可以加快ChatGPT和其他聊天机器人使用的生成式人工智能的处理速度,并可以使用高达192GB的内存。MI300X的HBM密度高达英伟达AI芯片H100的2.4倍,HBM带宽高达H100的1.6倍,可以运行的模型比H100的更大。另外,AMD发布的其他新品已吸引硅谷巨头:亚马逊云运用四代EPYC 处理器打造实例;微软Azure推出搭载Genoa-X CPU的新实例;Meta计划使用AMD的新云芯片Bergamo。

相比之下,英伟达的H100芯片只支持120GB内存,市场普遍认为这意味着英伟达在这一新兴市场的主导地位或将受到挑战MI300X将于今年晚些时候开始向部分客户发货。AMD CEO苏姿丰还介绍到,MI300X可以支持400亿个参数的Hugging Face AI 模型运行,并演示了让这个LLM写一首关于旧金山的诗。这是全球首次在单个GPU上运行这么大的模型。单个MI300X可以运行一个参数多达800亿的模型。

虽然投资者期待AMD能够在AI芯片领域与英伟达展开竞争,但分析师们并未跟风吹一波AMD的这一强大武器,而是很理智地指出,AMD想要在人工智能芯片领域挑战英伟达的行业龙头地位,还有很长的路要走,仅凭这款芯片并不能做到。

花旗芯片分析师 Chris Danely 在最新报告中表示,AMD的MI300芯片似乎在设计上取得了巨大的胜利,但考虑到性能的局限性和失败的历史,他对图形/CPU IC的可持续性表示怀疑,“虽然我们预计AMD将继续从英特尔那里获得市场份额,但其新的 Genoa 产品的增长速度似乎比预期的要慢”。

当日,Cambrian-AI Research LLC 创始人兼首席分析师 Karl Freund 也在福布斯上发文表示,虽然AMD新推出的这款芯片激起了市场各方的巨大兴趣,但与英伟达的H100芯片相比,MI300X面临着一些挑战,主要有以下四个方面:

第一,英伟达的H100今天开始全面出货;到目前为止,英伟达仍拥有AI行业最大的软件和研究人员生态系统。

第二,虽然MI300X芯片提供了192GB内存,但英伟达在这一点上将很快迎头赶上,甚至在相同的时间框架内可能实现反超,所以这并不是一个很大的优势。并且 MI300X 的售价将会十分高昂,与英伟达的H100相比不会有明显的成本优势。

第三才是真正的关键:MI300没有像H100那样的Transformer Engine(一个用于在英伟达GPU上加速Transformer模型的库),H100可以将大语言模型(LLM)的性能提高两倍。如果用几千个(英伟达的)GPU来训练一个新模型需要一年的时间,那么用AMD的硬件来训练可能需要再等2-3年,或者投入3倍的GPU来解决问题。

最后,AMD还尚未披露任何基准测试。但是训练和运行LLM时的性能取决于系统设计和GPU,所以很期待今年晚些时候能够看到一些与同业竞争对手的比较。

不过,Freund 也补充称,MI300X可能会成为英伟达GH200 Grace Hopper超级芯片的替代选择。像OpenAI和微软这样的公司需要有这样的替代品,虽然他怀疑AMD会给这些公司一个无法拒绝的报价,但AMD不会从英伟达那里抢走很多市场份额。

今年以来,AMD的股价已经上涨了94%,昨日美股收跌3.61%,而同行英伟达则收涨3.90%,市值首次收于1万亿美元关口上方。

赞(12)
未经允许不得转载:维端网 » AMD推出大杀器MI300X: 可运行多达800亿参数模型
分享到

AI与科技出海生态平台

联系我们关于维端

登录

找回密码

注册