如何看待AMD发布Instinct MI300X GPU芯片?是否在大模型时代威胁amd nvidiaa地位?

2023-06-15 16:38
来源:
黄海峰看科技
今年以来,随着ChatGPT火得一塌糊涂,生成式AI和大型语言模型得到国内外众多厂商追捧,也将数据中心推向极限。据预测,到2027年,数据中心AI加速器潜在市场规模将增长5倍,从今年300亿美元以超过50%复合年增长率增长到2027年1500亿美元。
在用于机器学习的GPU市场,英伟达以95%的份额独霸江山。有看头的是,位居千年老二的AMD并没有坐以待毙,而是发起猛烈攻势,怎么回事?
6月14日,AMD在旧金山举办了新品发布会,带来多款重磅产品,备受期待的便是专为AI大模型打造的GPU加速器MI300X,其HBM密度为英伟达H100的2.4倍,带宽为英伟达H100的1.6倍,预计将于四季度全面量产。
大家好奇的是,AMD本次发布会都为业界带来哪些产品?AMD向英伟达下达的这份战书将对市场产生怎样的影响?欲知详情,我们一起探究下。
01
超级芯片MI300X能写诗
在长达2小时的发布会上,AMD CEO苏姿丰率先公布了Instinct MI300A。作为全球首个为AI和HPC(高性能计算)打造的APU加速器,MI300A拥有多达13颗小芯片,总共包含1460亿个晶体管,配置128GB的HBM3内存。同时,相比前代MI250,MI300A性能提高八倍,效率提高五倍。
不过MI300A只是开胃小菜,因为这次最受瞩目的则是一款纯GPU产品,即Instinct MI300X,其内存达到192GB,内存带宽为5.2TB/s,Infinity Fabric带宽为896GB/s,晶体管达到1530亿个。
据苏姿丰介绍,相比英伟达H100芯片,MI300X提供的HBM密度最高是H100的2.4倍,HBM带宽则是H100的1.6倍。这也就意味着,以后生成式AI模型不再需要数目庞大的GPU,可以为客户节省不少成本。
值得一提的是,在发布会现场,苏姿丰演示了在单个MI300X GPU上运行拥有400亿个参数的Falcon-40B大型语言模型,让它实时写作了一首关于举办地旧金山的诗歌。
据苏姿丰在会上透露,AMD主要客户将在第三季度开始试用MI300X,第四季度开始全面生产。同时,Instinct MI300A现在正在向客户发售。
除了上述两款加速器,AMD还公布了能将8个MI300X加速器连接在一个标准系统中的AMD Infinity架构,分享了AMD第四代EPYC Genoa处理器在云计算实例方面的进展,展示了最新缓存堆叠X芯片Genoa-X等。
将人工智能视为最大、最具战略意义的长期增长机会的AMD,能否借助本次发布的多款新品,抓住新一波的AI浪潮,我们对市场的反馈拭目以待!
02
后记:呼吁更多竞争者加入
苏姿丰作为AMD的灵魂人物,江湖人称“苏妈”,她在2014年临危受命掌管AMD,用时9年,将AMD此前仅有2美元的股价翻了9倍。根据最新数据显示,今年年初以来,AMD市值大涨超过90%,从近五年来看,AMD市值大涨超过660%。
但,即使苏妈亲自披挂上阵,但AMD股价上涨的传奇好像并没有继续上演。据笔者了解,AMD当天股价下跌超3.6%,英伟达股价却上涨近4%,收盘后市值再次迈入万亿元俱乐部。这是为何?
一方面,AMD此次没有公布两款MI300新芯片的价格,且没有公开有哪些大客户将使用上述芯片,两种不确定的叠加,没有给足市场信心。另一方面,即使AMD已经在某些硬件层面部分超越了英伟达,但英伟达基于其CUDA软件平台、解决方案等优势占据大部分市场,短期难以撼动。
虽然AMD目前与英伟达还有较大差距,但显然AMD并不甘于做行业“老二”位置,而苏姿丰过往采访中更是丝毫不掩饰其要让AMD超越英伟达的野心。在苏姿丰领导下,AMD近年研发支出增加四倍,达到50亿美元,相当于她上任时AMD的全部收入。
良性公平的市场竞争,有利整个芯片产业发展。我们欢迎更多像AMD这样的企业加入到GPU和芯片研发中来,例如国内的海思、平头哥、寒武纪等企业正在快速崛起,未来随着这些企业气候渐成,将能对英伟达的价格形成有效制约。
↓ ↓ ↓
《海峰看科技》侧重科技通信技术和产业分析,定位解读延伸,深度思考。
《黄海峰的通信生活》侧重科技通信资讯和数码产品体验,定位快速、有趣。
往期推荐

给世界一个更优选择!直击华为云首款全栈自主数据库GaussDB

5G如何再创新高峰?夯实泛在千兆,迈向万兆大陆!

定义三大价值标准:联想树起商用PC新旗帜

5G投资358亿!联通高层业绩会五大金句需关注

强大、可靠、绿色样样都要,超聚变构筑运营商算力建设利器!

直击2023中国品牌博览会,中国电信以科技创新绽放数字生活之美

从2023 PT展看爱立信,如何携手运营商打好“5G”下半场?

如何做大5.5G产业?李福昌:中国联通三维度推进5.5G实践 返回搜狐,查看更多
黄海峰,独立科技评论员,多次接受央视、环球时报、科技日报采访。
ICT行业杂志前副主编,从业十多年,聚焦5G、手机、IoT、光、云、AI、互联网等。
每年与超100位科技行业企业CXO/VP/总监面对面交流。
多个年度《中国信息通信行业发展报告》特约撰稿人。
曾获十大通信行业自媒体称号、IT科技十佳创作者。
覆盖今日头条、百度、新华、人民、搜狐、凤凰、新浪、网易、知乎、腾讯、一点、微博等。
责任编辑:
AMD首席执行官苏姿丰Lisa Su手拿新产品随着ChatGPT热潮让英伟达A100/V100 AI芯片成为市场上的“抢手货”,如今AMD(超微半导体)公司希望通过新的 AI 处理器产品分下这块“蛋糕”。钛媒体App 6月14日消息,今晨美国旧金山举行的新品活动上,AMD发布一系列数据中心和 AI 芯片产品。其中包括全新第4代AMD EPYC服务器CPU处理器Genoa;专为云计算和数据中心计算、拥有128核的第四代霄龙vCPU 处理器Bergamo;全新专为生成式 AI 打造、拥有1530亿个晶体管的 AI 加速芯片Instinct MI300X;拥有1460亿个晶体管的Instinct MI300A,以及移动端AMD Ryzen PRO 7040系列移动处理器与Ryzen AI,并且宣布亚马逊AWS、甲骨文Oracle等云计算厂商合作部署。AMD公司董事长兼CEO 苏姿丰(Lisa Su)表示,今天,AMD在数据中心战略上又向前迈出了重要一步,因为推出第四代霄龙处理器系列,为云和技术计算工作负载提供了新的领先解决方案,并宣布与最大的云计算提供商的新公共实例和部署。苏姿丰强调,“AI 是塑造下一代计算的决定性技术,也是AMD最大的战略增长机会。我们专注于加速 AMD AI 平台在数据中心的大规模部署,计划于今年晚些时候推出Instinct MI300 加速器,以及为硬件优化的企业级 AI 软件生态不断壮大。”AMD公司成立于1969年,与英伟达、英特尔并称全球三大服务器芯片巨头,也是全球第五大 IC 设计巨头,最新市值为2050亿美元。不过目前,英伟达在 AI 加速芯片市场占据主导地位,市场份额超过80%;另外,英特尔在服务器CPU市场份额在70%左右。如今,AMD公司希望通过新的数据中心和服务器产品组合,对抗英特尔和英伟达。具体来说,MI300系列 AI加速芯片是今年1月CES展会上披露的产品阵容的一部分。在ChatGPT风靡全球下,AMD正加速满足市场对 AI 大模型计算爆发中的需求。苏姿丰表示,生成式AI和大语言模型(LLM)需要电脑的算力和内存大幅提高。预计今年,数据中心AI加速器的市场将达到300亿美元左右,到2027年将超过1500亿美元,复合年增长率超过50%。这意味着未来四年的CAGR将会超过50%。“我们仍处在 AI 生命周期的非常早期阶段。”产品方面,AMD Instinct MI300X是一款对标英伟达H100的产品,采用基于CDNA 3架构的8个GPU Chiplet(芯粒),以及另外4个I/O 内存Chiplet组成的芯片,没有集成CPU内核,晶体管数量达到1530亿个,客户可以在单个MI300X芯片上轻松跑出400亿参数的大模型。而且AMD还推出Instinct平台,将八个MI300X加速器整合到一个行业标准设计中,为AI推理和训练提供解决方案。苏姿丰表示,MI300X 的内存密度是英伟达Nvidia H100“Hopper”GPU的2.4倍,内存带宽是1.6倍,但她没提到性能提升情况。AMD透露,MI300X将从今年第三季度开始向客户提供样品。同时,AMD还推出Instinct MI300A。这是全球首款面向AI和HPC的APU,采用异构CPU+GPU计算,集成24个Zen 4 内核、CDNA3 GPU内核,拥有1460个晶体管。与MI250相比,MI300A性能提高了8倍,效率提升5倍。AMD称MI300A现已向客户提供样品。此外,AMD还更新了第4代AMD EPYC(霄龙)CPU处理器并公布了路线图,其中包括转为数据中心一般更新的Genoa;专为云原生计算打造、代号为Bergamo的AMD EPYC 97X4 处理器,以及代号为Genoa-X的第二代 EPYC 3D V-Cache CPU,以及在下半年发售的Siena。其中,AMD EPYC Genoa在云工作负载中的性能是英特尔第四代可扩展至强处理器的1.8 倍,在企业工作负载中的速度是英特尔至强处理器的1.9 倍。苏姿丰谈到,绝大多数人工智能都在 CPU 上运行,AMD产品在性能方面比英特尔至强8490H具有绝对领先优势,性能高出1.9倍,效率也同样是竞争对手的1.8 倍。另一款AMD EPYC Bergamo系列CPU基于台积电5nm工艺,采用最新Zen 4C内核,封装了总共820亿个晶体管,内核数量高达128个,专为需要最多内核的密度优化服务器而设计,直接对标NVIDIA Grace CPU、即将到2024年上半年推出的英特尔Sierra Forest等。在各种云原生工作负载中,相比英特尔至强8490H CPU,AMD EPYC 9754 “Bergamo”芯片拥有高达2.6倍的性能提升。而在移动和台式端,AMD发布了锐龙Pro 7040系列处理器,基于4nm工艺,配备多达8个Zen 4内核和 RDNA 3 集成显卡。与x86竞品相比,锐龙7 PRO 7840U 处理器性能平均提高17%;与苹果M2 Pro 处理器相比CPU性能提高18%;同时锐龙Pro系列还内置了锐龙AI,也是世界上第一个在x86上集成的AI引擎技术。从本月开始,惠普和联想等厂商会发售锐龙PRO处理器产品。除了硬件,AMD还披露了其最新 AI 软件生态系统开发体系理念——Open(software approach)、Proven(AI capability)和Ready(support for AI models),将开放、成熟和就绪的AI软件平台推向市场。AMD现场展示了用于数据中心加速、一套完整软件栈工具AMD ROCm系统,包括为PyTorch 2.0提供即时“零日”支持,AI 模型“开箱即用”等。与英伟达独有的CUDA生态不同,AMD不仅兼容CUDA,而且要做一个开放平台并完善生态。软件这部分由原赛灵思CEO、现AMD总裁Victor Peng负责。同时赛灵思方面此前透露,AMD已经把SoC,FPGA捆绑在一起,提供更高效的生产线。Pensando DPU路线图(来源:AMD)值得注意的是,AMD在此次会议上还首次公布其全新DPU(数据处理器规划,这是他们通过去年10月收购Pensando所获得的技术,公布AMD P4 DPU架构,称是世界上最智能的DPU。而其代号为“Giglio”的下一代 DPU预计将于2023年底上市,基于5nm制程工艺的800G DPU Salina将于2024年上市。(本文首发钛媒体App,作者|林志佳“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”
挑战英伟达 AMD推出AI芯片MI300X 亚马逊与Meta将“尝鲜”
2023-06-14 22:00:38来源:
智通财经
分享到:   CPU与GPU双产业巨头、英伟达竞争对手之一AMD于美东时间周二展示了其即将推出的人工智能处理器系列产品,旨在帮助数据中心处理大量人工智能数据流量,并挑战英伟达(NVDA.US)在这个新兴市场的强势主导地位。   AMD周二在旧金山的新品发布会中表示,该公司推出的Instinct MI300系列将包括一个加速器,可以加快ChatGPT和其他聊天机器人等生成式人工智能产品背后的数据处理速度。这款名为MI300X的产品是最早于今年1月在国际消费电子展(CES)上公布的产品系列阵容的其中一部分内容。   AMD全新推出的GPU专用MI300,即MI300X,是针对大语言模型(LLM)的优化版,拥有192GB的HBM3内存、5.2TB/秒的带宽和 896GB/秒的Infinity Fabric 带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。AMD表示,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。AMD未披露具体的价格。   苏姿丰介绍,MI300X可以支持400亿个参数的Hugging Face AI 模型运行,并演示了让这个LLM写一首关于旧金山的诗。这是全球首次在单个GPU上运行这么大的模型,单个MI300X可以运行一个参数多达800亿的模型。AMD首席执行官苏姿丰表示,随着模型规模越来越大,就需要多个GPU来运行最新的大型语言模型,而随着AMD芯片内存的增加,开发人员将不再需要那么多数量的GPU,意味着可以节约成本。   与芯片行业的许多公司一样,AMD正在竞相满足其客户对人工智能计算日益增长的需求。依赖于大语言模型(LLM)的流行服务——即处理大量数据以回答使用者查询的问题和生成图像的算法,正在将数据中心算力推向极限。   到目前为止,英伟达在提供处理这些工作负载所需的硬件技术方面具有非常大的优势,尤其是英伟达推出的A100/H100 GPU芯片极度适合AI训练和运行机器学习软件,这也是支持Open AI旗下火爆全球的ChatGPT的最关键底层硬件。   AMD首席执行官苏姿丰(Lisa Su)在发布会上表示:“我们仍处于人工智能生命周期的非常非常早期的阶段。”“毫无疑问,在可预见的未来,人工智能将成为硅消费的关键驱动力。”   苏姿丰在发布会中预测,到2027年,数据中心人工智能加速器(AI accelerators )的潜在市场总额预计将增长五倍,达到1500亿美元以上。   市场调研机构Technavio 此前公布的一份最新研报显示,范围涵盖GPU、CPU、FPGA、ASIC的人工智能 (AI) 用途芯片市场规模预计在2022-2027年期间以高达惊人的61.51%的复合年增长率爆炸式增长,在2027年达到大约2105亿美元的市场规模。   Technavio表示,市场规模扩张取决于几个因素,其中包括数据中心越来越多地采用人工智能芯片,企业越来越多地关注智能手机的人工智能芯片开发,以及自动驾驶汽车中人工智能芯片的开发。   投资者们似乎反应冷淡,发布会未能促进AMD股价继续上行   尽管如此,这场关于AI芯片的演讲并没有让投资者眼花缭乱,他们此前已经对人工智能市场规模的扩张速度抱有极高的期望。截至周一收盘,AMD股价今年累计上涨接近95%,但在周二的发布会结束后,截至周二美股收盘,AMD股价跌幅超过3%,其竞争对手英伟达股价反而涨近4%。今年迄今为止,AMD竞争对手英伟达的涨幅则高达惊人的186%。   值得注意的是,英伟达的市场领先地位不仅来自其芯片硬件产品,还来自十多年来为人工智能领域的研究人员提供各种软件工具,并成功预测在需要数年时间设计的芯片中需要什么软件以及哪些类型的软件,并且构成了完整的“英伟达AI硬件+软件生态系统”。   AMD周二更新了其Rocm软件,该软件与英伟达的Cuda软件平台竞争。AMD总裁表示,在构建强大的软件堆栈方面,AMD取得巨大进步,ROCm软件栈可与模型、库、框架和工具的开放生态系统配合使用。   来自研究机构Moor Insights & Strategy的分析师Anshel Sag表示:“即使AMD在硬件性能方面具有绝对的竞争力,但人们似乎仍不相信AMD的软件解决方案生态环境能与英伟达相媲美。”   AMD新品已获科技巨头亚马逊和Meta青睐   据了解,美国科技巨头亚马逊(AMZN.US)旗下AWS和Facebook母公司Meta Platforms(META.US)的高管与苏姿丰在台上讨论了在他们的数据中心使用全新的AMD处理器。这家芯片巨头还宣布,其最新版本的Epyc服务器处理器和一款名为Bergamo的新变体版本已经全面上市,该全新版本旨在用于云计算。   AMD表示,已开始向Meta等公司大量出货一款名为Bergamo的通用中央处理器芯片。Facebook母公司Meta负责计算基础设施的Alexis Black Bjorlin表示,该公司采用了Bergamo芯片,该芯片针对的是AMD数据中心业务的另一部分,该业务主要面向云计算提供商和其他大型芯片买家。   帮助创建人工智能开源软件的Meta副总裁Soumith Chintala表示,他与AMD密切合作,使得人工智能开发人员更容易使用更加自由的工具,从人工智能芯片的“单一主导供应商”转换到AMD提供的其他产品。Chintala在会上表示:“你实际上不必做很多工作——或者在很多情境下毫不费力,但是能够实现从一个平台到另一个平台。”   此外,随着第四代EPYC处理器AMD Genoa-X的推出,另一科技巨头微软表示,其Azure云平台正在为芯片提供新的Hbv4和HX云实例,用于技术层面的计算。   AMD表示,MI300X加速器基于AMD的CDNA 3技术,使用高达192GB的内存来处理大语言模型和生成式人工智能的工作负载。AMD强调,主要客户将在第三季开始试用该技术,第四季开始有望实现全面生产。另一个型号,Instinct MI300A,现在正在向客户推出。苏姿丰演示中介绍,AMD的Instinct MI300A号称全球首款针对AI和高性能计算(HPC)的加速处理器(APU)加速器。在13个小芯片中遍布1460亿个晶体管。

我要回帖

更多关于 amd nvidia 的文章