6月4日、PC関連の見本市としては世界最大規模を誇る「COMPUTEX TAIPEI 2024」が開幕した。実は基調講演や報道関係者向けのイベントは前日の6月3日から行われており、その“こけら落とし”がAMDのリサ・スーCEOの基調講演だった。

 本イベントにおいて数ある基調講演の中でも、スーCEOのものは大人気で、早々と登録を締め切っていた。また、当日はあまりに混雑していたがゆえに、事前に登録している人でも会場に入れなかったとの話も聞き及んでいる。

 この記事では、基調講演後に別会場で行われた報道関係者向けイベントの取材を交えつつ、基調講演で発表された内容をチェックしていく。

●「Socket AM5」は2027年まで継続 「Socket AM4」にも新製品

 今回のスーCEOによる基調講演のメインテーマは「AI(人工知能)」と「ハイパフォーマンスコンピューティング(HPC)」である。個人的にはゲーミングがテーマに入っていないのは残念に思うものの、時代はやはりAIなので仕方のない部分もある。

 しかしコンシューマー向けの内容が全くなかったわけではない。まず、デスクトップ向けCPUの動向を見てみよう。

Ryzen 9000シリーズが普及するかどうかは価格次第?

 Socket AM5向けのCPUの新製品として、「Ryzen 9000シリーズ」が発表された。今回はモデル名に「X」の付くハイパフォーマンス製品が4種類登場している。いずれも7月発売の予定だ。

 最上位モデルの「Ryzen 9 9950X」は16コア32スレッド構成で、動作クロックは最大5.7GHzで、L2/L3キャッシュは合計80MB、TDP(熱設計電力)は170Wというスペックだ。

 スペックだけを見ると、現行の「Ryzen 9 7950X」と同じように見えるが、CPUアーキテクチャが「Zen 5」に変更されており、Zen 4アーキテクチャの同CPUと比べて平均で16%性能が向上しているという。あまり触れられていないが、今回発表された製品には最低限のグラフィックス機能として、2コア構成のGPUコア「Radeon Graphics」も内蔵されている。

 発表ではボックス版(単体でのパッケージ製品)の想定販売価格は盛り込まれなかった。“良い感じ”の値段で出てくることに期待したい。

Socket AM4向けCPUも新登場

 今回の発表会では、Socket AM5が少なくとも2027年までは現役であることが明らかとなった。従来は「少なくとも2025年まで」と言っていたので、プラットフォームとしての寿命は2年間は延長されたことになる。

 また、スピーチではほぼ“一瞬”だったが、2016年から続く「Socket AM4」向けのCPUの新製品が登場することも明らかとなった。

 Socket AM4のCPU/APU(GPU統合型CPU)は、今までに145モデルを数えるという。「Socket AM5が登場した時点でSocket AM4は終わりかな?」とかつて思っていた筆者に、「2024年7月にSocket AM4の新型CPUが出るよ」と教えてあげたい気分だ。

 今でもSocket AM4の新CPUが出るとなると、いつSocket AM5に乗り換えればいいのか悩ましくなる面もある。しかし、古いプラットフォームを使っているユーザーに手頃なアップグレードパスを用意する姿勢は好印象だ。

●主役はモバイル向け! いきなり第3世代の「Ryzen AI 300シリーズ」

 今回の基調講演において多くの時間が割かれたのが、モバイル向け新型APU「Ryzen AI 300シリーズ」の紹介だ。

 本APUに統合された「第3世代NPU」は、ピーク時の推論処理性能が50TOPS(毎秒50兆回)で、Microsoftが定めた「Copilot+ PC(新しいAI PC)」の要件を満たしている。そのこともあってか、Ryzen AI 300シリーズのコーナーのゲストの1人目はMicrosoftのパバン・ダブルリ氏(Windows/デバイス担当コーポレートバイスプレジデント)だった。

 Ryzen AI 300シリーズは、x86アーキテクチャのCPU/APUとしては現状で唯一の新しいAI PCの要件を満たせる存在である。ある意味で、Microsoftからの“後押し”を受けたともいえるだろう。

 その後、HP、Lenovo、ASUSTeK Computerが順に登壇。各社共にRyzen AI 300シリーズへの期待を語っていた。

なぜいきなり「300」なのか?

 今回のRyzen AI 300シリーズではモデル名の付け方が大きく変わっており、新ルールでは数字の百の位は「世代」を表す。つまり、今回出てきた製品は「第3世代のRyzen AIプロセッサ」ということになる。

 ちょっと待ってほしい。「Ryzen AIプロセッサ」は、今回“初めて”登場した製品ブランドだ。初めてなのに、なぜ“第3世代”なのか……?

 それは「Ryzen 7040シリーズ」を第1世代、「Ryzen 8040シリーズ」を第2世代のRyzen AIプロセッサと見なして、今回の新製品を「第3世代」としたようだ。

 今回の新ルールは「今後のAI PC時代を見据えた取り組み」だという。すぐに再度ルールを変えることなんてないですよね?(と突っ込みはいれたくなる)

5社以上から100モデル以上の搭載PCが登場見込み

 Ryzen AI 300シリーズは、新しい「Zen 5アーキテクチャ」のCPUコアを最大12基24スレッド、「RDNA 3.5アーキテクチャ」のGPUコアを最大16基、そして「XDNA 2アーキテクチャ」のNPUを搭載している。

 NPUのピーク時の性能は先述の通りだが、それ以外にも高い精度の演算を高速化する工夫が盛り込まれている。

 PCやスマートフォン/タブレットのCPUなどに統合されているNPUでは、通常「INT8(8bit整数)」における演算のピークパフォーマンスを公表している。先述の50TOPSも、INT8演算時のピークパフォーマンスだ。INT8演算は確かに高速なのだが、その分精度が低くなってしまう。オンデバイスAIにおける推論はINT8でも十分という意見もあるが、将来のことを考えるとより、精度の高い演算も高速に行える方が望ましい。

 そこでRyzen AI 300シリーズのNPUでは「Block Float FP16」という演算方法をサポートしている。簡単にいうと、精度の高い「FP16(16bit浮動小数点)」の演算が必要だと判断した場合のみFP16で演算させるというものだ。普段は高速なINT8演算をさせつつ、精度が必要な場面に限りFP16演算をさせることで「速度」と「精度」の両立を図る――そういう仕組みなのだという。

 今まで、PCショップや家電量販店では「ゲーミングPCが欲しい」という人が多く訪れていたが、今後は「AI PCが欲しい」という人が増えるようになるのだろうか?

 なお、Ryzen AI 300シリーズを搭載するPCは、主要なメーカーから100モデル以上登場する予定だ。

●データセンター/HPC用のCPUやGPUも大盛況

 ここまでは“クライアント側”の話だったが、AIの利用を考えるとデータセンターやHPC(ハイパフォーマンスコンピューティング)の話も欠かせない。

 今回の基調講演で、AMDはデータセンター/HPC向けの新型CPU「第5世代EPYC」を発表すると同時に、データセンター/HPC向けGPUアクセラレーター「Instinctシリーズ」のロードマップを披露した。既存のサーバ/ワークステーション向けGPU「Radeon PRO W9000」もデュアルスロットモデルも発表している。

第5世代EPYC:やはりCPUがなくては始まらない!

 データセンターで重要なのは、何だかんだで「CPU」「GPU」と「ネットワーク」である。AMDの製品にあてはめると、CPUはEPYC、GPUはInstinct(またはRadeon PRO)ということになる。

 まずEPYCの話だが、今回投入が発表された第5世代EPYC(開発コード名:Turin)は、Ryzen 9000シリーズやRyzen AI 300シリーズと同様にZen 5アーキテクチャを採用している。最大192コア384スレッド構成と、Windows 11 Proで認識できる上限(最大128コア)を超えている。クライアント向けCPUと比べるとまさに“モンスター”という言葉が似合う構成だ。

 CPUソケットは、第4世代EPYCシリーズのうち「EPYC 9004シリーズ」(開発コード名:Genoa)と同じ「Socket SP5」となる。そのため、現在EPYC 9004シリーズを使っている場合は、CPUを差し替えるだけで処理パフォーマンスが大きく向上できるという。

 現行の第4世代EPYCシリーズは、多くのクラウドサービスベンダーに採用されいる。そこに、よりパワフルな第5世代EPYCを投入することでデータセンター/HPCでの採用促進を図る方針だ。

 今回の基調講演では特に触れていなかったが、同社は最近、Socket AM5を利用する中小規模サーバ向けCPU「EPYC 4004シリーズ」も投入した。あらゆるリソースをうまく使って、ローエンドからハイエンドまで、幅広いニーズに応える方針だ。

Instinct:しばらくは毎年アップデート!

 データセンター向けGPUは、主にクラウドAI処理に“引っ張りだこ”だ。AMDが2021年12月に発売した「Instinct MI200シリーズ」はもちろん、2024年初頭に投入した「Instinct MI300シリーズ」は、既に多くのメーカーが採用し、クラウドサービスで活用されているという。

 これらの製品は、AMDが提供する機械学習/HPC向けソフトウェアプラットフォーム「AMD ROCm」のバージョンアップにより着実にパフォーマンスを向上しているそうだ。

 今回の基調講演では、画像生成AI「Stable Diffusion」の開発元として知られているStability AIのクリスチャン・ラフォルテ氏(共同CEO兼CTO)が登壇し、Stable Diffusionの最新バージョン「Stable Diffusion 3」のパブリックアクセスが6月12日(米国太平洋夏時間)に始まることを明らかにした。

 台湾名物の夜市など、Stable Diffusion 3で描画した複数の画像も公開された。いずれの絵も不自然さが軽減され、描画の正確性も増している。ラフォルテ氏によると、Instinct MI300Xのメモリ容量の多さは生成画像のアップスケールに役立ってるという。

 ラフォルテ氏の後には、Microsoftのサティア・ナデラCEOからのビデオメッセージが放映され、Copilot+ PCに対応するRyzen AI 300シリーズと、Instinct MI300Xへの期待を語っていた。

 Instinct MI300Xの優位性が語られた後、リサCEOはInstinctシリーズのロードマップを語り始めた。

 Instinct MI300Xはリリースされたばかりだが、2024年後半にはInstinct MI300Xのメモリ回りを強化した「Instinct MI325X」がリリースされるという。より高速なHBM3Eメモリを288GBも搭載している。我が家のメインPCのメモリより容量が多い……。ピーク時のメモリへのアクセス速度は毎秒6TBと、容量はもちろんだがスピードも(コンシューマー目線では)モンスター級である。

 そして2025年には新アーキテクチャに移行した「Instinct MI350シリーズ」を、2026年にはさらに新しいアーキテクチャを採用する「Instinct MI400Xシリーズ」をリリースするという。リサCEOの言う通り「年ごとにケイデンスを重ねて」モデルチェンジをしていく格好だ。

 AI向けのGPUは、まだまだ加速が止まりそうにない。

ネットワークは「呉越同舟」で高速化

 今どきのデータセンター/HPCにおいて大切な「ネットワーク」だが、これは対外アクセスのことはもちろん、データセンター内(同一ロケーション)におけるGPUを含む各種処理装置間の通信(いわゆる「インターリンク」)も含まれる。

 このインターリンクを巡って、AMDを含む8社は5月30日(米国太平洋夏時間)に「Ultra Accelerator Link(UALink)」というオープン規格を策定し、普及団体「UALink Promoter Group」を立ち上げることを発表した。

 この「8社」には、AMDの競合であるIntelも含まれている。ある意味で「呉越同舟」かつオープンな取り組みで、ここに参加していないハードウェアメーカーを含めてUALinkの輪を広げようという取り組みだ。一方で、8社にはNVIDIAは含まれていない。同社は既に自社独自のインターリンクの仕組みを確立しているからだと思われる。

 CPU分野では競合関係にあるAMDとIntelが、インターリンク分野では協力してNVIDIAに対抗する――この構図は、ある意味で面白い。「これはこれ、それはそれ」である。

●AI向けAMD製品の進化が止まらない

 今回の基調講演は、AI向け製品の話題がメインだった。Ryzen 9000シリーズの発表にかけた時間は少なめで、少し寂しくも感じたが、EPYCのコア数やInstinct MI325Xのメモリ容量など、ハイスペックな数字にワクワクしたのも事実だ。

 AI向け製品は競争も激しくそれに伴って進化も加速する、そうなるとアプリ(ソフトウェア)もより精度が上がり快適になっていくだろう。そして使うユーザーが増えればもっと使いやすいサービスやソフトウェアも登場してくるかもしれない。そう期待できる内容だった。