AMDが2030年までにチップのエネルギー効率を20倍向上させる「20×30」目標を発表し、その実現に向けてラック規模アーキテクチャを核とした戦略を打ち出した。
AMDは6月12日に発表された内容で、ムーアの法則の終焉とデータセンターの消費電力増加を背景に、2030年までにチップのエネルギー効率を20倍向上させる野心的な目標「20×30」を掲げた。同社の上級副社長兼フェローであるサム・ナフツィガー氏が『The Register』の取材で明らかにした。
AMDはこの目標達成に向けて、ラック規模アーキテクチャを重要な設計ポイントとして位置づけている。同社は既にチップレットアーキテクチャでCPUとGPUの効率化を実現しており、『MI300』シリーズでは3Dスタック構造による高密度化を達成している。
競合のNvidiaは2024年のGTCで初のラック規模システム『GB200 NVL72』を発表済みで、18個のNVLinkスイッチチップを使用して72個のBlackwell GPUを統合し、120kWの消費電力を実現している。Nvidiaはさらに2027年までに最大600kWまでの拡張を計画している。
AMDの初のラック規模コンピュートプラットフォームは来年の『MI400』発売と共に登場予定で、NvidiaのNVLinkに対抗してUniversal Accelerator Link(UALink)インターコネクトを採用する。同社は今後5年以内にコパッケージドオプティクス(CPO)による光学インターコネクトが銅線に取って代わることを期待している。
ハードウェア面では、高帯域幅メモリ(HBM)の最適化が重要な要素となる。『MI300X』の192GBから『MI325X』の256GBへの容量増加により消費電力が250W増加した事例が示すように、メモリ効率の改善が課題となっている。
ソフトウェア面では、AMDは『ROCm』ソフトウェアスタックの最適化を進めており、vLLM、SGLang、PyTorchなどのプラットフォーム対応を強化している。また、Nod.ai、Mipsology、Briumの買収を通じて開発体制を拡充し、最近では『Lamini』のCEOシャロン・ジョウ氏の参加も発表された。
技術的には、FP8およびFP4という低精度データ型のサポートが進んでおり、これにより性能向上とメモリ使用量削減の両立を図っている。ただし、『MI300X』発売からvLLMエンジンでのFP8サポート実装まで約1年を要した例が示すように、ソフトウェア対応には時間を要している。
AMDは20×30目標の進捗測定において、GPU FLOPS、HBM、ネットワーク帯域幅を組み合わせた指標を使用し、推論と訓練で異なる重み付けを適用する予定である。
from:AMD’s 20×30 AI efficiency target hinges on rack scale | The Register
【編集部解説】
AMDの20×30目標は、単なる技術的な野心ではなく、半導体業界が直面する根本的な構造変化への対応策であることを理解する必要があります。
まず、「ムーアの法則の終焉」という表現について説明します。1965年にインテル共同創業者ゴードン・ムーアが提唱したこの法則は、半導体の集積度が約2年で2倍になるという観測に基づいています。しかし、物理的限界の壁により、従来の微細化による性能向上は限界に近づいているのが現状です。これは業界全体の共通認識となっており、各社が新たなアプローチを模索している背景があります。
AMDのラック規模アーキテクチャへの転換は、この物理的制約を克服するための戦略的な方向転換を意味します。従来は個々のチップの性能向上に焦点を当てていましたが、今後はシステム全体の効率性を追求するアプローチが主流となる可能性があります。これは、データセンターの運営コストの大部分を占める電力消費を大幅に削減できる技術として注目されています。
特に注目すべきは、AMDが掲げる20倍の効率改善という数値の意味するところです。これが実現されれば、現在275台のラックを必要とするAIモデルの学習が、2030年には1台未満のラックで完了できるようになります。この変化は、AIの民主化を大きく前進させる可能性があります。
競合との技術競争においても重要な意味を持ちます。NvidiaがNVLinkで先行する中、AMDはUniversal Accelerator Link(UALink)という業界標準を推進しています。これは、特定の企業に依存しないオープンスタンダードの構築を目指しており、顧客にとって選択肢の多様性を提供することになります。
コパッケージドオプティクス(CPO)技術の採用についても、長期的な産業構造の変化を示唆しています。光学技術の導入により、従来の銅線による制約を克服し、より高速で省電力な接続が可能になります。ただし、記事中でナフツィガー氏が指摘するように、温度管理や機械的な堅牢性といった新たな技術的課題も存在します。
ソフトウェア面では、AMDのROCmスタックの改善が重要な要素となります。これまでNvidiaのCUDAエコシステムに対して後れを取っていた同社が、オープンソースアプローチによってどこまで差を縮められるかが成功の鍵となるでしょう。
一方で、この野心的な目標にはリスクも伴います。技術的な実現可能性への疑問、競合他社との激しい開発競争、そして莫大な研究開発投資が必要になることは避けられません。また、AIモデルの急速な進化により、5年後の技術要件が現在の予測と大きく異なる可能性もあります。
規制面では、データセンターの消費電力問題が世界的な環境政策の焦点となる中、この技術が持続可能な成長を支える重要な要素となる可能性があります。各国政府が推進するカーボンニュートラル政策との整合性も、今後の技術開発の方向性を左右する要因となるでしょう。
長期的な視点では、この技術革新が成功すれば、AI技術の大幅なコスト削減により、中小企業や個人レベルでの高度なAI活用が現実的になります。これは、技術格差の解消と新たなイノベーションの創出につながる可能性を秘めています。
【用語解説】
ムーアの法則:
1965年にインテル共同創業者ゴードン・ムーアが提唱した、半導体の集積度が約2年で2倍になるという観測法則。物理的限界により従来の微細化は困難になっている。
チップレットアーキテクチャ:
大きな単一チップではなく、複数の小さなチップ(チップレット)を組み合わせて一つのプロセッサを構成する設計手法。製造歩留まり向上とコスト削減を実現する。
3Dスタック:
複数の半導体チップを垂直方向に積み重ねて接続する技術。平面での限界を超えて高密度化と性能向上を実現する。
FP8/FP4:
8ビット/4ビット浮動小数点数形式。従来の16ビットや32ビットより精度は低いが、メモリ使用量削減と計算速度向上を実現する低精度データ型。
コパッケージドオプティクス(CPO):
光学部品と電子部品を同一パッケージ内に統合する技術。銅線接続より高速・低電力な光通信を実現するが、温度管理などの技術的課題がある。
高帯域幅メモリ(HBM):
従来のDRAMより大幅に高い帯域幅を持つメモリ技術。3D構造により高密度化を実現し、AI処理に必要な大容量データの高速転送を可能にする。
NVLink:
Nvidia独自の高速インターコネクト技術。複数のGPU間を高帯域幅で接続し、一つの大きなGPUのように動作させる。
InfiniBand:
高性能コンピューティング環境で使用される高速ネットワーク技術。データセンターでの大規模並列処理において低遅延・高帯域幅通信を提供する。
【参考リンク】
AMD公式サイト(外部)
プロセッサ、GPU、AI加速器など半導体製品の開発・販売を行う。Ryzen、EPYC、Instinctシリーズを展開し、データセンターからPCまで幅広い分野で事業を展開している。
NVIDIA公式サイト(外部)
AI、HPC、ゲーミング分野のGPU開発で世界をリードする企業。CUDAエコシステムとGeForce、Tesla、H100などの製品でAI革命を牽引している。
AMD ROCmソフトウェア(外部)
AMDのオープンソースGPUプログラミングプラットフォーム。AI、HPC、機械学習ワークロード向けのドライバ、開発ツール、APIを提供している。
UALinkコンソーシアム(外部)
AMD、Intel、Broadcomなどが参加するオープンなAI加速器間インターコネクト標準の策定団体。NvidiaのNVLinkに対抗する業界標準の構築を目指している。
Enosemi(外部)
シリコンフォトニクスとエレクトロニクス統合チップの設計IP提供企業。AMDに買収され、コパッケージドオプティクス技術開発を担当している。
Lamini(外部)
企業向けLLMプラットフォームを提供するAI企業。独自データを使用したLLMのカスタマイズとハルシネーション削減技術を専門としている。
【参考記事】
AMD shines a light on its Helios rack-scale compute platform | The Register
AMDが2026年のMI400シリーズGPUを中核とする次世代ラック規模システム「Helios」について詳細を初公開。同社のAdvancing AIイベントでの発表内容を詳細に報告している。
AMD Previews Instinct MI400 Series & Helios AI Rack | Phoronix
MI400 GPUが432GBのHBM4メモリ、FP4で40 PFlops、FP8で20 PFlops、19.6TB/sのメモリ帯域幅を持つと予想される技術仕様について報告している。
Data Center Sustainability – AMD
AMD公式の20×30目標詳細ページ。2024年ベースで2030年までにAIシステムのラック規模エネルギー効率を20倍改善する目標の根拠と計算方法を説明している。
【編集部後記】
今回のAMDの20×30目標発表は、半導体業界が物理的限界に直面する中で示された極めて戦略的な回答と言えるでしょう。「デバイスが大きいほど効率的になる」というナフツィガー氏の発言は、これまでの「より小さく、より高性能に」から「より統合的に、より協調的に」という新しい設計哲学への転換を象徴しています。
特に注目すべきは、UALinkによるオープンスタンダード戦略です。Nvidiaの独占的エコシステムに対抗する業界標準の構築は、健全な競争環境維持の観点から重要な意味を持ちます。この取り組みが成功すれば、現在275台のラックを必要とするAI学習が1台未満で実現し、AI技術の民主化という大きな社会的インパクトをもたらす可能性があります。エネルギー効率の劇的改善により、より多くの組織がAI技術にアクセスできるようになり、イノベーションの裾野が大幅に広がることを期待しています。