現在のクラウドベースのGPUaaSは、AIモデルのトレーニング、推論、およびアプリケーションへの統合において、AIエンジニアにとって使いにくい点が多々あります。これは、多層的なレイヤーのセットアップやテストの複雑さに起因します。NTYは、戦略的提携企業のミドクラジャパンと共に、既存のGPUaaSの課題を克服し、開発者体験を根本的に変革する「Beyond GPUaaS」という、よりユーザーフレンドリーなGPUaaS体験を提供することを目指しています。
従来のGPUaaSは、主に生の計算能力の提供に焦点を当てていました。しかし、この「Beyond GPUaaS」構想は、GPUが強力であるにもかかわらず、多層的なシステムの複雑なセットアップ、統合、管理により、AIエンジニアの開発者体験が依然として貧弱であるという認識に基づいています。これは、バリューチェーンにおける戦略的な上位移行を示唆しています。NTYは、生のGPU提供で競争するのではなく、複雑さを抽象化する「プラットフォーム」を提供することで、AIエンジニアがモデル開発とアプリケーションロジックに集中できるようにすることを目指しています。これは、AIの導入を加速する上で極めて重要であり、ボトルネックはしばしばAIの運用化にあり、単なる計算能力ではないからです。
現在のGPUaaSが抱えるビジネス上の障壁
今日のAIデータセンター事業者やAI利用者は、既存のGPUaaSモデルが提供する利便性にもかかわらず、以下のような深刻な課題に直面しています。これらは、AIイノベーションの加速とビジネス価値の最大化を妨げる「見えない壁」となっています。
グローバルな課題
- 高コストと非効率なリソース利用: 集中型のパブリッククラウド環境では、GPUの共有が制限され、細かなスケジューリングによりGPU利用率が低くなりがちです。これは、特にエッジやハイブリッド環境での展開において、経済的に非効率な運用コストにつながります。
- 限られた可用性と長い待ち時間: NVIDIA A100やH100のような高性能GPUは需要が非常に高く、多くの企業がリソースの確保に苦労し、長い待ち時間に直面しています。
- ベンダーロックインのリスク: 特定のプラットフォームやGPUベンダー(特にNVIDIA)への依存は、技術選択の自由を奪い、将来的なイノベーションを阻害する可能性があります。
- 増大するエネルギーコストと環境負荷: 大規模なAIトレーニングと推論は膨大な電力を消費し、総所有コスト(TCO)と持続可能性の両面に大きな影響を与えます。国際エネルギー機関(IEA)は、データセンターの電力需要が2030年までに日本の総電力消費量に匹敵すると予測しており、これは無視できない課題です。
日本市場特有の課題
日本市場では、上記のグローバルな課題に加え、さらに独自のハードルが存在します。
- 最新GPUへのアクセス制限と遅い導入: 日本ではGPUaaSがまだ発展途上であり、B200やH100のような最先端GPUへのアクセスは稀で、多くの場合A100が最高レベルの選択肢となっています 1。また、手動でのオンボーディングやシステムインテグレーターのサポートが必要なため、セットアップに数日から数週間かかることも珍しくありません。
- エッジおよびプライバシー要件への未対応: 日本の製造業やヘルスケアといった機密性の高いデータを扱う業界では、オンプレミスやプライベートな環境でのAIデプロイメントが不可欠です。しかし、既存のGPUaaSソリューションは、セキュアなエアギャップ環境でのローカルデータ処理に対応できていません。
これらの課題は、AIデータセンター事業者にとっては収益性や拡張性の制約となり、AI利用者にとっては開発の遅延、コスト増、そしてビジネス機会の損失につながっています。
Beyond GPUaaS:次世代のAIコンピューティング基盤
NTY Gridworksは、戦略的提携企業であるミドクラとの協業により、次世代のAIコンピューティング基盤「Beyond GPUaaS」を提供します。これは、NVIDIA Blackwell B200 GPUの革新的な性能を最大限に引き出し、AIデータセンター事業者と利用者の双方に新たな価値をもたらすものです。
NVIDIA Blackwell B200:AI時代のゲームチェンジャー
NVIDIA Blackwell B200 GPUは、AIコンピューティング能力において画期的な進歩を遂げ、兆パラメータ規模のモデルに最適化されています。
- 圧倒的な性能向上: 従来のH100と比較して、FP8 Tensor性能で約5倍、メモリ帯域幅で2.5倍、GPUメモリで2.4倍、NVLink帯域幅で2倍という驚異的な性能向上を実現しています。これにより、AIモデルのトレーニングと推論が劇的に高速化され、ビジネスの意思決定やサービス提供のスピードが向上します。
特徴 | NVIDIA H100 | NVIDIA B200 (Blackwell) | 比較 |
Architecture | Hopper | Blackwell | |
FP8 Tensor Performance | ~4,000 TFLOPS | ~20,000 TFLOPS | 5x |
Memory Bandwidth | 3.35 TB/s | Up to 8 TB/s | 2.5x |
GPU Memory | 80 GB | 192 GB | 2.4× |
NVLink Bandwidth | 900 GB/s | 1.8 TB/s | 2x |
Transformer Engine | Hopper TE | Next-gen TE + Mixture-of-Experts | Advanced |
Power Efficiency | Baseline | 30-40% better per watt | 30-40% |
- 大規模モデルへの対応力: 192GBのHBM3eメモリを搭載し、70B以上のパラメータを持つLLMやマルチモーダルAI、メモリ集約型ワークフローを単一のGPUで実行可能です。これにより、複雑なAIプロジェクトも効率的に推進できます。
- 優れた電力効率: B200はH100よりもワットあたり30〜40%電力効率が高く、エネルギーコストの削減に貢献します。これは、運用コストの削減だけでなく、持続可能性への貢献にもつながります。
- 開発者の生産性向上: 大容量メモリと高速処理により、モデルのクラッシュや微調整の頻度が減り、AI開発者は本来のモデル構築とイノベーションに集中できます。
簡素化されたGPUアクセス
NTY Gridworksは、戦略的提携企業であるミドクラの技術を活用し、AIモデルのトレーニングと推論のためのGPU環境を劇的に簡素化します。
- セットアップ不要の即時利用: ドライバーのインストールや依存関係の調整といった煩雑な作業は不要です。ユーザーは、AIフレームワークがプリインストールされたB200インスタンスを数ステップで選択・起動し、自身のコードやモデルをデプロイするだけで、Ray、Slurm、Kubernetesと統合された環境でトレーニングや推論を即座に実行できます。
- BYOM(Bring Your Own Model)の隠れたコストを解消: 従来のBYOMアプローチで発生していた、最適化や本番導入にかかるエンジニアリング時間、低いGPU使用率、高額なホスティング費用といった隠れたコストを大幅に削減します。
- ファウンデーションモデルの活用: APIを呼び出すだけで、B200上で事前調整されたファウンデーションモデルによる推論が可能。「ゼロから数分でGenAIへ」というアプローチで、迅速なプロトタイピングやデモを強力に支援します。
- AIエンジニアの負担軽減: ミドクラの分散コンピューティングとシステム開発の専門知識を活かし、AIエンジニアが直面する多層的なシステムセットアップやテストの困難を解消する「AIプラットフォーム」を提供します。これにより、AIエンジニアはモデル開発という本来の業務に集中し、生産性を最大化できます。
AIコンピューティングの未来
NTY Gridworksの「Beyond GPUaaS」は、単なるGPU提供サービスではありません。戦略的提携企業ミドクラの先進技術とNTY Gridworksのビジョンが融合し、既存のGPUaaSモデルの限界を打ち破る、革新的なAIコンピューティング基盤を構築します。
集中から分散へ:AIインフラのパラダイムシフト
現在のAIコンピューティング市場は、一部のハイパースケーラーとNVIDIAのような特定ベンダーに集中しており、高価格、ベンダーロックイン、そして電力・冷却の物理的制約といった課題を抱えています。NTY Gridworksは、この集中型モデルからの脱却を提唱し、分散型インテリジェンスへの移行を推進します。
- 分散型GPUファームの活用: 電力と冷却に最適化されたマイクロデータセンターや、オンプレミスでのGPU投資の増加といった新たなトレンドに対応し、コンピューティングリソースを分散配置することで、セキュリティとレイテンシーのニーズに応えます。
- オンデバイス推論の推進: 2030年までにほとんどのAI推論がエッジデバイスで行われるという予測に基づき、低レイテンシー、プライバシー保護、コスト削減を実現するエッジAIの可能性を最大限に引き出します。
「Beyond GPUaaS」を支える4つの柱
NTY Gridworksは、戦略的提携企業ミドクラの技術的専門知識を基盤に、GPUaaSアーキテクチャを以下の4つの主要な原則で再構築します。
- ハードウェアにとらわれないファブリック:
- 課題: NVIDIA/CUDAのような単一ベンダーエコシステムへの依存は、ベンダーロックインを引き起こし、異種アクセラレータのサポートを制限することで、GenAIの将来性を阻害します。
- NTYのソリューション: CUDAや特定のソフトウェアスタックに縛られず、AMD、Intel、Groq、Cerebras、Tenstorrentといった多様なアクセラレータをサポートするソフトウェアスタックを構築します。これにより、LLMには大容量メモリGPU、トークンレベルの推論にはGroqやTenstorrentといった最適なハードウェアにワークロードをインテリジェントにマッチングさせることが可能となり、ワークロードのポータビリティと新しいハードウェアの迅速な導入を促進します。これは、ベンダーロックインを回避し、サプライチェーンのリスクを軽減する上で不可欠です。
- エッジからコアへの連続体:
- 課題: 集中型クラウドGPUaaSは、推論における高レイテンシー、データプライバシーの懸念、そして隠れたコストといった問題を引き起こします。
- NTYのソリューション: エッジデバイスからGPUクラスターまで、AIワークロードをシームレスにオーケストレーションし、ワークロードのニーズに応じて動的に配置します 1。これにより、リアルタイム応答性、データプライバシーの保護、そしてコスト最適化を実現します 。戦略的提携企業ミドクラのWebAssembly (WASM) 技術は、アプリケーションの比類ないポータビリティを提供し、SDN(ソフトウェア定義ネットワーク)がデータとワークロードのプログラマブルなルーティングを可能にすることで、この連続体を強力に支えます。
- エネルギーを考慮したスケジューリング:
- 課題: 既存のGPUaaSはエネルギー効率を考慮しないため、非効率なスケジューリング、長いキュー時間、コスト削減や排出量削減の機会の逸失、送電網の混雑増加につながります。
- NTYのソリューション: 地理的位置と送電網の状況に基づいてジョブを最適化し、再生可能エネルギーと炭素排出量を考慮したスケジューリングを統合します。例えば、大規模モデルのバッチ学習を電力コストの低い地域で夜間に実行し、推論は需要の高い地域で日中に行うなど、運用コストの削減と持続可能性を両立させます。
- 連合型コンピューティングマーケットプレイス:
- 課題: GPU供給がハイパースケールデータセンターに集中し、研究機関や企業内の遊休GPUが未利用のまま放置されています。また、新規プロバイダーの参入障壁が高く、集中型GPUaaSの固定価格設定はコンピューティングコストの上昇につながっています。
- NTYのソリューション: プロバイダーがGPUリソースを共有プールに提供する分散型ネットワークを構築し、ユーザーがハイパースケーラー以外のソースからコンピューティングを借りられるようにします。これにより、世界中の遊休容量が活用され、より経済的なコンピューティングオプションが提供されます。これは、GPUリソースへのアクセスを民主化し、AIコンピューティングのためのより競争力のある効率的な市場を育成します。
AIイノベーションを加速し、ビジネス価値を最大化
NTY Gridworksの「Beyond GPUaaS」は、AIデータセンター事業者とAI利用者の双方に、以下のような具体的なメリットをもたらし、AIイノベーションの加速とビジネス価値の最大化を支援します。
AIデータセンター事業者にとってのメリット
- 効率的なリソース利用とコスト削減: 分散型GPUファームとエネルギーを考慮したスケジューリングにより、GPUの利用率を最大化し、電力コストを最適化します。これにより、運用コストを削減し、収益性を向上させることが可能です。
- 新しい収益源の創出: 連合型コンピューティングマーケットプレイスを通じて、遊休GPUリソースを共有プールに提供することで、新たな収益機会を生み出します。
- 将来性への対応: ハードウェアにとらわれないファブリックにより、将来登場する多様なAIアクセラレータにも柔軟に対応でき、長期的な競争力を確保します。
- 持続可能性への貢献: エネルギー効率の高いGPUとエネルギーを考慮したスケジューリングにより、データセンターの環境負荷を低減し、企業のESG目標達成に貢献します。
AI利用者(開発者・企業)にとってのメリット
- 開発の劇的な加速: 簡素化されたB200プロビジョニングとファウンデーションモデルにより、AIモデルのトレーニングと推論環境のセットアップ時間を大幅に短縮し、迅速なプロトタイピングと市場投入を可能にします。
- 運用負荷の軽減: BYOMの隠れたコストを解消し、MLOps/DevOpsを簡素化する「AIプラットフォーム」により、AIエンジニアはインフラ管理の複雑さから解放され、本来のモデル開発に集中できます。
- 最新技術への容易なアクセス: NVIDIA Blackwell B200のような最先端GPUに、調達の遅延なくアクセスできます。
- リアルタイム性能とプライバシー保護: エッジからコアへの連続体により、データ生成地点でのリアルタイム推論が可能となり、超低レイテンシーを実現します。また、機密データをローカルで処理することで、データプライバシーとセキュリティを強化します。
- コスト最適化: ワークロードのニーズに応じた動的なリソース配置と、通信コストの削減により、AI開発・運用の総コストを最適化します。
NTY Gridworksの「Beyond GPUaaS」は、高度にエネルギー効率が高く、柔軟に拡張可能で、仮想化され、分散され、協調的な異種GPUクラスターを特徴とします。この包括的かつ革新的なアプローチは、今日のAIコンピューティングが直面する課題を克服し、未来の多様なニーズに応えるための強固な基盤を提供します。