Googleは、「エージェントAI(Agentic AI)」時代に向けた超大規模データセンターネットワークとクロスクラウドインフラストラクチャを発表しました。外部ツールをミリ秒単位で呼び出す環境がますます普及する中、遅延を減らし大規模計算を安定して処理するためのインフラ競争が全面的に展開されています。Googleは24日に、新しいAIインフラネットワークシステム「Virgoネットワーク」を公開しました。このシステムは、アクセラレータクラスター内部だけでなく、メモリ、計算、ストレージリソース間のデータセンター全体の通信速度を向上させることを目的としています。その核心は「フラット化」されたネットワーク構造です。この方法は、データ伝送過程で通過する層の数を減らすことでボトルネックを低減します。Googleによると、Virgoネットワークは最大で13万4000個のチップを接続可能で、その中には訓練用の第8世代TPU 8tプロセッサも含まれます。双方向帯域幅は最大47Pbps(ペタビット毎秒)に達します。同社は、前世代と比較して、各アクセラレータの帯域幅が4倍以上向上したと述べています。今回の発表で注目すべき点は、単なる速度競争だけでなく、「回復力」も全面的に強調されていることです。超大規模AIクラスターでは、故障や遅延、一部デバイスの速度低下はほぼ避けられないとされています。Googleは、この問題を解決するために、ネットワーク全体の状態を詳細に観測する「可視性」機能と、自動迂回・回復ソフトウェアを組み合わせたと述べています。特徴としては、独立したスイッチングプレーンを採用し、ネットワーク遅延や故障が発生しても、全体のスループットが急激に変動しないように設計されています。Googleは、Virgoネットワークを既存のデータセンターの単なる拡張ではなく、独立したインフラ製品と位置付け、その設計理念は「園区全体をスーパーコンピュータのように」設計することにあります。同社は、1ミリ秒未満の単位でシステム状態を監視することで、ハードウェアとソフトウェアの全過程で瞬時の輻輳やバッファ管理の最適化を図れると主張しています。これは、エージェントAIがツール呼び出し、推論、検索強化生成(RAG)タスクを同時に処理する環境にとって特に重要です。また、クラウド境界を越えた接続とセキュリティ層も同時に発表されました。データセンターネットワークに加え、GoogleはエージェントAIのワークロード向けのクラウド接続とセキュリティ層も公開しました。同社は今回のアップデートを、「弾性計算」「安全なクロスクラウド接続」「統一データ層」「デジタル主権」の4つの柱にまとめています。まず、「弾性計算」は、AIエージェント(Agent)の需要変動により効率的に対応するアーキテクチャです。AIサービスでは瞬間的なリクエスト増加が頻繁に発生しますが、Googleは、CPUのアクセス性を高めることで、より迅速かつ経済的にこの需要に対応できると説明しています。特に、推論、エージェントオーケストレーション、検索強化生成などのタスクに最適化されたCPUリソースを提供し、GPUの不足を補います。これを実現するために、GoogleはGoogle Compute EngineとGoogle Kubernetes Service上の仮想マシン(VM)にC4NおよびM4N CPUを適用しています。Googleによると、このシステムは毎秒9500万パケットを処理でき、主要な超大規模クラウドサービスより最大40%高速です。セキュアなクロスクラウド接続の分野では、「エージェントゲートウェイ」が中心的役割を果たします。このコントローラーは、AIエージェントのアクセス権を監視し、モデルコンテキストプロトコル(MCP)やエージェント間プロトコル(A2A)などの制御と管理を行います。説明によると、このゲートウェイはマルチクラウド環境において、異なるネットワーク間のデータフローに可視性を持たせ、保護することが可能です。「AIはデータの所在場所へ向かう」ではなく、「データを移動させる」のではなく、統一データ層は、AIが複数のストレージリポジトリに分散されたデータを直接理解し活用できるようにすることに焦点を当てています。Googleは、「インテリジェントストレージ」により、データオブジェクトにメタデータを注入し、従来の「静的データ」をAIが読み取れる知識資産に変換すると述べています。このアーキテクチャが構築されると、スプレッドシート、ドキュメント、PDF、画像などさまざまな形式の情報に対して、意味に基づく検索や自動注釈、洞察抽出が可能になります。これにより、データが特定のストレージに閉じ込められた「孤島」現象を減らし、AIエージェントが必要な情報をより迅速に見つけられるようにします。また、公開された「ナレッジカタログ」は、企業内部の知識をグラフィカルに連結し、AIエージェントが業務プロセスやコンテキストをより良く理解できるよう支援します。Googleは、この方法により、データを個別に移動させることなく、AIの学習と応答を最適化できると強調しています。つまり、データを中央に移すのではなく、AIモデルがデータの「プライベート環境」に入り込んで動作する仕組みです。今回の発表は、AI競争の焦点がモデル性能から、モデル運用を支えるネットワーク、安全性、データインフラに急速に移行していることを示しています。特に、「エージェントAI」が企業のビジネスに正式に導入されるにつれ、低遅延、高い回復力、多クラウド管理が競争力の核心となる可能性が高いです。Googleのこの動きは、AIインフラの主導権を巡る大手テック企業間の競争が激化している兆候と解釈されています。TP AI注意事項 本文はTokenPost.aiの言語モデルを用いて要約しています。本文の主要内容が省略されたり、事実と異なる場合があります。
Googleは「代理型AI」の超大型データセンターネットワーク「Vergo」を公開的に狙う……遅延と故障対応能力を強化
Googleは、「エージェントAI(Agentic AI)」時代に向けた超大規模データセンターネットワークとクロスクラウドインフラストラクチャを発表しました。外部ツールをミリ秒単位で呼び出す環境がますます普及する中、遅延を減らし大規模計算を安定して処理するためのインフラ競争が全面的に展開されています。
Googleは24日に、新しいAIインフラネットワークシステム「Virgoネットワーク」を公開しました。このシステムは、アクセラレータクラスター内部だけでなく、メモリ、計算、ストレージリソース間のデータセンター全体の通信速度を向上させることを目的としています。
その核心は「フラット化」されたネットワーク構造です。この方法は、データ伝送過程で通過する層の数を減らすことでボトルネックを低減します。Googleによると、Virgoネットワークは最大で13万4000個のチップを接続可能で、その中には訓練用の第8世代TPU 8tプロセッサも含まれます。双方向帯域幅は最大47Pbps(ペタビット毎秒)に達します。同社は、前世代と比較して、各アクセラレータの帯域幅が4倍以上向上したと述べています。
今回の発表で注目すべき点は、単なる速度競争だけでなく、「回復力」も全面的に強調されていることです。超大規模AIクラスターでは、故障や遅延、一部デバイスの速度低下はほぼ避けられないとされています。Googleは、この問題を解決するために、ネットワーク全体の状態を詳細に観測する「可視性」機能と、自動迂回・回復ソフトウェアを組み合わせたと述べています。特徴としては、独立したスイッチングプレーンを採用し、ネットワーク遅延や故障が発生しても、全体のスループットが急激に変動しないように設計されています。
Googleは、Virgoネットワークを既存のデータセンターの単なる拡張ではなく、独立したインフラ製品と位置付け、その設計理念は「園区全体をスーパーコンピュータのように」設計することにあります。同社は、1ミリ秒未満の単位でシステム状態を監視することで、ハードウェアとソフトウェアの全過程で瞬時の輻輳やバッファ管理の最適化を図れると主張しています。これは、エージェントAIがツール呼び出し、推論、検索強化生成(RAG)タスクを同時に処理する環境にとって特に重要です。
また、クラウド境界を越えた接続とセキュリティ層も同時に発表されました。
データセンターネットワークに加え、GoogleはエージェントAIのワークロード向けのクラウド接続とセキュリティ層も公開しました。同社は今回のアップデートを、「弾性計算」「安全なクロスクラウド接続」「統一データ層」「デジタル主権」の4つの柱にまとめています。
まず、「弾性計算」は、AIエージェント(Agent)の需要変動により効率的に対応するアーキテクチャです。AIサービスでは瞬間的なリクエスト増加が頻繁に発生しますが、Googleは、CPUのアクセス性を高めることで、より迅速かつ経済的にこの需要に対応できると説明しています。特に、推論、エージェントオーケストレーション、検索強化生成などのタスクに最適化されたCPUリソースを提供し、GPUの不足を補います。
これを実現するために、GoogleはGoogle Compute EngineとGoogle Kubernetes Service上の仮想マシン(VM)にC4NおよびM4N CPUを適用しています。Googleによると、このシステムは毎秒9500万パケットを処理でき、主要な超大規模クラウドサービスより最大40%高速です。
セキュアなクロスクラウド接続の分野では、「エージェントゲートウェイ」が中心的役割を果たします。このコントローラーは、AIエージェントのアクセス権を監視し、モデルコンテキストプロトコル(MCP)やエージェント間プロトコル(A2A)などの制御と管理を行います。説明によると、このゲートウェイはマルチクラウド環境において、異なるネットワーク間のデータフローに可視性を持たせ、保護することが可能です。
「AIはデータの所在場所へ向かう」ではなく、「データを移動させる」のではなく、
統一データ層は、AIが複数のストレージリポジトリに分散されたデータを直接理解し活用できるようにすることに焦点を当てています。Googleは、「インテリジェントストレージ」により、データオブジェクトにメタデータを注入し、従来の「静的データ」をAIが読み取れる知識資産に変換すると述べています。
このアーキテクチャが構築されると、スプレッドシート、ドキュメント、PDF、画像などさまざまな形式の情報に対して、意味に基づく検索や自動注釈、洞察抽出が可能になります。これにより、データが特定のストレージに閉じ込められた「孤島」現象を減らし、AIエージェントが必要な情報をより迅速に見つけられるようにします。
また、公開された「ナレッジカタログ」は、企業内部の知識をグラフィカルに連結し、AIエージェントが業務プロセスやコンテキストをより良く理解できるよう支援します。Googleは、この方法により、データを個別に移動させることなく、AIの学習と応答を最適化できると強調しています。つまり、データを中央に移すのではなく、AIモデルがデータの「プライベート環境」に入り込んで動作する仕組みです。
今回の発表は、AI競争の焦点がモデル性能から、モデル運用を支えるネットワーク、安全性、データインフラに急速に移行していることを示しています。特に、「エージェントAI」が企業のビジネスに正式に導入されるにつれ、低遅延、高い回復力、多クラウド管理が競争力の核心となる可能性が高いです。Googleのこの動きは、AIインフラの主導権を巡る大手テック企業間の競争が激化している兆候と解釈されています。
TP AI注意事項 本文はTokenPost.aiの言語モデルを用いて要約しています。本文の主要内容が省略されたり、事実と異なる場合があります。