お客様のワークロードに合わせた Google Cloud インフラストラクチャの拡張
Google Cloud Japan Team
※この投稿は米国時間 2022 年 10 月 13 日に、Google Cloud blog に投稿されたものの抄訳です。
かなり長期にわたり、クラウド インフラストラクチャでは VM、コンテナ、ネットワーク、ストレージといった構成要素自体の速度とフィードが注目されてきました。今ではムーアの法則が減速し、正しい組み合わせのインフラストラクチャ コンポーネントを選択しなければならないという IT 担当者の負担はさらに重くなっています。
Google Cloud は、こうした負担の軽減に取り組んでいます。Google は、専用のインフラストラクチャ、規範的なアーキテクチャ、エコシステムのレシピでワークロードに最適化されたインフラストラクチャを提供し、シリコンからコンソールに至る最良パスを構築しています。そして Google は今年の Google Cloud Next において、主要なワークロード間の新しい機能を発表しました。
今回の投稿では、AI / ML からハイ パフォーマンス コンピューティング、データ分析から SAP、VMware、メインフレームといった、よく使われるワークロードの観点から見た、Google Cloud の新しいリリースと機能をご紹介します。
AI / ML ワークロード処理を強化
AI と ML に勝る、単独でトランスフォーメーションを推進できるテクノロジーはありません。Google は Next で、AI ベースのサービスとして、変換ハブサービスおよび DocAI サービスと、業界リーダーのコンソーシアムによって共同開発された ML コンパイラ テクノロジーのオープンソース エコシステムである OpenXLA プロジェクトを発表しました。
このような革新的なサービスを構築するには、強力なインフラストラクチャ プラットフォームも必要です。本日、Google はコンピューティング サービスに次の機能を追加することを発表しました。
Cloud TPU v4 Pod - 一般提供(GA)を開始しました。これは Google の高度な機械学習インフラストラクチャで、オクラホマにある世界最大級の ML ハブを基盤とし、ピーク時の集計コンピューティングが最大 9 エクサフロップにもなる処理能力を提供します。開発者と研究者は TPU v4 を使用して、費用対効果が高くサステナブルな方法でより洗練されたモデルをトレーニングし、大規模な自然言語処理(NLP)、レコメンデーション システム、コンピュータ ビジョン アルゴリズムなどのワークロード処理を強化します。2022 年 6 月に、Cloud TPU v4 は MLPerf 2.0 ベンチマーク 5 項目で最速のトレーニング時間を記録しました。最大 80% パフォーマンスが向上し、次のレベルの代替手段よりも最大 50% の費用削減を実現しました。
A2 Ultra GPU VM インスタンス - 制限付きで一般提供されています。A2 Ultra GPU VM インスタンスは、Compute Engine、Google Kubernetes Engine、Deep Learning VM、Vertex AI ユーザー管理のノートブックで使用できます。A2 Ultra GPU には Google Cloud ポートフォリオ最大規模および最速の GPU メモリが搭載され、AI アシスタント、レコメンデーション システム、自律走行などにおいてユースケースのある、大規模な AI / ML ワークロードと HPC ワークロード向けに最適化されています。A2 Ultra には 80 GB の GPU メモリを搭載した NVIDIA A100 Tensorcore GPU が採用され、オリジナルの A2 マシンシェイプよりも推論のスループットが 25% 増加し、HPC シミュレーションのパフォーマンスが 2 倍に高まりました。
A2 Ultra の詳細、ML 開発を加速させる方法、お客様である Uber と Cohere の事例については、ブレイクアウト セッション MOD300 をご覧ください。
HPC およびデータ量の多いワークロードを強化
お客様は、Google Cloud を利用して HPC や Hadoop などデータ量の多いワークロードを実行しています。新しい C3 マシンシリーズ(現在はプレビュー版)は、パブリック クラウドの第 1 段階で、新しい第 4 世代 Intel Xeon プロセッサと、200 Gbps の低レイテンシ ネットワーキングを実現する Google のカスタム Intel Infrastructure Processing Unit が含まれます。HPC の重要なベスト プラクティスの詳細については、ブレイクアウト セッション MOD106 をご覧ください。
C3 と、Google の新世代ブロック ストレージである Hyperdisk(現在は限定公開プレビュー版)をペアで使用できます。Hyperdisk は他のハイパースケーラーと比較して、ハイエンドのデータベース管理システム(DBMS)のワークロードで vCPU あたり 80% 高い IOPS を実現しています。Hadoop やデータベースなどのデータ ワークロードに対して、オーバーサイズのコンピューティング インスタンスを使用しなくても、高 IOPS のメリットを受けることができます。Hyperdisk の詳細については、ブレイクアウト セッション MOD206 をご覧ください。
新しいストリーミング エクスペリエンスを実現
メディア業界のお客様とエンターテイメント業界のお客様は、エッジでのイノベーションとグローバルなネットワーク上に構築する、ストリーミングに最適化されたワークロードを必要としています。ストリーミングのユースケースに対応する新しい開発をいくつかご紹介します。
Cloud CDN が今回提供するのは動的圧縮です。エッジからクライアントに転送されるレスポンスのサイズを縮小し、ページの読み込み時間の改善と、外向き(下り)トラフィックの削減に大きく貢献します。
Media CDN は、今年の前半にすでにご紹介していますが、新たにサポート対象として Live Stream API が加わりました。これは、ソース コンテンツを取り込んで HTTP Live Streaming 形式と DASH 形式にパッケージ化することで、ライブ ストリーミングを最適化します。Media CDN のプレビュー版ではデベロッパー指向の 2 つの新しいインテグレーションが可能になります。カスタマイズされた動画広告プレースメントを提供する Google アド マネージャーによるダイナミック広告挿入と、Video Stitcher API を使用してパーソナライズされた広告プレースメントを実現するサードパーティの広告挿入です。これらのオプションを使用すると、コンテンツ プロデューサーは、ストリーミング サービスにさらなる収益化とパーソナライズの機会を導入できます。
さらに、高度なカスタマイズを可能にするために Media CDN の Network Actions のプレビュー版を発表します。これは、オープンソースのウェブ アセンブリに基づくフルマネージド サーバーレス ソリューションで、そのプログラマビリティにより、お客様はエッジでリクエスト / レスポンスパスに独自のコードを直接デプロイできるようになります。
Media CDN を利用することで、Paramount+ のようなお客様は、世界中に広がる YouTube の 20 億人のユーザーにサービスを提供するよう、Google がテストし、調整済みのものと同じ Google インフラストラクチャ上に、高品質なエクスペリエンスを提供できます。
「ストリーミングは、Paramount Global の重要な成長分野の一つです。トラフィックを Media CDN に移行したところ、一貫して優れたパフォーマンスとオフロード メトリックが認められました。Google Cloud と提携することで、加入者に最高水準の品質の視聴体験を提供できます」と、Paramount Global の動画テクノロジー グループ担当シニアバイス プレジテント Chris Xiques 氏は述べています。
お客様のワークロードで Google Cloud を活用
Google Cloud には、規制のある市場のお客様と、厳格な準拠法のある国のお客様向けに多様なサービスがあり、さまざまなレベルの主権の実現をサポートします。T-Systems による主権制御が一般提供され、Thales と Google のパートナーシップに基づく S3NS によるローカル コントロールはプレビュー版でご利用いただけます。数か月以内に、他の新しいリージョンと市場に関する発表を計画しています。最も厳しい主権のニーズを満たすため、Google Distributed Cloud Hosted を提供します。これは、お客様が選択したサイトにデプロイされている、非接続の Google Cloud のフットプリント向けです。
既存のサービスについては、お客様がクラウドを利用する場所も方法も思いのままにできるようなオプションを増やせるよう、機能の拡張も予定しています。
Anthos は、最新のアプリを一貫性を保持しつつ大規模に実行するための、Google のクラウド中心のコンテナ プラットフォームです。ユーザー インターフェースがより堅牢になり、フリート管理エクスペリエンスがアップグレードされました。クラスタがどこで稼働しているかにかかわらず、1 つのダッシュボードまたはコマンドライン インターフェースから同じ方法で、Anthos clusters を作成、更新、再構成します。新しいフリート管理機能によって、クラウドやオンプレミス全体で、エッジやさまざまなユースケース(開発と本番環境の分離、フリート固有のセキュリティ管理の適用、フリート全体への構成の適用など)について、コンテナ クラスタの増加するフリートを管理できます。また、小売業界のエッジ環境に向けた Anthos clusters での仮想マシンサポートの一般提供が開始されることになりました。場所を問わずに最新のアプリケーションを実行する場合に、Anthos がどのように役立つかについては、ブレイクアウト セッション MOD208 をご覧ください。
Google Distributed Cloud Edge GPU 最適化構成が、12 個の Nvidia T4 GPU で駆動するサーバーラック フォーム ファクタで一般提供されます。GDC Edge は、メインの Google Cloud 環境を補完するものとして、または独立したエッジデプロイとして、低レイテンシと高性能のハイブリッド ワークロードを利用できるように設計されています。Google は、拡張現実や小売業のセルフレジなどのワークロードをお客様とパートナーが先行して導入している事例を目にしています。さらに、ソフトウェア パートナーの 66degrees は、GDC Edge GPU 最適化を活用して、店舗の商品在庫に関するリアルタイムの分析情報を提供し、Ipsotek は、エッジでのマシン インテリジェンスを使用して、ショッピングモール、空港、鉄道の駅などの広い場所での客層と来客数の分析を実行します。GDC Edge と、新しいパートナーが実証済みのソリューションについて詳しくは、こちらをご覧になるか、ブレイクアウト セッション MOD207 で、データセンターのモダナイズとエッジの加速化をどのように実現するかをご覧ください。
クラウド ファースト ワークロード向けインフラストラクチャの構成要素
大半の新しいプロジェクトで、デベロッパーはクラウド ファーストに最適化されたワークロードを好み、デベロッパーのほぼ半数が、今ではコンテナを使用しています。Google Kubernetes Engine(GKE)は、現在の市場で最も自動化された、スケーラブルなコンテナ管理サービスです。GKE Autopilot を使用すると、デベロッパーは他の主要なクラウド プロバイダよりも迅速に運用を開始できます。Next ‘22 で、Google は以下を公開します。
新しいワークショップで、GKE Autopilot による業務の効率化とイノベーションの実現方法を学びます。登録して使ってみましょう。
GKE の新しいセキュリティ体制管理ダッシュボードでは、Kubernetes セキュリティに関する独自のガイダンスとともに、Kubernetes クラスタとワークロードのセキュリティ体制改善を効果的に支援するバンドルツールを提供します。
スケーラブルなウェブ アプリケーションの構築や、軽量バッチ処理を必要とするバックグラウンド ジョブの実行では、デベロッパーはサーバーレス テクノロジーを利用することが多くなっています。Google のマネージド サーバーレス コンピューティング サービスである Cloud Run へのさまざまな更新で、デベロッパーのサーバーレス環境の選択を支援します。
新しい Cloud Run のインテグレーションによって、Cloud Run と Google Cloud サービスの連携がスムーズになります。たとえば、ロードバランサによるドメインの構成や Redis キャッシュへの接続が、ワンクリックと同様の簡単さで行えます。便利な場面が今後さらに増えるでしょう。
Cloud Run のカスタマイズされたヘルスチェックが現在、プレビュー版でご利用いただけます。ユーザー定義の HTTP と TCP 起動プローブをコンテナレベルで提供します。この機能によって、Cloud Run のユーザーは、アプリケーション開始のタイミング、トラフィックの供給を開始できるタイミング、最初の初期化で追加の起動時間が必要になるアプリケーションに特に有効なタイミングに関する基準を定義できます。
お客様が継続的デプロイを簡単にできるよう、Google はフルマネージド型継続的デプロイ サービスである Cloud Deploy と Cloud Run のインテグレーションを追加しました。このインテグレーションで Cloud Deploy から直接 Cloud Run に継続的デプロイを行えるようになります。ワンクリックの承認とロールバック、エンタープライズ セキュリティおよび監査機能、組み込みの配信指標が利用できます。詳細は Cloud Deploy のウェブページをご覧ください。
Cloud Run を使用した、次のレベルのウェブ アプリケーションの構築方法について詳しくは、ブレイクアウト セッション BLD203 をご覧ください。
ワークロードを最初から作り上げる、信頼できる構成要素も必要です。そこでソフトウェア デリバリー シールドのご利用をおすすめします。これには、ソフトウェア サプライ チェーンの保護に役立つフルマネージド エンドツーエンド ソリューションを提供する包括的な一連のツールが用意されています。ソフトウェア デリバリー シールドの発表には、次の発表も含まれています。
Cloud Workstations(現在プレビュー版)は、機密性の高いエンタープライズのニーズに応えるように構築された、フルマネージド型の開発環境を提供します。Cloud Workstations を使用すると、開発者は、時間や場所を問わずにブラウザから安全かつ高速でカスタマイズ可能な開発環境にアクセスでき、一貫した構成やカスタマイズ可能なツールを利用できます。Cloud Workstations の詳細はウェブページをご覧ください。また、ブレイクアウト セッション BLD100 もご覧ください。
新しい JetBrains とのパートナーシップにより、Cloud Workstations の一部として、フルマネージド Jetbrains IDE が提供されます。このインテグレーションで、デベロッパーは管理チームのオーバーヘッドを最小限に抑えながら、広く利用されているいくつかの IDE にアクセスできるようになります。
こちらでソフトウェア デリバリー シールドの詳細をご覧ください。
オープンソースとオープン標準は、アプリケーションの構築にとって重要な役割を果たします。そのため、Google は Eclipse Adoptium Working Group に参加しました。このグループは、Java ディストリビューション向けに、質の高いデベロッパー中心基準の確立に取り組む、Java コミュニティのリーダーで構成されるコンソーシアムです。また、Eclipse Temurin が Google Cloud プロダクトとサービス全体で利用できるようになります。Eclipse Temurin は、Java 開発者に対し、統合型のエンタープライズ指向ソリューションを安定して作成するための高品質の開発者エクスペリエンスと多くの機会を提供します。
Web3 最適化インフラストラクチャで新たなテクノロジーを開拓
Web3 は今や注目の的であり、ブロックチェーンのより広範なメリット、ユースケース、中核となる機能の開発への注力には目を見張るものがあります。Google は、お客様が Web3 領域でのイノベーション(ユーザーの価値を十分に引き出し、何十億ものユーザーを Web3 エコシステムに引き付ける次のレベルのアプリを構築する)に思う存分時間を使えるように、スケーラビリティ、信頼性、セキュリティ、データでお客様をサポートします。
Near、Nansen、Solana、Blockdaemon、Dapper Labs & Sky Mavis といった企業が、Google Cloud のインフラストラクチャを使用しています。昨日 Google は、成長を続ける Web3 エコシステムへのサービスを改善するため、Coinbase との戦略的パートナーシップ提携を発表しました。
「当社は、Web3 エコノミーへの信頼できる橋を構築し、ブロックチェーン テクノロジーのより広範な成長と導入を推進するというビジョンの実現のための、優れたパートナーを見つけることができずにいました。私は、すべての人により利用しやすい金融システムを作成するという目標を掲げて Coinbase を創立しました。オープンソースと分散型エコシステムのサポートに関する Google の歴史が、この目標に最も適していました。Google とのパートナーシップは、重要な転換点となりました。双方の連携の下、ブロックチェーン導入の障壁が取り払われ、イノベーションを加速化させています。」 - Coinbase、CEO Brian Armstrong 氏
従来のワークロードのリフト & 変換
すべてのワークロードがクラウドで生まれたわけではなく、クラウドへの移行もすべてが完了しているわけではありません。Google Cloud は、従来のワークロードを現状のまま移行するか、簡単な最適化を行うか、完全にモダナイズして変換するかを問わず、新しいクラウドの時代向けに最適化できるようサポートする、さまざまなプログラムと機能を提供します。
移行センター - 現在はプレビュー版です。クラウドへの移行と、ビジネスの変革を望む組織にとって、移行センターは統合型の移行とモダナイゼーション エクスペリエンスを提供することで、複雑さ、時間、費用の削減に貢献します。移行センターは、評価、計画、移行、モダナイゼーションのツールを共有データ プラットフォームと一緒に 1 か所にまとめたものです。これで、クラウドへの移行をより迅速に、インテリジェントに、容易に進めることができます。詳しくは、移行センターのウェブページをご覧ください。
Google Cloud VMware Engine - Google Cloud は、VMware Cloud Universal サポートとともに市場に進出した最初の VMware パートナーで、オンプレミス VMware VM を、クラウド内の VMware Engine に移行するプロセスを簡素化しました。クラウド市場をリードする、1 つのサイトで 99.99% の可用性を保証する SLA を使用して、VMware Engine は Carrefour のような大企業の Google Cloud への移行をサポートします。
Dual Run for Google Cloud - 現在はプレビュー版です。この種類では初のソリューションで、お客様が既存のメインフレームと、そのモダナイズ版を Google Cloud 上で同時に実行できるようにすることで、メインフレームのモダナイゼーションに関連する一般的なリスクの多くを排除できます。 これは、お客様がリアルタイムのテストを実行でき、ビジネスを中断することなく、パフォーマンスと安定性に関するデータを迅速に収集できることを意味します。2 つのシステムのパフォーマンスが機能的に同等であることを確認できたら、お客様は Google Cloud 環境を記録システムにでき、必要に応じて(通常はバックアップとして)既存のメインフレーム システムを運用できます。Dual Run の詳細については、こちらのプレスリリースか、メインフレーム モダナイゼーションのウェブページをご覧ください。
Google Cloud Workload Manager - 現在、SAP ワークロード用はプレビュー版で Google Cloud コンソールで利用可能な Workload Manager では、システムの品質、信頼性、パフォーマンスの継続的な改善をサポートする Google Cloud 上のエンタープライズ システムの自動分析を利用できます。Google Cloud Workload Manager は、文書化されている標準とベスト プラクティスからの逸脱を検出することで SAP ワークロードを評価し、問題をプロアクティブに防ぎ、ワークロードを継続的に分析して、システムのトラブルシューティングを簡素化します。
Global Payments や Loblaw Technology などの企業が、移行をどのように容易かつ迅速に行ったかについては、ブレイクアウト セッション MOD104 をご覧ください。
すべてのワークロードを保護する
すべてのワークロードの基盤はストレージです。本年、Google は Cloud Storage のデュアルリージョン バケットでサポート対象リージョンの数を拡張しました(一般提供)。これで、ワークロードを保護できるようになりました。サービスが停止した場合でも、アプリケーションは代替リージョンでデータに簡単にアクセスできます。デュアルリージョン バケットでターボ レプリケーション(一般提供)を追加できます。ターボ レプリケーションは、15 分のリカバリ ポイント目標(RPO)SLA によって保証されています。
さらに、Google Cloud のバックアップと DR サービス(一般提供)も発表したところです。このサービスは、重要なアプリケーションとデータベース向けの、完全統合型データ保護ソリューションで、Google Cloud コンソール内で直接データ保護と障害復旧ポリシーを一元管理し、数回のマウスクリックで、データベースとアプリケーションを完全に保護します。
ストレージのベスト プラクティスについて詳しくは、ブレイクアウト セッション MOD206 をご覧ください。
ネットワーク トラフィックの移行、監視、保護
また、Google は、Cloud Networking ポートフォリオに多くの新機能と機能強化を提供しました。これで、Google Cloud 間を移動するワークロードの移行、モダナイズ、保護、監視をサポートします。
Private Service Connect では、ユーザーと 5 社の新しいパートナーとの統合が管理体制を強化し、移行を簡素化します。
Network Intelligence Center は、Google Cloud とインターネット間のレイテンシを可視化するパフォーマンス ダッシュボードなどの改善された機能を使用して、お客様のネットワークをモニタリングできます。
Google では、Cloud ファイアウォール サービスを拡張し、Cloud Firewall Essentials と Cloud Firewall Standard の 2 つの新しい層を導入しました。
ネットワークの新機能について詳しくは、こちらのブログと、ブレイクアウト セッション MOD205 をご覧ください。
費用の最適化
お客様のワークロードは、投資に対する収益率を最大限に高める、技術的なオプションと商用オプションも必要としています。この状況に役立つ機能拡張をいくつかご紹介します。
Flex CUD - 2022 年 10 月 21 日に一般提供される、柔軟な確約利用割引で、1 年間または 3 年間の確約と引き換えに、オンデマンドの Compute Engine VM 料金が最大 46% 削減されます。標準 CUD と同様、同じ請求先アカウント内のプロジェクト全体にまたがる Flex CUD を、さまざまなサイズ、複数のオペレーティング システムの VM に適用できます。詳細はこちらをご覧ください。
Batch - 一般提供を開始しました。Batch はフルマネージド サービスで、バッチジョブの容易かつ確実、大規模な実行をサポートします。Batch では追加のソフトウェアをインストールする必要がなく、リソースのプロビジョニング、スケジューリング、キューイング、実行を動的かつ効率的に管理し、お客様が結果の分析に集中できるようにします。Batch の使用には料金はかかりません。タスクの実行に使用したリソースに対してのみ課金されます。
Google Cloud を使用して、費用節約のためにどのように最適化できるかについては、MOD103 をご覧ください。
サステナビリティのための最適化
開発した新しいワークロードはすべて、できるだけ二酸化炭素排出量を抑える必要があります。Google Cloud Carbon Footprint は、クラウドの二酸化炭素排出量の計測、レポート、削減に役立ち、一般提供を開始しました。Google は昨年 Carbon Footprint を導入して以来、スコープ 1、2、3 の排出量に対応する機能を加え、サステナビリティ チームなどの他のユーザーへのロールベースのアクセス権を提供してきました。Active Assist の放置プロジェクトの除外に関する二酸化炭素排出量の見積もりも、一般提供を開始しました。二酸化炭素排出量を低減したサステナブルなクラウドを構築する方法について詳しくは、MOD103 をご覧ください。今すぐ Carbon Footprint の利用を開始しましょう。
「Box では、二酸化炭素排出量を削減することに集中していました。持続的な運営を目指す当社の継続的な取り組みにおいて、Carbon Footprint ツールが提供する可視性と透明性は非常に役立ちます。」 - Box、Box.org コミュニティおよびインパクト担当バイス プレジデント兼エグゼクティブ ディレクター Corrie Conrad 氏
「SAP では、2030 年までに実質的にゼロにするという目標達成に向かって取り組んでいます。当社のバリュー チェーン全体の二酸化炭素排出量を測定することは非常に重要です。二酸化炭素排出量に関する Google Cloud との連携で、正確な排出量データがタイムリーに利用できるようになり、当社の多くのソリューション分野でよりサステナブルな意思決定を下せるようになりました。」 - SAP シニアバイス プレジデント兼マルチクラウド プロダクトおよびサービス担当責任者 Thomas Lee 氏
ワークロード中心の設計
今回ご紹介したのは、ワークロードで使用できる多くの最良パスのごく一部にすぎません。Google は、最も直感的に使用できる「オープンなインフラストラクチャ クラウド」を目指しています。あらゆるものがワークロードを中心に設計され、多大な TCO 上のメリットを提供しているからです。
こちらの詳細については、モダナイズのブレイクアウト セッション トラックと、オンデマンドで視聴できる、次の Next ’22 の「新機能」セッションをご覧ください。
MOD105 では、エンタープライズ アーキテクトと開発者向けの、新しいインフラストラクチャ ソリューションを紹介しています。
BLD106 では、デベロッパーによるアプリケーションの構築、デプロイ、実行に役立つ新機能を紹介しています。
OPE100 では、DevOps チーム、システム管理者、オペレーター向けの重大発表を紹介しています。
- インフラストラクチャ担当バイス プレジデント兼ゼネラル マネージャー Sachin Gupta
- クラウド アプリケーション エコシステム部門バイス プレジデント兼ゼネラル マネージャー Michael Weingartner