Next ’24 2 日目のまとめ: AI エージェントの構築
Google Cloud Japan Team
※この投稿は米国時間 2024 年 4 月 11 日に、Google Cloud blog に投稿されたものの抄訳です。
ラスベガスで Google Cloud Next ‘24 の 2 日目が終了しました。本日はここラスベガスで Gemini と AI エージェントを体験しました。
年に一度のデベロッパー基調講演で、Google Cloud チーフ エバンジェリストの Richard Seroter は聴衆に向かって、現在の Google Cloud Gemini がいかに有用かということだけでなく、「率直に言って、他のどんなモデルよりも多くの可能性を秘めている」と語りました。
Richard とシニア デベロッパー アドボケートの Chloe Condon は、デモをふんだんに使った広範なプレゼンテーションにおいて、Google 社員やパートナーとともに、Google Cloud の顧客が毎日行っている素晴らしいアプリケーションの構築、実行、運用といったコアタスクを支援する Google Cloud AI のテクノロジーと統合について解説しました。
それでは詳しく見ていきましょう。
構築
デベロッパーにとって、まず最初に利用する Google Cloud の生成 AI サービスは、Gemini Code Assist です。Google Cloud VP 兼 GM の Brad Calder は、Code Assist での Gemini 1.5 のサポートにより、業界最大級の 100 万トークンのコンテキスト ウィンドウを実現できるようになったと説明しました。
次に、Google Cloud デベロッパー アドボケートの Jason Davenport は、Gemini Cloud Assist が、特定のクラウド環境やリソースからエラーログ、ロードバランサの構成、ファイアウォール ルールなど、あらゆるコンテキストを使用して、アプリケーションの設計、運用、トラブルシューティング、最適化を簡素化する仕組みを説明しました。
最後に、BigQuery や Looker などの Google Cloud アプリケーション全体に埋め込まれた Gemini、Google Cloud データベースでのベクトル検索とエンべディングのサポート、さらに Cloud Workstation などのデベロッパー ツールや React などのウェブ ユーザー インターフェース ライブラリへのインテグレーションにより、デベロッパーは AI の利点を体験できます。マルチモーダル入力(つまり、テキストと画像の両方)を受け取る AI 機能などを追加して使用すれば、推奨事項、予測、合成をすべて、以前に比べてほんのわずかな時間で作成できるようになりました。Google Cloud プロダクト マネージャーの Femi Akinde と Chloe が、素晴らしいアイデアを基に没入型でインスピレーションあふれる AI アプリをわずか数分で完成させる方法を教えてくれました。
これを可能にする新機能:
-
App Hub - 本日発表。Google Cloud Assist との緊密なインテグレーションにより、App Hub は、使用する特定の Google Cloud プロダクトに関係なく、デプロイされたアプリケーションとそのリソースの依存関係を正確に最新の状態で可視化します。
-
BigQuery 継続的クエリ - プレビュー版。BigQuery は、データ ストリームに対して継続的な SQL 処理を提供できるようになり、AI オペレーターとのリアルタイム パイプライン、リバース ETL を実現できます。
-
AlloyDB の自然言語サポート - Google の最先端の ScaNN アルゴリズムのサポートにより、AlloyDB ユーザーはベクトル パフォーマンスを向上させ、Google で最も人気のある一部のサービスを強化できます。
-
Apigee API Management での Gemini Code Assist の利用: Gemini を使用すると、自然言語でのプロンプトを使ってエンタープライズグレードの API や統合を構築できます。
実行
生成 AI アプリを構築することとは別に、それを本番環境グレードにするにはどうすればよいのでしょうか?「それが今の問題です」と Google Cloud デベロッパー アドボケートの Kaslin Fields は語りました。
幸いにも Cloud Run のような Google Cloud プラットフォームでは、驚くほど短時間でアプリケーションの立ち上げとスケーリングが可能です。一方、Google Kubernetes Engine(GKE)などのプラットフォームは、最も要求の厳しいアプリケーションや独自の AI アプリケーションを強化する堅牢な機能セットを提供しています。
これを可能にする新機能:
-
Cloud Run アプリケーション キャンバス - Vertex AI へのインテグレーションにより、Cloud Run での AI アプリケーションの生成、変更、デプロイが可能になったため、数回クリックするだけで Cloud Run サービスから生成 API を利用できるようになりました。
-
GKE 向け生成 AI クイック スタート ソリューション - GKE での AI の実行に検索拡張生成(RAG)パターンまたは Ray とのインテグレーションを利用します。
-
GKE での Gemma のサポート: GKE は、Gemini をベースとした Google のオープンモデルである Gemma の実行にさまざまなオプションを提供しています。しかも、パフォーマンスにも優れています。
運用
Google Cloud の信頼性アドボケイト Steve McGhee はデベロッパー基調講演で、「AI アプリは新たな動作を生み出し、その結果、新たな問題が発生します」と語りました。
実際、「私たちのシステムでは、おおむね予測どおりに障害が発生することがよくありました」と語るのは、もう 1 人のプレゼンター、Honeycomb.io の共同創設者 / CTO の Charity Majors 氏です。そして現在、「私たちのシステムは動的かつ混沌としていて、アーキテクチャは広範囲にわたって多様性を持ち、常に変化しています。」
しかし、生成 AI は変わらないものに対する予測可能性を奪ったと同時に、私たちが変化を理解し、変化に対処するのに役立つ新しいツールという形で還元してくれます。
これを可能にする新機能:
-
Vertex AI MLOps 機能 - プレビュー版。Vertex AI プロンプト管理により、顧客は移行をテストし、プロンプトとパラメータを追跡できるため、プロンプトの反復を比較して、小さな変更が出力にどのような影響を与えるかを評価できます。一方、Vertex AI Rapid Evaluation は、最適なプロンプトを設計するための反復処理においてモデルのパフォーマンスを評価するのに役立ちます。
-
シャドー API の検出 - プレビュー版。Advanced API Security のシャドー API 検出を使って、適切な監視やガバナンスがなく、有害なセキュリティ インシデントを引き起こす可能性のある API を見つけることができます。
-
AI ワークロードの機密アクセラレータ - NVIDIA Tensor Core H100 GPU を搭載した A3 マシンシリーズで Confidential VMs を利用することで、ハードウェアベースのデータとモデルの保護を CPU から機密性の高い AI および ML データを処理する GPU まで拡張できます。
-
GKE コンテナとモデルのプリロード - プレビュー版。GKE はワークロードのコールドスタートを高速化できるようになりました。これにより GPU 使用率を向上させ、コストを節約し、AI 推論の遅延を抑えることができます。
その後、スポットライト、ブレイクアウト セッション(2 日目だけで 295)、トレーニングと続く一日が始まりました。夜にはパーティーが開催され、参加者は Kings of Leon と Anderson .Paak の音楽を楽しみました。明日の 3 日目も一日を通してセッションが開催され、混雑が予想されます。週初めにセッションを見逃した方のために多くのセッションが再配信されます。ぜひ予定に追加してください。今夜のパーティーにはバッジを忘れずにお持ちください。