コンテンツに移動
Transform with Google Cloud

生成 AI の時代に対応するためのエンタープライズ向け機能

2023年11月14日
https://storage.googleapis.com/gweb-cloudblog-publish/images/gen_ai_YnjQmbm.max-2500x2500.jpg
Google Cloud Japan Team

生成 AI の時代が到来しました。生成 AI は、プライベートでも仕事でも、私たちの創造、関係構築、共同作業の手法を刷新する可能性を秘めた革新的な技術です。生成 AI は、私たちの集合知、創造性、洞察を利用して、かつては想像もできなかった新たな機会をもたらし、これまでの常識を覆します。しかし、このイノベーションに直面した多くの企業が、この高度なツールのインテグレーションと導入に関して数々の疑問を抱えています。

Google Cloud は、プライバシー、セキュリティ、コンプライアンスの機能を提供することで、お客様が生成 AI の可能性を最大限に引き出すことができるよう支援したいと考えています。Google Cloud の目標は、システムの保護、透明性の実現、柔軟で常時利用可能なインフラストラクチャの提供により信頼関係を築くとともに、そのすべての取り組みの基盤を AI に関する原則とすることです。

今回の投稿では、次世代の生成 AI を構築するためのエンタープライズ対応ソリューションとして Google Cloud がお客様に選ばれる理由と、AI とデータに関する専門知識を活かして中小規模企業にも大企業にも等しく有用なプロダクトを開発している Google Cloud のアプローチをご紹介します。

Google Cloud のデータ ガバナンス、プライバシー、補償

生成 AI の世界では、データ ガバナンスとプライバシーが最重要です。このため Google Cloud は、お客様が常にデータを管理できるよう支援し、企業の情報を不正アクセスから保護することを使命としています。

大前提として、お客様のデータはお客様のものであり、お客様の許可なく Google が使用することはありません。Google が「お客様のデータ」と表現する場合、入力プロンプト、モデル出力、チューニング データなど、お客様が Google Cloud に保存したすべての顧客データが含まれます。これらはすべて、お客様のデータと IP の一部です。お客様の許可または指示なく Google がお客様のデータをモデルのトレーニングに利用することは決してありません。お客様のデータは本来、お客様が指定した明確な目的のためにお客様が使用するものです。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Enterprise_tumbnail_2_1.max-2000x2000.png

Google は、責任あるデータの使用を確実に実現するために、トレーニング データの重複除去や安全フィルタなどの手法を採用しています。Google 社内のトレーニング データの重複除去によって重複が解消され、システムの効率が向上します。また、安全フィルタによって、モデルによるトレーニング データやその他の問題のあるコンテンツの再生成を回避できます。

お客様が Google の基盤モデルで生成した出力も、お客様のデータです。この姿勢を明確にするために、生成 AI に関する知的財産の補償を拡大しました。この 2 本柱の補償アプローチは、Google のサービスを責任ある方法で利用しているお客様に適用され、1) Google のすべての生成 AI サービスで利用される基盤モデルを作成することを目的とした Google によるトレーニング データの使用および 2) お客様が特定のサービスのために生成した出力を対象とします。トレーニング データに関する補償はこれまでも Google の利用規約に盛り込まれていましたが、お客様に対してより明確に説明することにしました。

これらの安全保護対策により、お客様はデータ ガバナンスとプライバシーを犠牲にせずに確信をもって生成 AI を活用できます。Google は、明瞭性、簡潔性、真正性をもって現実の問題を解決することが重要であると考えています。

Google Cloud のセキュリティおよびコンプライアンスへの対応

Vertex AI ではすでに堅牢なデータ コミットメントを提供しており、Google の基盤モデルのトレーニングのためにデータとモデルが使用されることも、他のお客様にデータとモデルが漏洩することもありません。その一方、多くの企業は、(1) データの保護に関する懸念と、(2) 個人情報(PI)や個人を特定できる情報(PII)などの機密データを含む自社データを使用してモデルのカスタマイズやトレーニングを行う場合のリスクの削減に関する懸念を抱えています。多くの場合、この個人データは、モデルが適切に機能するために必要なコンテキストに包まれています。効果的なデータの分割、匿名化、保護を実現するために、Google は次のような効果的なツールとサービスを開発し、その最適化を継続しています。

  • 機密データの保護サービス: マスキングやトークン化など、機密データの検出と変換のオプションを提供し、トレーニングからチューニング、推論まで、生成 AI モデルのライフサイクル全体で何層ものデータ保護を追加します。
  • VPC Service Controls: 定義済みのデータ境界内における安全なデプロイを実現します。VPC SC を使用して境界を定義することで、リソースの分離、アクセスの管理と制限、データの引き出しまたは漏洩のリスク削減が可能になります。

Google は今後も、Assured Workloads や管理者によるアクセスの透明性とアクセスの承認などのデジタル主権ソリューションに投資し、これらを拡大していきます。規制対象になっているお客様のクラウド環境に革新的なサードパーティ ソリューションを導入するために、規制対象ソリューションおよび主権ソリューションに関するパートナー イニシアチブの拡大にも引き続き取り組んでいきます。

Google は、高レベルのセキュリティと管理機能を提供するだけでなく、お客様のコンプライアンス プロセスにも注力しています。顧客データの使用に関する透明性の確保やお客様のデータ保護影響評価(DPIA)のサポートなど、GDPR および HIPAA のプライバシー サポートに包括的に取り組んでいます。担当チームが新たな規制や更新された規制を詳細にモニタリングして分析しており、円卓会議やその他のフォーラムを介して定期的に規制機関に働きかけ、規制機関の情報に関するリクエストに対応しています。

Google Cloud のインフラストラクチャの信頼性とサステナビリティ

大規模な生成 AI モデルを構築して本番環境で運用するには、専用の膨大なコンピューティング能力、データ処理能力、ワークロードの同時読み込み能力が必要です。このため、企業は AI ワークロードに特化したインフラストラクチャを導入しています。Google は、お客様が AI プロジェクトのパフォーマンス、費用、信頼性に関するニーズを満たすことができるよう、Google Cloud やパートナーの幅広いオプションを提供しています。この柔軟性こそ、生成 AI ユニコーンの 70% が Google Cloud を導入して AI インフラストラクチャとしている理由です。

まず、Tensor Processing Unit(TPU)は、PaLM 2 などの大規模言語モデルのトレーニングと提供に必要な、データ量の多いワークロードに対応できるように設計されています。生成 AI のワークロードによって要件は異なるため、Google Cloud とパートナー エコシステムは幅広いコンピューティング オプションを提供しています。たとえば、大規模モデルのトレーニングと推論向けに最適化された NVIDIA の最新のアクセラレータなどがあります。さらに、Google の Deep Learning VM にはよく使用される AI フレームワークがあらかじめ構成されているため、ソフトウェアの互換性を気にすることなく迅速かつ簡単にディープ ラーニング プロジェクトを開始できます。

これらの機能により、企業はインフラストラクチャに関する懸念ではなく顧客に集中できます。Google Cloud と連携すれば、負担の大きな作業には Google Cloud が対応するため、お客様はユーザーに中断のないサービスを提供できます。レジリエンスとスケーラビリティを備え、エネルギー効率に優れたグロバール ネットワークが、必要な高可用性パフォーマンスをわずかな炭素費用でお届します。

Google のお客様は、サステナビリティに関する目標を上回るための手法を継続的に模索しています。サステナビリティとカーボン ニュートラルの達成に対する Google の取り組みにより、お客様は環境フットプリントを軽度に抑え、揺るぎない信頼を獲得することができます。Google Cloud のインフラストラクチャは、単に最新の技術を提供するだけではありません。技術と運用を構成するあらゆる要素の中核にはサステナビリティがあり、責任を持ってこうした技術をお届けしています。

責任ある AI: Google の取り組み

Google の原則に示されているように、Google Cloud は AI のメリットを最大限に引き出す一方で事前にリスクを軽減しており、同じことを企業でも簡単に行えるようにしたいと考えています。Google Cloud は、責任ある AI の開発と使用を確実に実現するために、多面的なアプローチを採用しています。開発からデプロイまで、ML のライフサイクル全体で責任ある手法によって AI プロダクトを構築しているため、お客様には安心してプロダクトをご利用いただけます。責任を持って大規模モデルのデータセットをキュレートし、ヘイトスピーチ、人種差別、有害性などの後から発生する懸念材料に対処できるようにしています。

トレーニング中に、有害な結果をもたらす可能性があるさまざまなシナリオでモデルのストレステストを実施し、それらのリスクを軽減するようにモデルを調整します。デプロイ時には、お客様と連携して責任ある AI フレームワークと評価を作成、スケールするなど、お客様が責任を持って AI を運用できるようさまざまなサポートを行います。たとえば、偏見、有害性、その他の有害なコンテンツを含む懸念にお客様が対処できるようにする安全フィルタを提供しています。

Google Cloud は、簡潔性、透明性、真実性を常に重視しながら、現実世界の問題を解決することに注力しています。データ ガバナンス、プライバシー、セキュリティ、コンプライアンス、インフラストラクチャの信頼性、責任ある AI の手法に関して包括的なアプローチを採用している Google のプロダクトは、エンタープライズでの使用とスケールに最適です。Google Cloud は、お客様が安全でサステナブルな責任ある方法で生成 AI の可能性を最大限に引き出すことができるよう支援するこのアプローチを大切にしています。

-Google Cloud AI および業界別ソリューション担当バイス プレジデント、June Yang

投稿先