コンテンツに移動
AI & 機械学習

AI イノベーションを加速させるオープンソース コラボレーションと主要なパートナーシップ

2022年10月19日
https://storage.googleapis.com/gweb-cloudblog-publish/images/openxla_1.max-2600x2600.jpg
Google Cloud Japan Team

※この投稿は米国時間 2022 年 10 月 12 日に、Google Cloud blog に投稿されたものの抄訳です。

エコシステムが閉鎖的で排他的なものであると、人工知能(AI)や機械学習(ML)のイノベーションを阻む障壁となり、テクノロジー間の非互換性が生じ、ML モデルの迅速かつ簡単な改良が困難になってしまいます。

Google は、柔軟性のない戦略による課題を克服するには、オープンソース ソフトウェア(OSS)が不可欠であると考えています。Cloud Native Computing Foundation(CNCF)の主要な貢献者として、Google は、20 年以上にわたりコミュニティと協力し、OSS プロジェクトをアクセスしやすく透明性のある技術的進歩の促進剤に変える取り組みを行ってきました。Google はあらゆる種類のオープン エコシステムの実現に取り組んでいますが、AI / ML に対しても同じく、AI / ML のイノベーションを一企業だけで独占すべきではないと確信しています。

OpenXLA プロジェクトにおける業界リーダーとのコラボレーション

Google は、新しい OpenXLA Projectの創設メンバー兼貢献者としてこの取り組みをさらに一歩進めていきます。このプロジェクトでは、業界リーダーから成るベンダー中立的なオープン コミュニティをホストし、ML フレームワークをさまざまなハードウェア バックエンドで簡単に使用できるようにして、より迅速で柔軟かつ影響力のある開発の実現を目指します。

https://storage.googleapis.com/gweb-cloudblog-publish/images/OpenXLA_logo.max-2000x2000.jpg

ML 開発は、フレームワークやハードウェア間の非互換性が障害となることが多く、開発者は ML ソリューションを構築する際にテクノロジーについて妥協せざるを得ない状況です。OpenXLA は、コミュニティが主導する、ML コンパイラとインフラストラクチャ プロジェクトのオープンソース エコシステムで、AMD、Arm、Google、Intel、Meta、NVIDIA、その他さまざまな AI / ML リーダーによって共同開発されています。これは、ML 開発者が主要なフレームワーク(TensorFlow、PyTorch、JAX)でモデルを構築して、ハードウェア バックエンド(GPU、CPU、ML アクセラレータ)全体で高いパフォーマンスでモデルを実行できるようにすることで、非互換性の課題に対処します。この柔軟性により、開発者はクローズド システムによって縛られることなく、プロジェクトに適した選択を行えるようになります。このコミュニティでは、まずは TensorFlow から分離された XLA コンパイラと、フレームワークをさまざまなハードウェア オプションに簡単にデプロイできるようにする移植可能な ML 計算オペレーション セットである StableHLO を共同で進化させていきます。これからも進捗状況をお知らせしていきますので、今後の最新情報をご覧ください

オープンソース AI パートナーシップに基づく構築

Google のオープン インフラストラクチャは、ML で新しいブレークスルーをモデル化、テスト、構築するのに最適な場所としてパートナーの皆様にご利用いただいています。Google はパートナーやデベロッパーのコミュニティと協力してオープンソース プロジェクトに取り組んでおり、その取り組みの間もオープンにしています。

たとえば、主要な ML プラットフォームである Hugging Face は、Google と提携して、一般的なオープン ソース モデルを JAX ユーザーが利用できるようにするとともに、モデルに TPU との互換性を持たせるよう取り組んでいます。「オープンソース コラボレーションにより、Stable Diffusion や BLOOM(46 の異なる言語でトレーニングされた GPT-3 に似た大規模な言語モデル)といったモデルを、JAX に最適化された実装を備えた Cloud TPU で簡単に使用できるようになります」と、同社の共同創設者 / 最高科学責任者である Thomas Wolf 氏は語ります。

また、あらゆる組織の AI や Python のワークロードをクラウドで簡単にスケーリングするための Anyscale との連携もあります。Anyscale は Ray を推進する企業です。Ray はスケーラブルな AI と Python に向けたオープンソースの統合フレームワークであり、データの取り込みと前処理、ML トレーニング、ディープ ラーニングをスケーラブルなコンピューティングで実行できるようにします。Ray は ML エコシステムの他のツールと統合されます。

Anyscale の共同創設者 / 理事会会長である Ion Stoica 氏は、次のように述べています。「Google と協力することで、Ray と Anyscale のエンタープライズ向けマネージド Ray プラットフォームの Google Cloud への導入を加速できると期待しています。現在、Anyscale のプラットフォームと Ray はどちらも、Google Cloud と、TPU や GPU などの Google のインフラストラクチャでご利用いただけます。」

Ray は、自然言語処理のリーダーであるパートナーの Cohere にとっても、JAX や TPU v4 チップと同様に大きな役割を果たしています。この組み合わせのおかげで、以前は想像もできなかったほどの速度と規模でモデルをトレーニングできるようになりました。「研究モデルと本番環境モデルを統一されたフレームワークで使用することで、テストをより効率的に評価およびスケーリングすることができます」と、Cohere のエンジニアリング&機械学習担当バイス プレジデントである Bill MacCartney 氏は述べています。

Vision AI の分野では、Plainsight は、Tensorflow、PyTorch、OpenAI の CLIP などの主要なオープンソース プロジェクトで Google Cloud の Vertex AI を使用しています。Plainsight の最高技術責任者である Logan Spears 氏は次のように述べています。「オープンソース テクノロジーと Python などの開発ツールを、Google の業界をリードする機能と組み合わせることで、Plainsight は、業界最高水準の機能に基づいて構築されたソリューションで企業の成功を支援して、イノベーションの速度を高めることができました。」

Google のお客様は、AI コミュニティによるオープンソースの貢献をすでに積極的に利用して、イノベーションを加速しています。そして Google は、業界リーダーとの強力なパートナーシップを通じて、お客様を支援し続けていきます。

オープン ML の未来への投資

Google は、Google のオープンソース イニシアティブの結果として、お客様やパートナーが急速に進歩する ML 分野ですでに達成している驚異的な成果をさらに重ねていけるよう願っています。Google Cloud が多くの組織でオープンソース AI のニーズを満たすために選ばれている理由について詳しくは、OSS AI と ML に貢献してきた Google の歴史に関するブログ投稿をお読みください。また、Google Cloud Next ‘22 セッション「主要な組織がどのようにしてオープンソースをスーパーパワーにしているか」もご覧ください。


- インフラストラクチャ担当バイス プレジデント兼ゼネラル マネージャー Sachin Gupta
投稿先