Cloud TPU について
Google Cloud Japan Team
※この投稿は米国時間 2020 年 5 月 9 日に、Google Cloud blog に投稿されたものの抄訳です。
編集者注: Yufeng Guo は AI テクノロジーを専門とするデベロッパー アドボケイトです。
実行するワークロードの種類にかかわらず、Google はより優れた計算能力を常に模索しています。汎用プロセッサでは、物理法則という厳しい限界にすぐに直面してしまいます。しかも、機械学習で実現しようとしていることは複雑化の一途をたどるばかりで、高いコンピューティング能力が求められています。
こうした特定の用途向けに計算能力が必要になったことがきっかけで、最初の Tensor Processing Unit(TPU)が誕生しました。Google 独自の TPU は機械学習ワークロードに取り組むために設計されており、Google Cloud のお客様にもご利用いただけるようになっています。TPU とは何か、なぜ TPU が構築されたのかについての理解を深めていくことで、より優れた機械学習アーキテクチャやソフトウェア システムを設計し、今後さらに複雑な問題に取り組むことができます。
この動画シリーズは 2 部構成で、専用の AI チップの原点と、TPU が AI の課題に特化している理由について紹介します。
最初の動画では、TPU の歴史とハードウェアについて説明します。Google が、翻訳、フォト、検索などの AI ワークロード向けのアプリケーション固有の集積回路(ASIC)を開発した理由について学ぶことができます。また、TPU アーキテクチャと、CPU や GPU との違いについても取り上げています。
次に説明するのは、Google Cloud を通じて一般提供されている TPU v2 と v3 の詳細です。Cloud TPU Pod での多数の接続など、パフォーマンス機能の詳細を学ぶことができます。この動画では、基本的なベンチマークの例や、TensorFlow 2.0 や Keras API によるユーザビリティの新たな改善点についても説明しています。
Cloud TPU や料金について詳しくはウェブサイトをご覧ください。使用開始方法についてはドキュメントをご確認ください。また、Google の Kaggle コミュニティで TPU を使用して複数の言語にわたって悪質なコメントを特定するゲーム(第 2 回戦)に参加することもできます。 AI に関する一般的な情報についての詳細は、YouTube の AI Adventures シリーズをご覧ください。
- By Google Cloud Platform デベロッパー アドボケイト Yufeng Guo