ソリューション

ストリーム分析

イベント ストリームをリアルタイムに取り込み、処理し、分析する

Google Cloud のストリーム分析では、データは生成された瞬間から整理され、便利で使いやすいものになります。Pub/Sub、Dataflow、BigQuery の自動スケーリング インフラストラクチャ上に構築された Google のストリーミング ソリューションにより、変動するリアルタイムのデータ ボリュームの取り込み、処理、分析に必要なリソースをプロビジョニングして、リアルタイムなビジネス分析情報を取得できるようになります。プロビジョニングが抽象化されて複雑さが軽減されるため、データ アナリストとデータ エンジニアのいずれもストリーム分析にアクセスできます。

導入事例

所要時間: 6 分

導入事例を読む

事例のハイライト

  • Google Cloud で 1 対 1 のパーソナライズ ユーザー インタラクションを構築

  • 14 億人以上のユーザーに対するリアルタイム予測

  • AI プラットフォームのコストを 70% 削減

パートナー

すべてのお客様を表示

リアルタイムが簡単に実現

インフラストラクチャをスケールアップして問題を削減

Google Cloud のストリーミング インフラストラクチャは、データの分析ニーズに合わせて自動スケーリングできます。オーバープロビジョニングや未使用のリソースに余計なコストを支払う必要がありません。可変データ ボリューム、パフォーマンス調整、リソース プロビジョニングなどの課題を Google Cloud に任せることができます。

複雑なイベントにシンプルな取り込みを採用

Pub/Sub を使用すると、世界中のほぼすべての場所にあるアプリケーションやデバイスから、1 秒間に億単位のイベントを取り込んで分析できます。また、BigQuery のストリーミング API を使用すれば、SQL ベースの分析用に、毎秒数百万ものイベントをデータ ウェアハウスに直接ストリーミングできます。

ロックインなしでストリーミングとバッチ処理を統合

ストリーミング分析またはバッチデータ分析も簡単に統合して、Dataflow で統合的なデータ パイプラインを構築できます。データ エンジニアは、Dataflow のオープンソース SDK、Apache Beam を使用してコードを再利用できます。この SDK では、ハイブリッド環境またはマルチクラウド環境間でパイプラインを移植できます。Dataflow は 1 回限りの処理を確保するため、ミッション クリティカルなアプリケーションでストリーミング パイプラインの信頼性と一貫性が高まります。

次世代の AI を検討しながら現在のツールを使い続ける

Confluent Cloud と Dataproc を使用して、オンプレミスの Apache Kafka ベースと Apache Spark ベースのソリューションをブリッジ、移行、拡張します。Data Fusion の GUI と組み合わせると、データ アナリストとエンジニアは数回のクリックでストリーミング パイプラインを構築できます。Google の高度な ML ソリューションと AI ソリューションをストリーム分析パイプラインに埋め込むことで、リアルタイムでのパーソナライズ、異常検出、メンテナンスの予測シナリオが可能になります。

おすすめのプロダクトとサービス

ストリーム分析ソリューションの活用に役立つプロダクトをご覧ください。