イベント ストリームをリアルタイムに取り込んで処理し、分析します。Google Cloud のリアルタイム分析ソリューションによって、データが生成された瞬間から整理され、便利で使いやすいものになり、リアルタイム データが AI モデルに提供されます。
利点
AI 対応の統合データ プラットフォームの一部として、リアルタイム データから価値を創出
統合プラットフォームのリアルタイム データは、即座に分析情報を提供し、アジャイルな意思決定を強化して、カスタマー エクスペリエンスを向上させ、市場の変化に迅速に適応できるようにします。データサイロを解消して、より迅速かつ応答性の高い組織を実現。
データ エンジニアリング チームが好みのオープンソース ソフトウェアを柔軟に選択できるようにする
フルマネージドのストリーミング インフラストラクチャにより、スケーラビリティ、パフォーマンス チューニング、リソース プロビジョニングが解決されます。SQL、Apache Beam、Apache Kafka のサポートにより、選択肢と柔軟性が得られます。
主な機能
Pub/Sub を使用すると、世界中のほぼすべての場所にあるアプリケーションやデバイスから、1 秒間に億単位のイベントを取り込んで分析できます。BigQuery のストリーミング API を使用すれば、SQL ベースの分析用に、毎秒数百万ものイベントをデータ ウェアハウスに直接ストリーミングできます。また、Datastream を使用して、リレーショナル データベースからサーバーレス プラットフォーム上の BigQuery にデータを直接複製できます。
ストリーミング データ分析とバッチデータ分析の統合は同様に簡単。Dataflow で統合的なデータ パイプラインを構築できます。Dataflow は 1 回限りの処理を確保するため、ミッション クリティカルなアプリケーションでストリーミング パイプラインの信頼性と一貫性が高まります。 データ エンジニアは、Dataflow のオープンソース SDK、Apache Beam を使用してコードを再利用できます。この SDK では、ハイブリッド環境またはマルチクラウド環境間でパイプラインを移植できます。
Confluent Cloud と Managed Service for Apache Spark を使用して、オンプレミスの Apache Kafka ベースと Apache Spark ベースのソリューションをブリッジ、移行、拡張します。Data Fusion の GUI と組み合わせると、データ アナリストとエンジニアは数回のクリックでストリーミング パイプラインを構築できます。Google の Vertex AI Workbench ソリューションをストリーミング分析パイプラインに埋め込むことで、リアルタイムでのパーソナライズ、異常検出、予測メンテナンスのシナリオが可能になります。
準備ができたらお問い合わせ
導入事例
最新情報
Google Cloud のニュースレターにご登録いただくと、プロダクトの最新情報、イベント情報、特典のお知らせなどが配信されます。