Google Cloud Next Tokyo:7/30、31 東京ビッグサイトにて開催!

リアルタイム分析と AI

イベント ストリームをリアルタイムに取り込んで処理し、分析します。Google Cloud のリアルタイム分析ソリューションによって、データが生成された瞬間から整理され、便利で使いやすいものになり、リアルタイム データが AI モデルに提供されます。

利点

リアルタイム データを統合

AI 対応の統合データ プラットフォームの一部として、リアルタイム データから価値を創出

統合プラットフォームのリアルタイム データは、即座に分析情報を提供し、アジャイルな意思決定を強化して、カスタマー エクスペリエンスを向上させ、市場の変化に迅速に適応できるようにします。データサイロを解消して、より迅速かつ応答性の高い組織を実現。



データ エンジニアリング チームが好みのオープンソース ソフトウェアを柔軟に選択できるようにする

フルマネージドのストリーミング インフラストラクチャにより、スケーラビリティ、パフォーマンス チューニング、リソース プロビジョニングが解決されます。SQLApache BeamApache Kafka のサポートにより、選択肢と柔軟性が得られます。

運用システムと分析システムの間のサイロを解消して統合する

Google Cloud のリアルタイム機能は、分析システムと運用システムにまたがるデータサイロを解消します。BigQuerySpanner でライブの運用データをクエリし、リバース ETL で BigTable に分析情報を push して、BigQuery、AlloyDB、Vertex AI を生成 AI と ML に活用

主な機能

リアルタイムが簡単に実現

複雑なイベントにシンプルな取り込みを採用

Pub/Sub を使用すると、世界中のほぼすべての場所にあるアプリケーションやデバイスから、1 秒間に億単位のイベントを取り込んで分析できます。BigQuery のストリーミング API を使用すれば、SQL ベースの分析用に、毎秒数百万ものイベントをデータ ウェアハウスに直接ストリーミングできます。また、Datastream を使用して、リレーショナル データベースからサーバーレス プラットフォーム上の BigQuery にデータを直接複製できます。

ロックインなしでストリーミングとバッチ処理を統合

ストリーミング データ分析とバッチデータ分析の統合は同様に簡単。Dataflow で統合的なデータ パイプラインを構築できます。Dataflow は 1 回限りの処理を確保するため、ミッション クリティカルなアプリケーションでストリーミング パイプラインの信頼性と一貫性が高まります。 データ エンジニアは、Dataflow のオープンソース SDK、Apache Beam を使用してコードを再利用できます。この SDK では、ハイブリッド環境またはマルチクラウド環境間でパイプラインを移植できます。

次世代の AI を検討しながら現在のツールを使い続ける

Confluent CloudManaged Service for Apache Spark を使用して、オンプレミスの Apache Kafka ベースと Apache Spark ベースのソリューションをブリッジ、移行、拡張します。Data Fusion の GUI と組み合わせると、データ アナリストとエンジニアは数回のクリックでストリーミング パイプラインを構築できます。Google の Vertex AI Workbench ソリューションをストリーミング分析パイプラインに埋め込むことで、リアルタイムでのパーソナライズ、異常検出、予測メンテナンスのシナリオが可能になります。

準備ができたらお問い合わせ

次のステップ

取り組んでいる課題をお聞かせください。Google Cloud のエキスパートが、最適なソリューションを見つけるお手伝いをいたします。

  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud