Build a modern, unified analytics data platform with Google Cloud

Hier erfahren Sie mehr über die notwendigen Entscheidungspunkte beim Aufbau einer modernen, einheitlichen Datenanalyseplattform auf der Grundlage von Google Cloud.

Autoren: Firat Tekiner und Susan Pierce

Übersicht

Es gibt keinen Mangel an Daten, die erstellt werden. Laut Untersuchungen der IDC werden die Daten bis 2025 weltweit auf 175 Zettabyte steigen.1 Die täglich erzeugte Datenmenge ist erstaunlich und es wird für Unternehmen zunehmend schwieriger, diese zugänglich und nutzbar zu erfassen, zu speichern und zu organisieren. Tatsächlich geben 90 % der Datenfachleute an, dass ihre Arbeit durch unzuverlässige Datenquellen ausgebremst wurde. Etwa 86% der Datenanalysten haben mit veralteten Daten zu kämpfen und mehr als 60% der Datennutzer sind davon betroffen, jeden Monat auf Engineering-Ressourcen warten zu müssen, während ihre Daten bereinigt und vorbereitet werden2.

Ineffiziente Organisationsstrukturen und Architekturentscheidungen tragen dazu bei, dass Unternehmen Lücken zwischen dem Aggregieren von Daten und ihrer Nutzung haben. Unternehmen möchten in die Cloud wechseln, um ihre Datenanalysesysteme zu modernisieren. Das allein löst jedoch noch nicht die zugrunde liegenden Probleme mit isolierten Datenquellen und anfälligen Verarbeitungspipelines. Strategische Entscheidungen in Bezug auf Dateneigentümerschaft und technische Entscheidungen über Speichermechanismen müssen ganzheitlich getroffen werden, um eine Datenplattform für Ihr Unternehmen erfolgreicher zu machen.

In diesem Artikel werden die Entscheidungspunkte erörtert, die zum Erstellen einer modernen, einheitlichen Datenanalyseplattform auf Google Cloud erforderlich sind.

Big Data haben in den letzten zwei Jahrzehnten unglaubliche Möglichkeiten für Unternehmen geschaffen. Es ist jedoch für Unternehmen kompliziert, ihren geschäftlichen Nutzern relevante, umsetzbare und aktuelle Daten zu präsentieren. Untersuchungen haben ergeben, dass 86 % der Analysten immer noch mit veralteten Daten zu kämpfen haben3 und nur 32 % der Unternehmen glauben, dass sie einen materiellen Wert aus ihren Daten ziehen4. Das erste Problem ist die Datenaktualität. Das zweite Problem besteht darin, dass es schwierig ist, unterschiedliche Systeme und Legacy-Systeme in Silos zu integrieren. Unternehmen migrieren in die Cloud, was jedoch das eigentliche Problem älterer Legacy-Systeme nicht löst, die vertikal so strukturiert waren, dass sie den Anforderungen einer einzelnen Geschäftseinheit gerecht werden.

Bild von Organisationstypen, die zur Cloud migrieren

Bei der Planung von Unternehmensdatenanforderungen ist es leicht, zu verallgemeinern und eine einzelne, vereinfachte Struktur in Betracht zu ziehen, in der es eine Gruppe konsistenter Datenquellen, ein Enterprise-Data-Warehouse, ein Satz an Semantiken und ein Tool für Business Intelligence gibt. Das kann für eine sehr kleine, stark zentralisierte Organisation oder sogar für eine einzelne Geschäftseinheit mit eigenem integriertes IT- und Data-Engineering-Team funktionieren. In der Praxis ist jedoch keine Organisation so einfach und es gibt immer überraschende Komplexitäten bei der Datenaufnahme, -verarbeitung und/oder -nutzung, die noch komplizierter werden.

Bei unseren Gesprächen mit Hunderten von Kunden benötigen wir einen ganzheitlichen Ansatz für Daten und Analysen. Diese Plattform erfüllt die Anforderungen mehrerer Geschäftseinheiten und User Personas mit so wenigen redundanten Schritten wie möglich. Dabei geht es um mehr als nur eine neue Architektur oder mehrere neue Softwarekomponenten, die gekauft werden müssen. Es erfordert, dass Unternehmen ihre Datenreife insgesamt im Auge behalten und zusätzlich zu technischen Upgrades systematische, organisatorische Änderungen vornehmen.

Bis Ende 2024 werden 75 % der Unternehmen vom Pilotprojekt auf die Operationalisierung von KI umstellen, was zu einer Verfünffachung der Streaming-Daten- und Analyseinfrastrukturen führt.5 Es ist ganz einfach, KI mit einem Data-Science-Team in einer isolierten Umgebung zu testen. Die grundlegende Herausforderung, die verhindert, dass diese Erkenntnisse in Produktionssysteme übertragen werden, ist jedoch die organisatorische und architektonische Hürde, die dafür sorgt, dass die Dateneigentümerschaft segmentiert bleibt. Infolgedessen sind die meisten Erkenntnisse, die in die Geschäftsabläufe eines Unternehmens einfließen, beschreibender Charakter und prädiktive Analysen sind auf den Bereich eines Forschungsteams beschränkt.

Bild des Zitats: „Google Cloud verändert die Sichtweise von Unternehmen auf Daten, indem der Fokus nicht nur auf der Technologie, sondern auch auf den Nutzern liegt.“

Eine Plattform für alle Nutzenden während des Datenlebenszyklus

Datenarbeit wird selten von einer einzelnen Person ausgeführt; Es gibt viele datenbezogene Nutzende in einem Unternehmen, die eine wichtige Rolle im Datenlebenszyklus spielen. Jeder hat eine andere Perspektive in Bezug auf Data Governance, Aktualität, Sichtbarkeit, Metadaten, Verarbeitungszeiträume, Abfragebarkeit und mehr. In den meisten Fällen verwenden sie alle unterschiedliche Systeme und Software, um dieselben Daten in verschiedenen Verarbeitungsphasen zu verarbeiten.

Sehen wir uns als Beispiel den Lebenszyklus des maschinellen Lernens an. Ein Data Engineer kann sicherstellen, dass aktuelle Daten für das Data-Science-Team verfügbar sind, wobei angemessene Sicherheits- und Datenschutzbeschränkungen vorhanden sind. Ein Data Scientist kann Trainings- und Test-Datasets basierend auf einer goldenen Reihe von vorab aggregierten Datenquellen des Data Engineer erstellen, Modelle erstellen und testen und Erkenntnisse für ein anderes Team zur Verfügung stellen. Ein ML-Entwickler ist möglicherweise dafür verantwortlich, das Modell für die Bereitstellung in Produktionssystemen so zu packen, sodass andere Datenverarbeitungspipelines nicht störend sind. Produktmanager oder Business-Analysten prüfen abgeleitete Erkenntnisse mithilfe von Data QnA (eine Natural Language Interface für die Analyse von BigQuery-Daten), Visualisierungssoftware oder fragen den Ergebnissatz direkt über eine IDE oder eine Befehlszeile ab. Es gibt unzählige Nutzer mit unterschiedlichen Anforderungen, und wir haben für alle eine Plattform entwickelt, die auf die Anforderungen von Nutzerinnen und Nutzer zugeschnitten ist. Google Cloud unterstützt Kunden dort, wo sie sich gerade befinden, mit Tools, die den Anforderungen ihres Unternehmens gerecht werden.

Bild verschiedener Nutzertypen und deren Anforderungen

Die große Big Data-Entscheidung: Data Warehouse oder Data Lake?

Wenn wir mit Kunden über ihre Data-Analytics-Anforderungen sprechen, wird uns häufig die Frage gestellt: „Was brauche ich: einen Data Lake oder ein Data Warehouse?“ Angesichts der Vielfalt der Datennutzenden und -anforderungen in einem Unternehmen kann dies eine schwierige Frage sein. Sie hängt von der beabsichtigten Nutzung, den Datentypen und dem Personal ab.

  • Wenn Sie wissen, welche Datasets Sie analysieren müssen, eine klare Vorstellung von deren Struktur haben und eine Reihe bekannter Fragen haben, die Sie beantworten müssen, ist für Sie wahrscheinlich ein Data Warehouse die bessere Wahl.
  • Wenn Sie hingegen die Auffindbarkeit mehrerer Datentypen benötigen, unsicher sind, welche Arten von Analysen Sie durchführen müssen, nach neuen Möglichkeiten suchen, anstatt Statistiken zu präsentieren, und Sie die Ressourcen haben, um diese Umgebung effektiv zu verwalten und zu analysieren, ist ein Data Lake für Ihre Anforderungen wahrscheinlich besser geeignet.

Bei der Entscheidung sind jedoch noch weitere Faktoren zu berücksichtigen. Sehen wir uns daher einige organisatorische Herausforderungen der jeweiligen Option an. Data Warehouses sind oft schwer zu verwalten. Die Legacy-Systeme, die in den letzten 40 Jahren gut funktioniert haben, haben sich als sehr teuer erwiesen und stellen eine Menge Herausforderungen in Bezug auf Datenaktualität, ‐skalierung und hohe Kosten dar. Außerdem ist es nicht einfach, KI- oder Echtzeitfunktionen bereitzustellen, ohne diese Funktion nachträglich zu aktivieren. Diese Probleme treten nicht nur in lokalen Legacy-Data-Warehouses auf. Wir beobachten das auch bei den neu erstellten cloudbasierten Data Warehouses. Viele bieten keine integrierten KI-Funktionen, obwohl dies behauptet wird. Diese neuen Data Warehouses sind im Wesentlichen die gleichen Legacy-Umgebungen, werden aber in die Cloud migriert. Data-Warehouse-Nutzer sind in der Regel Analysten, die oft in eine bestimmte Geschäftseinheit eingebettet sind. Möglicherweise haben sie Ideen zu zusätzlichen Datasets, die hilfreich sein könnten, um ihr Verständnis des Unternehmens zu erweitern. Sie haben möglicherweise Ideen für Verbesserungen in den Bereichen Analyse, Datenverarbeitung und Anforderungen an Business-Intelligence-Funktionen. 

In einer traditionellen Organisation haben sie jedoch häufig keinen direkten Zugang zu den Dateninhabern und können auch nicht einfach die technischen Entscheidungsträger beeinflussen, die Datensätze und Tools entscheiden. Außerdem sind sie nicht in der Lage, Hypothesen zu testen oder die zugrunde liegenden Daten besser zu verstehen, da sie von Rohdaten getrennt gehalten werden. Data Lakes haben ihre eigenen Herausforderungen. Theoretisch sind sie kostengünstig und einfach zu skalieren, aber viele unserer Kunden sehen in ihren lokalen Data Lakes eine andere Realität. Die Planung und Bereitstellung eines ausreichenden Speichers kann teuer und schwierig sein, insbesondere für Organisationen mit sehr unterschiedlichen Datenmengen. Lokale Data Lakes können problemanfällig sein und die Wartung vorhandener Systeme braucht Zeit. In vielen Fällen werden die Engineers, die sonst neue Funktionen entwickeln würden, mit der Pflege und Versorgung von Datenclustern betraut. Kurz gesagt: Sie behalten den Wert bei, anstatt einen neuen Mehrwert zu schaffen. Insgesamt sind die Gesamtbetriebskosten für viele Unternehmen höher als erwartet. Nicht nur das: Governance ist systemübergreifend schwierig zu lösen, insbesondere wenn verschiedene Teile des Unternehmens unterschiedliche Sicherheitsmodelle verwenden. Infolgedessen werden die Data Lakes isoliert und segmentiert, was den Austausch von Daten und Modellen zwischen Teams erschwert. 

Data-Lake-Nutzer sind in der Regel näher an den Rohdatenquellen und verfügen über Tools und Funktionen, um die Daten zu untersuchen. In traditionellen Unternehmen konzentrieren sich diese Nutzenden tendenziell auf die Daten selbst und werden häufig auf Abstand vom Rest des Unternehmens gehalten. Das bedeutet, dass Geschäftseinheiten keine Informationen mehr erhalten, mit denen sie ihre Geschäftsziele in Richtung höherer Umsätze, geringerer Kosten, geringerer Risiken und neuer Chancen voranbringen können. Angesichts dieser Nachteile haben viele Unternehmen einen hybriden Ansatz gewählt, bei dem ein Data Lake eingerichtet wird, um einige Daten in ein Data Warehouse umzuwandeln, oder ein Data Warehouse einen seitlichen Data Lake für zusätzliche Tests und Analysen hat. Da jedoch mehrere Teams ihre eigenen Datenarchitekturen erstellen, um ihren individuellen Anforderungen gerecht zu werden, werden die Weitergabe und die Genauigkeit der Daten für ein zentrales IT-Team noch komplizierter. Anstatt separate Teams mit separaten Zielen zu haben, bei denen eines der Teams das Unternehmen erkundet und ein anderes das Unternehmen versteht, können Sie diese Funktionen und deren Datensysteme zu einem positiven Kreislauf vereinen, in dem ein tieferes Verständnis des Unternehmens die gezielte Erkundung fördert, und diese Erkundung zu einem besseren Verständnis des Unternehmens führt.

Bild mit Vergleich von Anwendungsfällen für Data Warehouse und Data Lake
Dies erfordert eine Konvergenz sowohl in der Technologie als auch bei der Herangehensweise an das Verständnis und die Entdeckung des Werts Ihrer Daten.

Data-Warehouse-Speicher wie einen Data Lake behandeln

Sie können ein Data Warehouse oder einen Data Lake separat in Google Cloud erstellen, müssen sich aber nicht für das eine oder das andere entscheiden. In vielen Fällen sind die Produkte, die unsere Kunden nutzen, für beide die gleichen. Der einzige Unterschied zwischen der Implementierung eines Data Lake und eines Data Warehouse ist die verwendete Richtlinie für den Datenzugriff. Tatsächlich beginnen die beiden Begriffe allmählich, sich zu einem einheitlichen Satz an Funktionen zu verbinden, einer modernen Analysedatenplattform. Sehen wir uns an, wie das in Google Cloud funktioniert.

Image

Die BigQuery Storage API bietet die Möglichkeit, BigQuery Storage wie Cloud Storage für eine Reihe anderer Systeme wie Dataflow und Dataproc zu verwenden. So lassen sich Speicherkapazitäten im Data Warehouse überwinden und leistungsstarke Dataframes in BigQuery ausführen. Mit anderen Worten: Mit der BigQuery Storage API kann Ihr BigQuery Data Warehouse wie ein Data Lake agieren. Wozu dient er also in der Praxis? Zum einen haben wir eine Reihe von Connectors erstellt, z. B. MapReduce, Hive oder Spark, damit Sie Ihre Hadoop- und Spark-Arbeitslasten direkt für Ihre Daten in BigQuery ausführen können. Zusätzlich zu Ihrem Data Warehouse benötigen Sie keinen Data Lake mehr. Dataflow ist für die Batch- und Streamverarbeitung extrem leistungsstark. Derzeit können Sie Dataflow-Jobs auf BigQuery-Daten ausführen und diese mit Daten aus Pub/Sub, Spanner oder einer anderen Datenquelle anreichern.

BigQuery kann sowohl den Speicher als auch die Computing-Ressourcen unabhängig skalieren. Beide Lösungen sind serverlos. Das ermöglicht eine unbegrenzte Skalierung, unabhängig von der Nutzung durch verschiedene Teams, Tools und Zugriffsmuster. Alle oben genannten Anwendungen können ausgeführt werden, ohne die Leistung anderer Jobs zu beeinträchtigen, die gleichzeitig auf BigQuery zugreifen. Darüber hinaus bietet die BigQuery Storage API ein Netzwerk auf Petabit-Ebene, bei dem Daten zwischen Knoten verschoben werden, um eine Abfrageanfrage zu erfüllen. Dies führt effektiv zu einer ähnlichen Leistung wie bei einem In-Memory-Vorgang. Außerdem ermöglicht sie eine direkte Verbindung mit den beliebten Hadoop-Datenformaten wie Parquet und ORC sowie NoSQL- und OLTP-Datenbanken. Mit den Funktionen von Dataflow SQL, die in BigQuery eingebettet sind, können Sie noch einen Schritt weiter gehen. Auf diese Weise können Sie die Streams mit BigQuery-Tabellen oder Daten in Dateien verknüpfen und so eine Lambda-Architektur erstellen, die es Ihnen ermöglicht, große Mengen von Batch- und Streamingdaten aufzunehmen, und gleichzeitig eine Bereitstellungsebene zum Antworten auf Abfragen bereitzustellen. BigQuery BI Engine und materialisierte Ansichten machen es in dieser Mehrzweckarchitektur noch einfacher, Effizienz und Leistung zu steigern.

Die Plattform für intelligente Analysen von Google, die auf BigQuery basiert

Serverlose Datenlösungen sind absolut notwendig, damit Ihr Unternehmen über Datensilos hinausdenken kann, um Erkenntnisse zu gewinnen und Maßnahmen umzusetzen. Unsere zentralen Datenanalysedienste sind serverlos und eng integriert.

Bild der wichtigsten Data-Analytics-Services
Alle diese Dienste sind aufgrund eines klaren Designs und einer klaren Implementierung transparent miteinander verbunden.

Änderungsmanagement ist oft einer der schwierigsten Aspekte bei der Einbindung neuer Technologien in ein Unternehmen. Google Cloud möchte unsere Kunden dort erreichen, wo sie sich gerade befinden, und bietet Entwicklern und geschäftlichen Nutzern vertraute Tools, Plattformen und Integrationen. Unser Ziel ist es, Unternehmen durch datengestützte Innovationen dabei zu helfen, schneller startklar für die digitale Transformation zu werden. Anstatt an einen Anbieter gebunden zu sein, bietet Google Cloud Unternehmen Optionen für einfache, optimierte Integrationen in lokale Umgebungen, andere Cloud-Angebote und sogar in den Edge-Bereich, um eine echte Hybrid-Cloud zu schaffen:

  • Mit BigQuery Omni müssen Daten nicht mehr von einer Umgebung in eine andere übertragen werden. Stattdessen werden die Analysen unabhängig von der Umgebung auf die Daten übertragen.
  • Apache Beam, das SDK, das in Dataflow genutzt wird, bietet Verwaltbarkeit und Übertragbarkeit für Runner wie Apache Spark und Apache Flink
  • Für Organisationen, die Apache Spark oder Apache Hadoop ausführen möchten, bietet Google Cloud Dataproc

Den meisten Datennutzenden ist wichtig, zu wissen, welche Daten sie haben, nicht, in welchem System sie gespeichert sind. Das Wichtigste ist, jederzeit Zugriff auf die benötigten Daten zu haben. In den meisten Fällen spielt der Plattformtyp also keine Rolle für die Nutzenden, solange sie mit vertrauten Tools auf aktuelle, nutzbare Daten zugreifen können – egal, ob sie Datasets untersuchen, Quellen in Datenspeichern verwalten, Ad-hoc-Abfragen ausführen oder interne Business-Intelligence-Tools für Führungskräfte entwickeln.

Bild relevanter Produkte

Umgang mit Legacy

Es klingt zwar toll, eine komplett neue Datenplattform von Grund auf zu entwickeln, aber wir wissen, dass nicht jedes Unternehmen in der Lage sein wird, dies zu tun. Die meisten haben es mit bestehenden Legacy-Systemen zu tun, die sie migrieren, portieren oder patchen müssen, bis sie ersetzt werden können. Wir haben mit unseren Kunden in jeder Phase ihrer Datenplattform gearbeitet und bieten Lösungen für Ihre Situation.

Bei Kunden gibt es in der Regel drei Migrationskategorien: Lift-and-Replatforming (Plattformwechsel), Lift-and-Rehome und vollständige Modernisierung. Für die meisten Unternehmen empfehlen wir, mit der Lift-and-Replatforming-Strategie zu beginnen, da dies eine effektive Migration mit so wenig Unterbrechungen und Risiken wie möglich ermöglicht. Mit dieser Strategie migrieren Sie Ihre Daten von Ihren Legacy-Data-Warehouses und Hadoop-Clustern zu BigQuery oder Dataproc. Nachdem die Daten verschoben wurden, können Sie die Leistung Ihrer Datenpipelines und Abfragen optimieren. Mit einer Lift-and-Replatforming-Migrationsstrategie können Sie dies je nach Komplexität Ihrer Arbeitslasten in Phasen vornehmen. Aufgrund der Komplexität empfehlen wir diesen Ansatz für große Unternehmenskunden mit zentralisierter IT und mehreren Geschäftseinheiten.

Die zweite Migrationsstrategie, die wir am häufigsten sehen, ist die vollständige Modernisierung als erster Schritt. So schaffen Sie Klarheit und bereinigen die Vergangenheit, da Sie voll und ganz auf einen cloudnativen Ansatz setzen. Die Migration ist nativ in Google Cloud erstellt, aber da Sie alles auf einmal ändern, kann dies länger dauern, wenn Sie mehrere große Legacy-Umgebungen haben. 

Bild mit Zusammenfassung der Legacy-Optionen

Für eine saubere Legacy-Pause müssen Jobs umgeschrieben und verschiedene Anwendungen geändert werden. Im Vergleich zu den anderen Ansätzen sorgt dies jedoch auch für höhere Geschwindigkeit und Agilität sowie langfristig die niedrigsten Gesamtbetriebskosten. Das hat zwei Hauptgründe: Ihre Anwendungen sind bereits optimiert und müssen nicht nachgerüstet werden. Nach der Migration Ihrer Datenquellen müssen Sie nicht zwei Umgebungen gleichzeitig verwalten. Dieser Ansatz eignet sich am besten für Digital Natives oder entwicklungsorientierte Unternehmen mit wenigen Legacy-Umgebungen.

Der konservativste Ansatz ist ein Lift-and-Rehome-Ansatz, den wir als kurzfristige taktische Lösung zum Verschieben Ihres Datenbestands in die Cloud empfehlen. Sie können Ihre bestehenden Plattformen per Lift-and-Shift umgestalten und sie wie gewohnt in der Google Cloud-Umgebung verwenden. Dies gilt für Umgebungen wie Teradata und Databricks, um das anfängliche Risiko zu reduzieren und die Ausführung von Anwendungen zu ermöglichen. Dadurch wird jedoch die vorhandene isolierte Umgebung in die Cloud verschoben, anstatt sie zu transformieren. Daher profitieren Sie nicht von der Leistung einer Plattform, die nativ auf Google Cloud basiert. Wir können Sie jedoch bei einer vollständigen Migration in native Google Cloud-Produkte unterstützen, damit Sie von der Interoperabilität profitieren und eine vollständig moderne Analysedatenplattform in Google Cloud erstellen können.

Taktisch oder strategisch?

Die Hauptunterschiede einer auf Google Cloud basierenden Analysedatenplattform bestehen unserer Meinung nach darin, dass sie offen, intelligent, flexibel und eng eingebunden ist. Es gibt viele taktische Lösungen auf dem Markt, mit denen Sie sich vertraut machen können. Diese sind in der Regel jedoch nur eine kurzfristige Lösung, die eine Organisation erschweren und im Laufe der Zeit zu technischen Problemen führen können.

Bild für taktische oder strategische Entscheidungsfindung

Google Cloud vereinfacht Datenanalysen erheblich. Mit einem cloudnativen, serverlosen Ansatz können Sie das in Ihren Daten versteckte Potenzial nutzen. Speicher und Rechenleistung werden getrennt und Sie können Gigabyte bis Petabyte an Daten innerhalb weniger Minuten analysieren. Auf diese Weise können Sie die traditionellen Einschränkungen in Bezug auf Umfang, Leistung und Kosten beseitigen, um Fragen zu Daten zu stellen und Geschäftsprobleme zu lösen. Dadurch wird es einfacher, Informationen im gesamten Unternehmen mit einer einzigen, vertrauenswürdigen Datenstruktur zu operationalisieren. 

Vorteile

  • Sie können sich auf die Analyse statt auf die Infrastruktur konzentrieren
  • Löst alle Phasen des Data-Analytics-Lebenszyklus, von der Aufnahme über die Transformation und Analyse bis hin zu Business Intelligence und mehr
  • Schafft eine solide Datengrundlage für die Operationalisierung von maschinellem Lernen
  • Ermöglicht die Nutzung der besten Open-Source-Technologien für Ihr Unternehmen
  • Die Skalierung erfolgt entsprechend den Anforderungen Ihres Unternehmens, insbesondere bei zunehmender Nutzung von Daten für die Geschäftsförderung und durch die digitale Transformation.

Eine moderne, einheitliche Datenanalyseplattform, die auf Google Cloud aufbaut, bietet Ihnen die besten Funktionen eines Data Lake und eines Data Warehouse, aber mit enger Einbindung in die KI-Plattform. Sie können Daten aus Milliarden von Streamingereignissen automatisch in Echtzeit verarbeiten und quasi innerhalb von Millisekunden Informationen bereitstellen, um auf sich ändernde Kundenbedürfnisse zu reagieren. Mit unseren branchenführenden KI-Diensten können Sie die Entscheidungsfindung in Ihrem Unternehmen und die Kundenzufriedenheit optimieren und die Lücke zwischen beschreibenden und präskriptiven Analysen schließen, ohne ein neues Team einstellen zu müssen. Sie können Ihre vorhandenen Fähigkeiten erweitern, um die Auswirkungen von KI mit automatisierter, integrierter Intelligenz zu skalieren.

Gleich loslegen

Möchten Sie mehr darüber erfahren, wie die Datenplattform von Google die Art und Weise verändern kann, wie Ihr Unternehmen mit Daten umgeht? Nehmen Sie Kontakt mit uns auf.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud