In Zukunft müssen Daten einheitlich, flexibel und zugänglich sein

Technologieunternehmen und Start-ups haben diese Erfolgsfaktoren ermittelt:

Daten müssen für das gesamte Unternehmen und sogar für Liefer- und Partnerunternehmen vereinheitlicht werden. Dies umfasst die Nutzbarkeit unstrukturierter Daten sowie das Aufbrechen von Organisations- und Technologiesilos.

Ihr Technologie-Stack muss flexibel genug sein, um Offline-Datenanalysen und Machine Learning in Echtzeit zu ermöglichen.

Der Stack muss von überall aus zugänglich sein. Er muss unterschiedliche Plattformen, Programmiersprachen, Tools und offene Standards unterstützen.

Darum kann die optimale Nutzung Ihrer Daten ein Wettbewerbsvorteil sein

Alle wissen, dass Daten wichtig sind. Doch nur sehr wenige Unternehmen können aus diesen Daten innovative Geschäfts- und Kundeninformationen gewinnen. Was bedeutet es, Daten optimal zu nutzen? Warum ist dies eine Herausforderung?

Wenn Sie Ihre Daten optimal nutzen, können Sie mithilfe von Daten Entscheidungen zu Produkten und Vorgängen treffen. Stellen Sie sich daher ein paar Fragen. Wissen Sie, wie sich die Erwartungen Ihrer Kundinnen und Kunden ändern? Werden die Daten zur Verbesserung der Nutzerfreundlichkeit eingesetzt? Womit verbringen Ihre Data Engineers und Data Scientists heute ihre Zeit?

Daten sind unverzichtbar, um eine innovative Produktausrichtung und Nutzerfreundlichkeit sowie wichtige Entscheidungen bei der Markteinführung zu unterstützen. Die erfolgreiche Nutzung Ihrer Daten kann Ihnen einen erheblichen Wettbewerbsvorteil verschaffen. Deshalb stehen die meisten Technologieunternehmen und Start-ups gerade unter enormem Druck. Sie müssen immer mehr modernisieren und Daten in immer größerem Umfang verarbeiten, aktuelle und zukünftige Datenverarbeitungskosten rechtfertigen können und sowohl organisatorische Abläufe als auch Entscheidungsfindungsprozesse optimieren.

Das wird jedoch durch Herausforderungen im Zusammenhang mit dem Datenzugriff, Speicherlösungen, inkonsistenten Tools, der Einhaltung gesetzlicher Vorgaben und von Sicherheitsvorschriften erschwert. Diese verhindern oft die detaillierte Erfassung und Analyse von Daten zum Erschließen ihres vollen Potenzials.

Es kann sein, dass Sie mit Altsystemen zurechtkommen und diese mit neuer Infrastruktur verknüpfen müssen. Sollten Sie alle Daten in derselben Cloud speichern? Oder wäre eine Verteilung auf mehrere Clouds sinnvoller? Wie modernisieren Sie Analyseabläufe, die bisher vertikal integriert wurden, so, dass sie Plattformen mit horizontaler Skalierbarkeit einbeziehen können?

Vielleicht nutzen Sie noch immer die Batch- oder Micro-Batch-Verarbeitung für ihre Daten statt einer Echtzeitlösung. Das erforderliche Organisations- und Planungssystem erhöht die Komplexität Ihrer Architektur und muss im Hinblick auf Konfliktresistenz und allgemeine Widerstandsfähigkeit gewartet werden. Eine Batcharchitektur ist teuer im Management und der Wartung und noch dazu langsam.

Wenn Sie nicht auf alle Ihre Daten leicht zugreifen und sie weder verarbeiten noch analysieren können, ist das von Nachteil. Ein moderner Technology Stack muss auf Streaming basieren und mit dem Umfang Ihrer Daten Schritt halten, die neuesten verfügbaren Daten nutzen und unstrukturierte Daten einbeziehen und verarbeiten können. Inzwischen haben moderne Analyseteams ihren Schwerpunkt vom reinen Betrieb zum aktiven Agieren verlagert und nutzen KI/ML, um mit Prozessen zu experimentieren und sie zu operationalisieren.

So lassen Sie Ihre Daten für sich arbeiten, damit Sie sich auf Innovationen konzentrieren können

Was bedeutet es, die Daten für Sie arbeiten zu lassen? Es bedeutet, die Kundenfreundlichkeit zu verbessern, neue Kundinnen und Kunden anzusprechen und Umsätze zu steigern. Hauptsächlich soll dabei Innovation gefördert werden. Wir empfehlen zwei Grundsätze bei der Auswahl der für diese Ziele optimalen Datenplattform.

Prinzip 1: Einfachheit und Skalierbarkeit

Sie haben aktuell wahrscheinlich eine große Menge Daten zur Verfügung. Vielleicht ist es auch eine exponentiell wachsende Menge, die sie so gewinnbringend wie bisher oder noch besser nutzen möchten, während sie weiterwächst. Möglicherweise wissen Sie, dass Sie in Zukunft eine bestimmte Menge Daten haben werden (z. B. ein Terabyte) und möchten Ihre Systeme mit entsprechenden Kapazitäten anlegen. Gleichzeitig wissen Sie, dass ein höheres als das erwartete Wachstum die Migration des gesamten Systems erforderlich machen würde. Es könnte auch sein, dass Sie sich für ein Data Warehouse entschieden haben, das sich dem erwarteten Wachstum anpassen kann. Aufgrund der zunehmenden Verarbeitungsanforderungen wird das Management jedoch immer komplizierter.

Kleinere Systeme sind in der Regel einfacher. Sie müssen sich jedoch nicht mehr zwischen einem benutzerfreundlichen und einem hoch skalierbaren System entscheiden. Dank einer serverlosen Architektur entfällt die Notwendigkeit des Clustermanagements. Stattdessen können große Datenmengen gespeichert und verarbeitet werden, ohne dass Sie sich je wieder Gedanken darüber machen müssen, ob die Datenmenge die technischen Kapazitäten überschreitet.

Serverlose Datenplattformen sind empfehlenswert, weil sie sowohl einfach zu verwalten als auch skalierbar sind. Nicht empfehlenswert sind hingegen Optionen, bei denen Sie Software installieren, Cluster verwalten oder Abfragen optimieren müssen.

Prinzip 2: Agilität und Kostensenkung

Wenn ein Datenmanagementsystem Rechenleistung und Speicher kombiniert, zwingt es Sie auch dann zu einer Skalierung der Rechenleistung, wenn Sie diese nicht benötigen. Das kann teuer werden und Ihnen Kompromisse wie etwa eine Beschränkung auf die Daten der letzten zwölf Monate im Speicher Ihres Analytics Warehouse abverlangen. Es kann auch passieren, dass Sie bestimmte Daten nicht speichern, weil es für diese keinen unmittelbaren Anwendungsfall gibt, nur um später festzustellen, dass Sie eine Hypothese nicht ohne genau diese Daten testen können und extra dafür nun eine neue Pipeline einrichten müssen.

Andere Systeme ermöglichen es vielleicht zumindest, Rechenleistung und Speicher unabhängig voneinander zu skalieren und zu bezahlen. Das allein reicht jedoch nicht, wenn Sie immer noch manuell Cluster einrichten, skalieren und optimieren müssen. Die beste Methode, das Infrastrukturmanagement auf ein Minimum zu reduzieren, ist ein serverloses Multi-Cloud-Data Warehouse mit verbesserter Zuverlässigkeit und Leistung sowie integriertem Datenschutz (z. B. BigQuery).

Neben Kosten und Management sollten Sie auch auf Agilität achten. Wie lange dauert es, bis Sie Änderungen an Daten bemerken und darauf reagieren können? Wie lange dauert es, bis Sie eine neue Version einer Software oder eines Tools so weit eingerichtet haben, dass Sie die neuen Funktionen nutzen können? Mehr Agilität entsteht durch den Einsatz flexibler Tools, die mit geringerem Aufwand eine Vielzahl von Arbeitslasten bewältigen.

Abfragen müssen in Systemen wie Redshift für Effizienz optimiert werden. Das beschränkt Ihre Testmöglichkeiten, sodass Sie Daten möglicherweise erst dann extrahieren und abrufen, wenn Sie ein Problem vermuten. Wenn Sie aufgrund der fehlenden Trennung von Rechenleistung und Speicher Kompromisse eingehen und Ihr Data Warehouse fortlaufend optimieren müssen, machen Sie sich das Leben unnötig schwer.

Bei BigQuery hingegen müssen Sie keine Abfragen im Voraus planen oder Datasets indexieren. Dank separater Speicher- und Rechenressourcen können Sie Daten verarbeiten, ohne sich Gedanken über steigende Abfragekosten machen zu müssen. Ihre Data Scientists können testen und experimentieren, ohne sich Gedanken über Cluster oder die Größe des Data Warehouse zu machen, und so mit spontanen Abfragen neue Ideen ausprobieren.

Nachdem wir die Vorteile einer einfachen, skalierbaren, flexiblen und kostengünstigen Plattform für Ihr Innovationspotenzial besprochen haben, sehen wir uns an, wie dies mit Ihren Daten umgesetzt werden kann.

Datengestützte Entscheidungen in Echtzeit treffen

Unternehmen arbeiten heute immer schneller und schneller. Auch die Erwartungen der Kundinnen und Kunden haben sich verändert. Früher durfte der Abgleich einer Transaktion oder die Abwicklung einer Retoure drei Tage in Anspruch nehmen, heute werden Antworten sofort erwartet. Dieses hohe Tempo bei der Entscheidungsfindung erhöht den Bedarf nach Streaming.

Daten sollten in Echtzeit erfasst und Ihren Geschäftsteams mit niedriger Latenz für Abfragen zur Verfügung gestellt werden. Außerdem sollten Sie darauf achten, dass Ihre Streamingpipelines skalierbar und stabil sind und einen geringen Managementaufwand haben. Nur so kann Ihr Team schnell genug, nämlich in Echtzeit, Ihre geschäftlichen Anforderungen erfüllen. Es dürfte kaum überraschen, dass BigQuery native Unterstützung für die Aufnahme von Streamingdaten bietet und diese Daten sofort zur Analyse mit SQL verfügbar macht. In Kombination mit der einfach zu bedienenden Streaming API von BigQuery können Sie mit Dataflow saisonale und Spitzenarbeitslasten ohne unnötige Kosten bewältigen.

Aufbrechen von Datensilos

In vielen Unternehmen entstehen durch die nach Abteilungen und Geschäftseinheiten getrennte Datenspeicherung isolierte Silos, in denen jedes Team seine eigenen Daten verwaltet. Wenn Sie folglich eine abteilungsübergreifende Analyse durchführen möchten, müssen Sie diese Silos erstmal aufbrechen können. Die wahrscheinlichste Methode dafür ist eine Extraktionspipeline (ETL-Pipelines), mit der die Daten abgerufen und an Ihr Data Warehouse gesendet werden. Da die Abteilungen, denen diese Daten gehören, jedoch oft nur einen geringen Anreiz zur Aufrechterhaltung der Pipelines haben, veralten die Daten in Ihrem Data Warehouse mit der Zeit und sind dadurch am Ende kaum noch nützlich.

Abgesehen von diesen organisatorisch bedingten Silos setzen viele Unternehmen mittlerweile auf eine Multi-Cloud-Strategie, die auf abteilungsbezogenen Präferenzen, Funktionsausrichtung und gesetzlichen Anforderungen basiert. Diese Unternehmen haben häufig auch mit der Tatsache zu kämpfen, dass sie bereits in Data Lakes und Data Warehouses in der lokalen Umgebung investiert haben. Der Zugriff auf isolierte Daten ist in einer Welt der Multi-Clouds und Hybrid-Cloud mit deutlich höherem Managementaufwand verbunden.

Die Umstellung auf ein dezentrales Warehouse mit einem gemeinsamen Steuerungsbereich – manchmal auch als Data Fabric oder Data Mesh bezeichnet – verbessert Ihre Möglichkeiten, über Abteilungen, Clouds und lokale Umgebungen hinweg auf hochwertige Daten zuzugreifen. So können geschäftliche Herausforderungen, beispielsweise mit der Produktleistung oder dem Kundenverhalten, überwunden und Daten spontan abgefragt werden.

BigQuery bietet die technologische Grundlage für ein solches Data Mesh – Nutzer in Ihrem Unternehmen können Datenbestände und Statistiken verwalten, sichern, darauf zugreifen und gemeinsam nutzen, unabhängig davon, wer im Unternehmen Eigentümer der Daten ist. Sie können beispielsweise alle Daten in BigQuery verschieben und dort wiederverwendbare Funktionen und materialisierte Ansichten bereitstellen oder sogar ohne Datenbewegungen ML-Modelle trainieren. So können auch Domainfachleute ohne technischen Hintergrund (oder Partner- und Zulieferunternehmen mit entsprechender Berechtigung) auf SQL zugreifen und die Daten mit ihnen vertrauten Tools wie Tabellen und Dashboards abfragen.

Die Analogie „Hub und Spoke“ ist hier angemessen. BigQuery ist die Radnabe, der „Hub“, der Ihre Daten enthält. Die Speichen, „Spokes“, sind unter anderem Berichtstools, Dashboards, ML-Modelle, Webanwendungen und Empfehlungssysteme, die alle Daten live in BigQuery auslesen können, ohne sie kopieren zu müssen. Mit Looker beispielsweise können Sie Ihre Daten visualisieren und in die täglichen Workflows der Nutzer und Nutzerinnen einbinden. Auf diese Weise verbessern Sie gleichzeitig die Nutzerfreundlichkeit, Sicherheit und Qualität Ihrer Daten.

Zugriff auf alle Daten vereinfachen

In der Vergangenheit wurden unstrukturierte und semistrukturierte Daten am besten in Data Lakes bereitgestellt. Strukturierte Daten hingegen waren am besten in Data Warehouses aufgehoben. Diese Trennung führte zu technologisch isolierten Datensilos, bei denen sich das Format nicht mal eben wechseln lässt. Erst werden alle Daten in einem Data Lake gespeichert, weil dieser kostengünstiger und leichter zu verwalten ist, dann werden die Daten in ein Warehouse verschoben, um mit Analysetools Informationen extrahieren zu können.

Das zunehmend beliebte „Lake House“ verbindet diese beiden Welten in einer einheitlichen Umgebung für alle Arten von Daten: Sie können BigQuery als Data Warehouse und Data Lake verwenden. Mit der Storage API von BigQuery können Sie direkt auf Speicher zugreifen, um Arbeitslasten zu nutzen, die normalerweise Data Lakes zugeordnet sind. Da Daten in BigQuery als einzige Datenquelle gespeichert werden können, müssen weniger Kopien erstellt und verwaltet werden. Stattdessen können Sie eine Downstream-Verarbeitung über SQL-Transformationen vornehmen, die in logischen Ansichten gespeichert sind, ohne Daten verschieben zu müssen.

Die einfache Verwendung macht einen Unterschied: Wenn Sie Ergebnisse aus Abfragen in 30 Sekunden statt in 30 Minuten oder 3 Stunden erhalten, können Sie Daten umfassender in die Entscheidungsfindung einbeziehen.

KI/ML für schnellere Tests und Operationalisierung von Arbeitslasten verwenden

Wie schnell können Ihre Data Scientists Tests durchführen? Wahrscheinlich müssen sie früher oder später die Entwicklung pausieren und ihre Modelle operationalisieren, um Tests mit echten Nutzerinnen und Nutzern durchzuführen. Data Scientists entwickeln und optimieren ein Modell mithilfe von Verlaufsdaten, bevor es an die Entwickler weitergegeben wird. Diese schreiben das Modell dann häufig neu, um es in das Produktionssystem einzubinden und A/B-Tests durchzuführen. Anschließend warten sie, iterieren das Modell und führen es wieder der Produktion zu. Dieser Zyklus umfasst viel regelmäßiges Stop-and-Go sowie das Neuschreiben von Code, wobei die nötige Koordination der Teams während dieser Abläufe zu Fehlern führen kann. Ihre Data Scientists testen nicht so viel wie möglich, da diese Art des Testens sehr viel Zeit in Anspruch nimmt. So wird die Dauer eines Projekts ebenso schwer vorhersagbar wie sein Erfolg, ganz zu schweigen von der Frage, wann die Ergebnisse routinemäßig eingesetzt werden können. Um diese Herausforderung zu bewältigen, müssen Sie Ihren Data Scientists leistungsstarke, aber vertraute Tools zur Verfügung stellen. Mit Vertex AI Workbench können Data Scientists effektiv in Jupyter-Notebooks arbeiten, profitieren aber von einem effizienteren Training, schnelleren Tests und einer prompten Bereitstellung.

Wenn Sie Ihren Unternehmenserfolg wirklich mit Daten ausbauen wollen, sollten Sie den größtmöglichen Nutzen aus den erhobenen Daten ziehen können. Dafür müssen Ihre Data-Science-Teams so produktiv wie möglich arbeiten und dürfen keine Gelegenheit zum Erstellen eines Modells verpassen, weil einfache Vorgänge zu lange dauern oder zu kompliziert sind.

Die Qualität Ihrer vordefinierten und Low-Code-Modelle ist entscheidend. AutoML mit Vertex AI stellt branchenführende KI-Modelle in einer No-Code-Umgebung zur Verfügung, die schnelles Benchmarking und Priorisierung ermöglichen. Mit vordefinierten Modellen wie Entity Extraction oder Vertex AI Matching Engine können Sie die Wertschöpfung aus Ihren eigenen Daten erheblich beschleunigen und sind nicht mehr nur auf Klassifizierungen oder Regressionen beschränkt.

Das Aufrechterhalten Ihrer Datenagilität gründet sich in frühzeitigen und häufigen End-to-End-Tests. Mit Vertex AI Pipelines können Sie auf den Testverlauf zugreifen und so im Rückblick Benchmarks und Endpunkte vergleichen oder A/B-Tests mit Schattenmodellen durchführen. Da der Code containerisiert ist, kann er sowohl in Entwicklungs- als auch in Produktionssystemen verwendet werden. Data Scientists arbeiten in Python und Produktionsentwicklungsteams erhalten Container mit vollständiger Datenkapselung. Beide Teams können durch die Operationalisierung der Modelle mit Vertex AI Prediction standardisieren und schneller agieren.

Domainfachleute können häufig mit BigQuery ML die Durchführbarkeit einer Idee testen und benutzerdefinierte Modelle nur mit SQL trainieren, ohne zusätzliche Erfahrung mit typischen Data-Science-Tools zu benötigen. Sie können also innerhalb von Tagen statt Monaten in einem produktionsähnlichen System Tests und Machbarkeitsstudien durchführen. Das BigQuery ML-Modell kann in Vertex AI mit allen oben erwähnten Vorteilen bereitgestellt werden. Sie können mit Looker einheitliche Datenmodelle erstellen, die auf allen Ihren Daten basieren, und LookML zum Abfragen von Daten verwenden. Das bedeutet, dass alle im Unternehmen übersichtliche Berichte und Dashboards erstellen und so Datenmuster untersuchen können.

Für echte Wertschöpfung in der Produktion müssen Systeme Daten aufnehmen, verarbeiten und bereitstellen können. Auch muss Machine Learning passend zur Kundensituation personalisierte Dienste in Echtzeit bieten. Eine kontinuierlich laufende Produktionsanwendung erfordert jedoch, dass Modelle ständig neu trainiert, bereitgestellt und auf Sicherheit überprüft werden. Eingehende Daten müssen vorverarbeitet und geprüft werden, damit keine Qualitätsprobleme auftreten, gefolgt von Feature Engineering und Modelltraining mit Hyperparameter-Feinabstimmung.

Integrierte Data Science und Machine Learning sind wichtig für die einfache Orchestrierung und das Management dieser mehrstufigen ML-Workflows sowie für ihre zuverlässige und wiederholte Ausführung. Mit den Tools von MLOps und automatisierten Workflows wird eine schnelle Continuous Delivery ermöglicht und das Management von Modellen in der Produktion vereinfacht. Für alle KI-Produkte gibt es unabhängig von der Abstraktionsebene einen einzigen Workflow und einen einzigen Wortschatz. Außerdem können Sie benutzerdefinierte und AutoML-Modelle leicht austauschen, da sie dasselbe Format und dieselbe technische Grundlage haben.

Angenommen, Sie möchten eine Anomalieerkennung auf aktive, unbegrenzte Datenstreams anwenden, um Betrug zu verhindern. Mit der richtigen Vorgehensweise würden Sie einen Beispieldatenstream generieren, der typischen Netzwerkverkehr simuliert, und diesen in Pub/Sub einspeisen. Anschließend maskieren Sie personenidentifizierbare Informationen mit DLP und erstellen und trainieren ein Modell zur Anomalieerkennung in BigQuery mit BigQuery ML-K-Means-Clustering. Das Modell wird im Anschluss auf Live-Daten zur Echtzeiterkennung mit Dataflow angewendet. In Looker können Sie ein Dashboard, Benachrichtigungen und Aktionen zur Verarbeitung der identifizierten Ereignisse erstellen.

Darum ist es wichtig, sich für ein gut ausgestattetes Data Warehouse zu entscheiden

BigQuery und Redshift wurden bereits genannt, aber das sind nicht die einzigen verfügbaren Optionen für Data Warehouses. Es gibt weitere Datenanalyseprodukte wie Snowflake und Databricks, die mit allen drei der großen Clouds funktionieren. Müssen Sie befürchten, auf eine Cloud festgelegt zu sein, wenn Sie sich für BigQuery entscheiden?

Zuerst einmal ist es wichtig, dass Sie Ihre Daten nicht in Google Cloud gespeichert haben müssen, um sie mit BigQuery verarbeiten zu können. Mit BigQuery Omni können Sie in Amazon S3 und Azure Blob Storage gespeicherte Daten nahtlos über die Google Cloud Console abrufen.

Wenn Sie Snowflake oder Databricks verwenden, sind die Kosten für den Wechsel von AWS zu Google Cloud oder umgekehrt niedriger. Aber was ist mit den Kosten für den Wechsel zu einem anderen Data Warehouse? Was ist, wenn Sie von Snowflake zu BigQuery oder von Databricks zu EMR wechseln möchten? Auch hier fallen Kosten für die Umstellung an, die Situation ist nur anders.

Da die Umstellung in jedem Fall Kosten verursacht, sollten Sie das Tool oder die Plattform auswählen, das oder die Ihre Anforderungen auch langfristig erfüllen kann. Treffen Sie die Auswahl basierend auf den Alleinstellungsmerkmalen der jeweiligen Plattform, den aktuellen Kosten und der Geschwindigkeit, mit der sie in Zukunft Innovationen vorantreibt. Wenn Sie sich für Snowflake entscheiden, setzen Sie darauf, dass ein auf Data Warehouses spezialisiertes Unternehmen in diesem Bereich schneller Innovationen hervorbringt. Wenn Sie sich für BigQuery entscheiden, verlassen Sie sich darauf, dass ein Unternehmen, das viele Daten- und KI-Technologien erfunden hat, weitere Innovationen für die gesamte Plattform vorantreibt.

Wir sind davon überzeugt, dass eine innovative, gut integrierte Plattform den Flywheel-Effekt von Innovationen fördert. Wenn ein Angebot für verwaltete Dienste wie Google Kubernetes Engine (GKE) ein schnelleres Laden von Container-Images ermöglicht, arbeitet Serverless Spark effizienter und weil Serverless Spark Daten in BigQuery verarbeiten kann, steigert das den Wert von BigQuery für Sie. Einen nachhaltigen Flywheel-Effekt erzielen Sie eher mit einer Plattform als mit einzelnen Produkten.

So verläuft Ihre Datenmigration entspannt und reibungslos

Wie lange wird die Datenmigration dauern? Sechs Monate? Zwei Jahre? Wie viel Aufwand bedeutet das und lohnt sich das überhaupt?

Wenn Sie von einer Cloud zur anderen migrieren, ist das wahrscheinlich einfacher als die Migration von einer lokalen Umgebung zur Cloud, allein schon, weil Sie in der Regel wesentlich mehr technologische Tiefe vor Ort haben. Konzentrieren Sie sich auf Ihr Ziel. Das ist normalerweise etwas wie: „Wie schnell kann ich Innovationen umsetzen?“

Denken Sie an all die wünschenswerten Innovationen, die Sie im Augenblick nicht umsetzen. Richten Sie dann neue Projekte ein und übertragen Sie die benötigten Daten. Wir können Sie dabei unterstützen, diese neuen Anwendungsfälle zu erstellen und die benötigten Datenquellen zu spiegeln. Bis dahin befinden Sie sich in einer Hybridumgebung, in der viele Anwendungsfälle lokal ausgeführt werden, aber von Daten gesteuert werden, die in Echtzeit oder als Batch von Ihrer lokalen Umgebung oder Ihrem anderen Cloud-Anbieter gespiegelt werden.

Als Zweites sollten Sie die Kosten betrachten. Nehmen wir beispielsweise teure Teradata-Instanzen, die Sie vielleicht aktuell ausführen. Durch den Wechsel zu BigQuery können unsere Unternehmenskunden ihre Kosten häufig halbieren. Diese Migrationen sind heute leichter denn je umzusetzen, da Sie die Mehrheit Ihrer Skripts mit automatisierten Bewertungstools und SQL-Transpilern konvertieren können. Es gibt auch Möglichkeiten zur Virtualisierung, sodass Ihre Clients weiterhin von einer Teradatakommunikation ausgehen, auch wenn sie stattdessen mit BigQuery kommunizieren. Es gibt viele Unterstützungsmöglichkeiten für die Migration. Sie müssen nicht alles abschalten, sondern können einfach diese Migrationstools nutzen, um sich von teuren Teradata- und Hadoop-Arbeitslasten zu verabschieden.

Drittens sollten Ihre ERP-Systeme wie SAP, Salesforce-Systeme und Oracle überprüft werden. Wenn Sie Ihre Lieferkette optimieren, Lead-Bewertungen durchführen oder Betrug erkennen möchten, müssen Sie Analysearbeitslasten mit Ihren ERP-Systemen verbinden können. Es gibt Connectors von Drittunternehmen für den Datenabruf aus diesen Systemen, mit denen Sie moderne KI-basierte Anwendungsfälle für diese Daten in der Cloud entwickeln können.

In welcher Reihenfolge Sie das umsetzen, hängt von Ihrer Situation ab. Ein Start-up könnte mit Innovationen beginnen, dann die Kosten optimieren und schließlich vorhandene Pipelines und Connectors nutzen. Wenn Ihr Unternehmen stark von Lieferketten abhängig ist, können Sie mit den ERP-Connectors beginnen. Unabhängig von der Reihenfolge, in der Sie diese drei Punkte umsetzen, werden Sie im Anschluss einen beträchtlichen Teil Ihres wertvollen Datenbestands in die Cloud verschoben haben. Betrachten Sie die verbliebenen Daten und überlegen Sie, ob es sich überhaupt lohnt, sie zu verschieben. Die Antwort ist hierbei häufig „Nein“. Sobald Sie die 70 bis 80 % der wirklich relevanten Arbeitslasten verschoben haben, müssen häufig harte Entscheidungen getroffen werden. Lohnt sich die Migration der verbleibenden 20 bis 30 % oder sollten Sie lieber auf anderen Code oder andere Methoden umstellen? Sie sollten nicht gleich alles in die Cloud verlagern, da Sie sonst alle Technologieschulden, die Sie in Ihrer lokalen Umgebung hatten, in Ihrer neuen Cloud-Umgebung wiederholen, anstatt sich auf den Datenwert zu konzentrieren.

Weitere Informationen

Die Nutzbarmachung Ihrer Daten und deren tatsächliche Bedeutung wurde eingehend besprochen, zusammen mit einigen typischen Überlegungen bei der Migration zu einem Data Warehouse in der Cloud.

Wenn Sie weitere Informationen darüber haben möchten, wie Sie mit Google Cloud Datenanalysen zu Ihrem Vorteil nutzen und durch die Optimierung von Datenverarbeitung und den KI-Einsatz die Kosten in Ihrem Unternehmen senken und die Produktivität steigern können, dann melden Sie sich gern bei uns.

Zusätzliche Ressourcen

Sind Sie bereit für die nächsten Schritte?

Weitere Informationen darüber, wie Google Cloud Sie bei der optimalen Nutzung von Daten und KI unterstützen kann.
Google Cloud Next '21: Data Cloud: Simply transform with a universal data platform.

Füllen Sie das Formular aus. Wir melden uns bald bei Ihnen. Formular anzeigen

Google Cloud