Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Weiter zu

Die Zukunft von vereinheitlichten, flexiblen und zugänglichen Daten

Technologieunternehmen und Start-ups lernen, dass sie so erfolgreich sind:

– Daten müssen für das gesamte Unternehmen und sogar für Lieferanten und Partner vereinheitlicht werden. Dies umfasst die Freischaltung unstrukturierter Daten sowie das Aufbrechen von Organisations- und Technologiesilos.

– Ihr Technology Stack muss flexibel genug sein, um Offline-Datenanalysen und Machine Learning in Echtzeit zu ermöglichen.

– Der Stack muss von überall und überall zugänglich sein. Er muss unterschiedliche Plattformen, Programmiersprachen, Tools und offene Standards unterstützen.

Warum die optimale Nutzung Ihrer Daten ein Wettbewerbsvorteil sein kann

Jeder weiß, dass Daten wichtig sind. Doch nur sehr wenige Unternehmen können aus diesen Daten innovative Geschäfts- und Kundeninformationen gewinnen. Was bedeutet es, Daten optimal zu nutzen? Warum ist dies eine Herausforderung?

Wenn Sie Ihre Daten optimal nutzen, können Sie mithilfe von Daten Entscheidungen zu Produkten und Vorgängen treffen. Stellen Sie sich daher ein paar Fragen. Wissen Sie, wie sich die Erwartungen Ihrer Kunden ändern? Werden die Daten zur Verbesserung der Nutzerfreundlichkeit eingesetzt? Stellen Sie sich der Frage, wo Ihre Data Engineers und Wissenschaftler heute ihre Zeit verbringen?

Daten sind unverzichtbar, um innovative Produktrichtungen und Nutzerfreundlichkeit sowie weitreichende Entscheidungen zu Markteinführungen zu fördern. Die erfolgreiche Nutzung Ihrer Daten kann Ihnen einen erheblichen Wettbewerbsvorteil verschaffen. Aus diesem Grund sind die meisten Technologieunternehmen und Start-up-Unternehmen gerade einem enormen Druck ausgesetzt. Sie sollen immer mehr modernisieren und Daten in immer größerem Umfang verarbeiten, um aktuelle und zukünftige Datenkosten zu rechtfertigen, und die Organisationsstruktur und Entscheidungsfindungen auf ein höheres Niveau heben.

Es gibt jedoch Herausforderungen in Bezug auf Zugriff, Speicher, inkonsistente Tools, Compliance und Sicherheit, die es schwierig machen, tiefer in die Materie einzudringen und den vollen Wert Ihrer Daten zu erschließen. 

Vielleicht haben Sie Legacy-Systeme übernommen, die Sie mit neuen verknüpfen möchten. Sollten sich alle Ihre Daten in einer Cloud befinden? Oder sollen sie auf mehrere Clouds verteilt werden? Wie modernisieren Sie Analytics-Stacks (die normalerweise vertikal integriert wurden), um mit Plattformen arbeiten zu können, die horizontal skaliert werden können?

Oder nutzen Sie heute noch die Batch- oder Micro-Batching-Funktion für ihre Daten, anstatt sie in Echtzeit zu verarbeiten. Das entsprechende Orchestrierungssystem und die Planung tragen zu einer höheren Komplexität Ihrer Architektur bei und erfordern Wartung bei Konflikten und Widerstandsfähigkeit. Der Aufwand für die Verwaltung und Wartung der Batcharchitektur ist kostspielig und Sie kompromittieren dadurch nach wie vor die Datenlatenz.

Wenn Sie keinen einfachen Zugriff auf alle Ihre Daten haben und keine Daten verarbeiten und analysieren können, sind Sie im Nachteil. Der moderne Software-Stack muss ein Streaming-Stack sein, der mit der Größe Ihrer Daten Schritt hält, die neuesten verfügbaren Daten nutzt und unstrukturierte Daten enthält und versteht. Und die fortschrittlichsten Analyseteams verlagern ihren Schwerpunkt von Betrieb zu Aktion. Dazu nutzen sie KI/ML, um mit Prozessen zu experimentieren und zu operationalisieren.

Wie Sie Ihre Daten für sich arbeiten lassen, damit Sie sich auf Innovationen konzentrieren können

Was bedeutet es, die Daten für Sie arbeiten zu lassen? Sie können so Ihre Kundenfreundlichkeit verbessern, neue Kunden ansprechen und Ihre Umsätze steigern. Hauptsächlich geht es darum, Innovationen voranzutreiben. Wir empfehlen zwei Prinzipien zur Auswahl einer Datenplattform, die Ihnen dabei hilft, diese Ergebnisse zu erzielen

Prinzip 1: Einfachheit und Skalierbarkeit

Wahrscheinlich stehen Ihnen sehr viele Daten zur Verfügung. Vielleicht wachsen sie exponentiell an und Sie möchten Ihren ROI beibehalten oder erhöhen, während Sie mit dem zunehmenden Datenaufkommen Schritt halten müssen. Vielleicht antizipieren Sie, wie viele Daten Sie in Zukunft haben werden (z. B. ein Terabyte) und konzipieren Ihre Systeme so, dass sie diese Menge verarbeiten können. Gleichzeitig wissen Sie, dass ein Übertreffen der Wachstumserwartungen zu einer Migration des gesamten Systems führen wird. Oder Sie haben sich für ein Data Warehouse entschieden, das nach Ihren Erwartungen wachsen kann. Aufgrund der zunehmenden Verarbeitungsanforderungen ist die Verwaltung jedoch kompliziert.

Kleinere Systeme sind in der Regel einfacher. Sie müssen sich jedoch nicht mehr zwischen einem benutzerfreundlichen System und einem hoch skalierbaren System entscheiden. Dank einer serverlosen Architektur entfällt die Notwendigkeit der Clusterverwaltung und Sie können große Datenmengen für Computing und Speicher verarbeiten. Sie müssen sich also nie wieder Gedanken darüber machen, ob Ihre Daten die technischen Kapazitäten überschreiten.

Aus Gründen der Einfachheit und Skalierbarkeit empfehlen wir eine serverlose Datenplattform. Wir empfehlen, alle Optionen zu verwerfen, für die Sie Software installieren, Cluster verwalten oder Abfragen optimieren müssen.

Prinzip 2: Agilität und Kostensenkung

Jedes Datenverwaltungssystem, das Computing und Speicher kombiniert, macht es Ihnen leichter, die Rechenleistung hochzuskalieren, um ein größeres Datenvolumen zu bewältigen, selbst wenn Sie es nicht benötigen. Das kann teuer sein und Sie könnten feststellen, dass Sie Abstriche machen müssen, z. B. nur die Daten der letzten zwölf Monate in Ihrem Analytics-Warehouse speichern. Möglicherweise entscheiden Sie auch keine Daten einbeziehen, da Sie keinen sofortigen Anwendungsfall dafür haben. Dann werden Sie feststellen, dass Sie auch keine hypothetischen Tests ausführen können, wenn keine Daten vorhanden sind und es wäre dafür eine neue Pipeline erforderlich.

Andere Systeme bringen Sie auf halbem Weg dorthin, indem sie Ihnen erlauben, Rechenleistung und Speicher unabhängig voneinander zu skalieren und zu bezahlen, aber Sie müssen Cluster immer noch manuell einrichten, skalieren und optimieren. Um das Infrastrukturmanagement so weit wie möglich zu reduzieren, empfiehlt sich ein serverloses Multi-Cloud-Data Warehouse mit erweiterter Zuverlässigkeit, Leistung und integriertem Datenschutz (z. B. BigQuery).

Neben Kosten und Verwaltung sollten Sie auch auf Agilität achten. Wenn sich Ihre Daten ändern, wie lange dauert es dann bis dies bemerkt wird und Reaktionen erfolgen? Wenn es eine neue Version einer Software oder eines Tools gibt, das Sie verwenden, wie lange dauert es, bis die neuen Funktionen verfügbar sind? Der Weg zu mehr Agilität besteht darin, flexible Tools auszuwählen, die einen geringeren Aufwand erfordern und für eine Vielzahl von Arbeitslasten geeignet sind.

Abfragen auf Systemen wie Redshift müssen optimiert werden, um effizient zu sein. Dadurch wird die Anzahl der Tests begrenzt, sodass Sie Daten möglicherweise nur extrahieren und abrufen, wenn Sie vermuten, dass ein Problem vorliegt. Die Kompromisse, die Sie aufgrund der fehlende Trennung von Computing und Speicher eingehen müssen, und die Notwendigkeit, Ihr Data Warehouse zu optimieren, schränken Sie stark ein.

Bei einem Data Warehouse wie BigQuery müssen Sie keine Abfragen im Voraus planen oder Ihre Datasets indexieren. Entkoppelte Speicher- und Computing-Prozesse ermöglichen das Weiterleiten von Daten, ohne dass Sie sich Gedanken über steigende Abfragekosten machen müssen. Ihre Data Scientists können Experimente durchführen, ohne sich Gedanken über Cluster oder Größe ihrer Data Warehouses zu machen. Sie können Sie mit Ad-hoc-Abfragen neue Ideen ausprobieren.

Wir haben uns angesehen, wie Sie mit einer einfachen, skalierbaren, flexiblen und kostengünstigen Plattform in die Lage versetzt werden, innovativ zu sein. Jetzt sprechen wir darüber, wie dies mit Ihren Daten umgesetzt werden kann.

Datengestützte Entscheidungen in Echtzeit treffen

Die Geschwindigkeit, mit der Unternehmen arbeiten, nimmt immer schneller zu. Auch die Erwartungen der Kunden haben sich verändert. Wenn Sie eine Transaktion abgleichen oder eine Retoure innerhalb von drei Tagen genehmigen möchten, müssen Sie jetzt sofort Antworten geben. Eine schnellere Entscheidungsfindung führt zu einem erhöhten Bedarf an Streaming.

Sie möchten in der Lage sein, Daten in Echtzeit zu erfassen und diese für Abfragen mit niedriger Latenz Ihren Geschäftsteams zur Verfügung zu stellen. Außerdem sollten Sie darauf achten, dass Ihre Streamingpipelines skalierbar und stabil sind und einen geringen Verwaltungsaufwand haben. Nur so kann Ihr Team in Echtzeit auf Ihr Geschäft reagieren. Sie werden nicht überraschen, dass BigQuery native Unterstützung für die Aufnahme von Streamingdaten bietet und diese Daten sofort zur Analyse mit SQL verfügbar macht. Mit der einfach zu bedienenden Streaming API von BigQuery können Sie mit Dataflow saisonale und Spitzenarbeitslasten verwalten, ohne dass zu viel ausgegeben wird.

Datensilos aufbrechen

Viele Unternehmen erstellen Silos, weil sie Daten getrennt von Abteilungen und Geschäftseinheiten speichern. Dabei hat jedes Team seine eigenen Daten. Das heißt, wenn Sie eine abteilungsübergreifende Analyse durchführen möchten, müssen Sie herausfinden, wie Sie diese Silos aufbrechen können. Wahrscheinlich führen Sie Extraktionspipelines (ETL-Pipelines) aus, um Daten zu erhalten und in Ihr Data Warehouse einzuleiten. Die Abteilungen, denen die Daten gehören, haben jedoch oft nur einen geringen Anreiz, die Pipelines aufrechtzuerhalten. Im Laufe der Zeit sind die Daten in Ihrem Data Warehouse dann nicht mehr aktuell und werden veraltet und sind am Ende wenig nützlich.

Viele Unternehmen setzen mittlerweile nicht nur auf organisatorische Grenzen, sondern verfolgen auch eine Multi-Cloud-Strategie auf Basis von abteilungsbezogenen Präferenzen, Funktionsausrichtung und regulatorischem Druck. Diese Unternehmen nutzen häufig auch reale Legacy-Data-Lake- und Data-Warehouse-Investitionen, die lokal stattfinden. Die heutige Realität von Multi-Cloud von Hybrid-Cloud erfordert einen höheren Reifegrad bei der Verwaltung und dem Zugriff auf isolierte Daten.

Der Wechsel zu einem dezentralen Warehouse mit einem gemeinsamen Kontrollfenster – manchmal auch als Data Fabric oder Data Mesh bezeichnet – erhöht den Zugriff auf hochwertige Daten in verschiedenen Abteilungen, Clouds und lokalen Systemen. Dies kann Geschäftsprobleme wie die Produktleistung oder das Kundenverhalten beheben, und bietet Ihnen die Möglichkeit Daten spontan abfragen können.

BigQuery stellt die technologische Grundlage eines solchen Data Mesh bereit. Nutzer in Ihrer gesamten Organisation können Daten-Assets und Statistiken verwalten, schützen, darauf zugreifen und freigeben – unabhängig davon, wer in der Organisation die Daten besitzt. Beispielsweise können Sie alle Ihre Daten in BigQuery verschieben und wiederverwendbare Funktionen und materialisierte Ansichten bereitstellen. Sie haben sogar die Möglichkeit, ML-Modelle ohne Datenbewegung zu trainieren. Das bedeutet, dass auch nicht-technische Domain-Experten (und Partner und Zulieferer, die die entsprechende Berechtigung haben) auf SQL zugreifen und die Daten mit bekannten Tools wie Tabellen und Dashboards abfragen können.

Die Analogie „Hub und Spoke“ ist hier angemessen. BigQuery ist der Hub, der Ihre Daten enthält. Die Spokes sind unter anderem Berichtstools, Dashboards, ML-Modelle, Webanwendungen und Empfehlungssysteme, die alle Daten aus BigQuery lesen können, ohne sie kopieren zu müssen. Mit Looker können Sie Ihre Daten beispielsweise visualisieren und in die täglichen Workflows der Nutzer einbinden. Mit diesem Ansatz können Sie die Nutzerfreundlichkeit, Sicherheit und Qualität Ihrer Daten gleichzeitig verbessern.

Zugriff auf alle Daten vereinfachen

In der Vergangenheit wurden unstrukturierte und semistrukturierte Daten am besten durch Data Lakes abgedeckt. Strukturierte Daten eignen sich hingegen für Data Warehouses am besten. Diese Trennung führte zu technologischen Silos, die das Überqueren des Formats erschwert haben. Sie speichern alle Ihre Daten in einem Data Lake, weil sie kostengünstiger und leichter zu verwalten sind, und verschieben dann die Daten in ein Warehouse, sodass Sie Analysetools verwenden können, um Informationen zu extrahieren.

Das zunehmend beliebte „Lake House“ verbindet diese beiden Welten in einer einheitlichen Umgebung für alle Arten von Daten: Sie können BigQuery als Data Warehouse und Data Lake verwenden. Mit der Storage API von BigQuery können Sie direkt auf Speicher zugreifen, um Arbeitslasten zu nutzen, die normalerweise mit Data Lakes verknüpft sind. Da Daten in BigQuery als einzige Datenquelle gespeichert werden können, müssen weniger Kopien erstellt und verwaltet werden. Stattdessen können Sie eine Downstream-Verarbeitung über SQL-Transformationen vornehmen, die in logischen Ansichten gespeichert sind, ohne Daten verschieben zu müssen.

Einfache Verwendung: Wenn Sie Ergebnisse aus Abfragen in 30 Sekunden statt in 30 Minuten oder 3 Stunden erhalten, werden Sie wahrscheinlich mehr Daten für Ihre Entscheidungen nutzen.

KI/ML für schnellere Tests und Operationalisierung von Arbeitslasten verwenden

Wie schnell können Ihre Data Scientists Tests durchführen? Wahrscheinlich kommt es zu dem Punkt, an dem sie ihre Entwicklung beenden möchten und ihre Modelle operationalisieren möchten. An diesem Punkt werden die Tests von echten Nutzern bewertet. Data Scientists entwickeln und optimieren ein Modell mithilfe von Verlaufsdaten, bevor es an die Entwickler weitergegeben wird. Diese schreiben das Modell dann häufig neu, um es in das Produktionssystem einzubinden und A/B-Tests durchzuführen. Anschließend warten sie, iterieren ihr Modell, und führen es wieder der Produktion zu. Dieser Zyklus umfasst viel regelmäßiges Stop-and-Go und das Neuschreiben von Code, und die nötige Koordination der Teams kann auf diesem Wege zu Fehlern führen. Ihre Data Scientists testen nicht so viel wie möglich, da es sehr viel Zeit in Anspruch nimmt, auf diese Weise zu testen. Das macht es schwierig, vorherzusagen, wie lange ein Projekt dauern wird und ob es erfolgreich sein wird, ganz zu schweigen von der Frage, ob es jemals in eine Routinenutzung überführt wird. Um diese Herausforderung zu bewältigen, müssen Sie Ihren Data Scientists leistungsstarke, aber vertraute Tools zur Verfügung stellen. Mit Vertex AI Workbench können Data Scientists effektiv in Jupyter-Notebooks arbeiten, aber ein schnelleres Training, schnelle Tests und eine schnelle Bereitstellung erhalten.

Wenn Sie die Differenzierung anhand der Daten ernst nehmen, ist es empfehlenswert, den größtmöglichen Wert aus den erhobenen Daten zu ziehen. Damit dies möglich wird, möchten Sie, dass Ihre Data-Science-Teams so produktiv wie möglich arbeiten und keine Gelegenheit zum Erstellen eines Modells verpassen, weil einfache Dinge zu lange dauern oder zu kompliziert sind.

Die Qualität Ihrer vordefinierten und Low-Code-Modelle ist entscheidend. AutoML mit Vertex AI stellt branchenführende KI-Modelle in einer No-Code-Umgebung zur Verfügung, die schnelles Benchmarking und Priorisierung bietet. Mit vordefinierten Modellen wie Entitätsextraktion oder Vertex AI Matching Engine können Sie die Wertschöpfung erheblich beschleunigen und sind nicht mehr nur auf Klassifizierungen oder Regressionen beschränkt.

Der Schlüssel zur Aufrechterhaltung Ihrer Datenagilität besteht darin, frühzeitig und häufig End-to-End-Tests durchzuführen. Mit Vertex AI Pipelines können Sie auf einen Verlauf der Tests zurückgreifen, die einen Rückblick auf die Benchmarks und die Endpunkte bieten. Außerdem erhalten Sie einen A/B-Test mit Schattenmodellen. Da der Code containerisiert ist, kann er zwischen Entwicklungs- und Produktionssystemen verwendet werden. Data Scientists arbeiten in Python und Produktionsentwickler erhalten Container, die vollständig eingeschlossen sind. Beide Teams können durch die Operationalisierung der Modelle mit Vertex AI Prediction standardisieren und schneller agieren.

Domainexperten können mit BigQuery ML die Durchführbarkeit einer Idee testen, indem sie benutzerdefinierte Modelle nur mit SQL trainieren, ohne zusätzliche Erfahrung mit traditionellen Data-Science-Tools zu benötigen. Sie können also innerhalb von Tagen statt Monaten in einem produktionsähnlichen System experimentieren und Machbarkeitsstudien durchführen. Das BigQuery ML-Modell kann in Vertex AI mit allen oben erwähnten Vorteilen bereitgestellt werden. Sie können mit Looker einheitliche Datenmodelle erstellen, die auf allen Ihren Daten basieren und LookML zum Abfragen von Daten verwenden. Das bedeutet, dass jeder in der Organisation übersichtliche Berichte und Dashboards erstellen kann, um Datenmuster zu untersuchen.

Um in der Produktion einen echten Wert zu erzielen, müssen Systeme Daten aufnehmen, verarbeiten und bereitstellen können. Machine Learning muss personalisierte Dienste in Echtzeit entsprechend dem Kundenkontext bereitstellen. Eine kontinuierlich laufende Produktionsanwendung erfordert jedoch, dass Modelle kontinuierlich neu trainiert, bereitgestellt und auf Sicherheit überprüft werden. Eingehende Daten erfordern eine Vorverarbeitung und Validierung, um sicherzustellen, dass es keine Qualitätsprobleme gibt, gefolgt von Feature Engineering und Modelltraining mit Hyperparameter-Feinabstimmung.

Integrierte Data Science und Machine Learning sind wichtig für die einfache Orchestrierung und Verwaltung dieser mehrstufigen ML-Workflows und für die zuverlässige und wiederholte Ausführung dieser ML-Workflows. Mit MLOps-Tools und automatisierten Workflows wird eine schnelle Continuous Delivery ermöglicht und die Verwaltung von Modellen in der Produktion vereinfacht. Für alle KI-Produkte gibt es unabhängig von der Abstraktionsebene einen einzigen Workflow und einen einzigen Wortschatz. Außerdem können Sie benutzerdefinierte und AutoML-Modelle leicht austauschen, da sie dasselbe Format und dieselbe technische Grundlage haben.

Angenommen, Sie möchten die Anomalieerkennung auf aktive, unbegrenzte Datenstreams anwenden, um Betrug zu verhindern. Mit der richtigen Vorgehensweise würden Sie einen Beispieldatenstream generieren, um gemeinsamen Netzwerkverkehr zu simulieren und in Pub/Sub aufzunehmen. Dann, nachdem personenidentifizierbare Informationen mit DLP maskiert wurden, erstellen und trainieren Sie ein Modell zur Anomalieerkennung in BigQuery mit BigQuery ML-K-Means-Clustering. Anschließend wenden Sie das Modell auf Live-Daten zur Echtzeiterkennung mithilfe von Dataflow an und verwenden dann Looker, um ein Dashboard, Benachrichtigungen und Aktionen zur Verarbeitung der identifizierten Ereignisse zu erstellen.

Warum die Entscheidung für ein umfassendes Data Warehouse wichtig ist

Wir haben bereits über BigQuery und Redshift gesprochen, aber das sind nicht die einzigen verfügbaren Data Warehouse-Optionen. Andere Datenanalyseprodukte wie Snowflake und Databricks funktionieren in allen drei Clouds. Besteht ein Problem mit der Cloud-Sperre, wenn Sie BigQuery auswählen?

Zu beachten ist, dass Sie mit BigQuery nicht nur die Daten analysieren, die Sie in Google Cloud gespeichert haben. Mit BigQuery Omni können Sie Daten in Amazon S3 und Azure Blob Storage nahtlos von der Google Cloud Console aus abfragen.

Wenn Sie Snowflake oder Databricks verwenden, sind die Kosten für den Wechsel von AWS zu Google Cloud oder umgekehrt niedriger. Aber was ist mit den Kosten für den Wechsel zu einem anderen Data Warehouse? Was ist, wenn Sie von Snowflake zu BigQuery oder von Databricks zu EMR wechseln möchten? Es fallen auch hier Kosten für die Umstellung an, es ist nur ein anderes Szenario.

Da es in jedem Szenario zu Umstellungskosten kommt, sollten Sie letztendlich das Tool oder die Plattform auswählen, die sich langfristig für Ihre Anforderungen eignen. Sie treffen eine Auswahl basierend auf den Differenzierungsmerkmalen der jeweiligen Plattform, den aktuellen Kosten und der Geschwindigkeit, mit der sie in Zukunft Innovationen vorantreiben. Wenn Sie sich für Snowflake entscheiden, setzen Sie darauf, dass ein Unternehmen, das auf Data-Warehouse-Prozesse spezialisiert ist, in diesem Bereich schnellere Innovationen ermöglichen kann. Wenn Sie sich für BigQuery entscheiden, verlassen Sie sich auf ein Unternehmen, das viele Daten- und KI-Technologien erfunden hat, um plattformübergreifend Innovationen voranzutreiben.

Wir sind davon überzeugt, dass eine innovative, gut integrierte Plattform den Schwung der Innovation steigert. Wenn ein Angebot für verwaltete Dienste wie Google Kubernetes Engine (GKE) ein schnelleres Laden von Container-Images ermöglicht, das serverloses Spark besser unterstützt und serverloses Spark Daten in BigQuery verarbeiten kann, dann wird BigQuery noch wertvoller für Sie. Das Schwungrad dreht sich schneller, wenn Sie auf eine Plattform und nicht auf einzelne Produkte setzen.

Wie Sie Ihre Datenmigration mit Zuversicht angehen

Wie lange dauert die Datenmigration? Sechs Monate? Zwei Jahre? Wie viel Aufwand bedeutet das? Ist es das wert?

Wenn Sie von einer Cloud zur anderen migrieren, ist das wahrscheinlich einfacher als die Migration von einer lokalen Umgebung zur Cloud, allein schon, weil Sie in der Regel wesentlich mehr technologische Tiefe vor Ort haben. Konzentrieren Sie sich auf Ihr Ziel. Das ist normalerweise etwas wie: „Wie schnell kann ich Innovationen umsetzen?“

Denken Sie über alle innovativen Dinge nach, die Sie tun möchten, die sie aber heute nicht tun können. Richten Sie dann neue Projekte ein und übertragen Sie die benötigten Daten. Wir können Sie dabei unterstützen, diese neuen Anwendungsfälle zu erstellen und die benötigten Datenquellen zu spiegeln. Bis dahin befinden Sie sich in einer Hybridumgebung, in der viele Anwendungsfälle lokal ausgeführt werden, aber auf Daten basieren, die in Echtzeit oder Batches aus Ihrer lokalen Umgebung oder Ihren anderen Cloud-Anbietern gespiegelt werden.

Die zweite Überlegung betrifft Kosten. Sehen Sie sich die sehr teuren Teradata-Instanzen an, die Sie aktuell ausführen. Wir können sehen, dass Kunden durch den Wechsel zu BigQuery ihre Kosten halbieren. Diese Migrationen sind wesentlich einfacher als bisher, da sie mit automatisierten Bewertungstools und SQL-Transcompilern die überwiegende Mehrheit Ihrer Skripts konvertieren. Wir haben Möglichkeiten zur Virtualisierung, sodass Ihre Clients davon ausgehen, dass sie mit Teradata kommunizieren, wenn sie tatsächlich mit BigQuery kommunizieren. Es gibt viele Möglichkeiten, Ihnen bei der Migration zu helfen, ohne alles herunterfahren zu müssen. Sie können diese Migrationstools nutzen, um teure Teradata- und Hadoop-Arbeitslasten zu vermeiden.

Die dritte Überlegung besteht in der Überprüfung Ihrer ERP-Systeme wie SAP, Salesforce-Systeme und Oracle. Wenn Sie Ihre Lieferkette optimieren, Lead-Bewertungen durchführen oder Betrug erkennen möchten, ist es wichtig, dass Sie Ihre Analysearbeitslasten mit Ihren ERP-Systemen verbinden können. Es gibt Connectors von Drittanbietern, mit denen Sie Daten von diesen Systemen abrufen können. Diese können Sie nutzen, um moderne KI-basierte Anwendungsfälle für diese Daten in der Cloud zu erstellen.

Die Reihenfolge, in der Sie diese Dinge tun, hängt von Ihrer Situation ab. Wenn Sie ein Start-up sind, können Sie mit Innovationen beginnen, zur Kostenoptimierung übergehen und schließlich die vorhandenen Pipelines und Connectors nutzen. Wenn Ihr Unternehmen stark von Lieferketten abhängig ist, können Sie mit den ERP-Connectors beginnen. Unabhängig davon, in welcher Reihenfolge Sie alle drei Schritte ausführen, werden Sie feststellen, dass Sie einen beträchtlichen Teil Ihres wertvollen Datenbestands in die Cloud verschoben haben. Sehen Sie sich nun an, was übrig bleibt, und überlegen Sie, ob sich ein Umzug überhaupt lohnt. Wenn Sie die 70 bis 80 % der Arbeitslasten, die wirklich erforderlich sind, verschoben haben, kommt oft der Punkt, wo Sie harte Entscheidungen treffen müssen. Sind es die restlichen 20 bis 30 % wert migriert zu werden oder sollten Sie die verbliebenen Aufgaben neu schreiben oder anders ausführen? Sie möchten nicht in den Modus geraten, alles so wie es ist in die Cloud zu verschieben, oder Sie werden feststellen, dass Sie alle Technologieschulden, die Sie lokal hatten, in Ihrer neuen Cloud-Umgebung replizieren anstatt sich auf den Datenwert zu konzentrieren.

Weitere Informationen

Wir haben viel über die Nutzbarmachung Ihrer Daten gesprochen und darüber, was das wirklich bedeutet, sowie über einige Überlegungen, die Sie bei der Migration zu einem Data Warehouse in der Cloud anstellen könnten.

Wenn Sie mehr darüber erfahren möchten, wie Google Cloud Ihnen helfen kann, mithilfe von Erkenntnissen einen entscheidenden Vorteil zu erlangen, Ihre Kosten zu senken und die Produktivität zu steigern, indem Sie die Nutzung von Daten und KI optimieren, nehmen Sie bitte Kontakt auf.

Zusätzliche Ressourcen

Sind Sie bereit für die nächsten Schritte?

Weitere Informationen dazu, wie Sie mit Google Cloud Daten und KI optimieren können.
Mit einem Experten sprechen
Google Cloud Next '21: Data Cloud: Simply transform with a universal data platform.
Webinar ansehen

Füllen Sie das Formular aus. Wir melden uns bald bei Ihnen. Formular anzeigen