Creare il tuo data lake su Google Cloud

Archivia, elabora e analizza tutti i tuoi dati in modo conveniente e agile.

Panoramica di un data lake cloud

Trasforma i dati non elaborati in innovazione

Dove si trovano attualmente i tuoi dati? Li stai sfruttando al meglio? Carica tutti i tuoi dati strutturati o non strutturati su Google Cloud e i nostri strumenti di elaborazione, analisi e machine learning li trasformeranno in informazioni approfondite per promuovere la crescita in tutta la tua attività.

Dall'importazione all'estrazione di informazioni significative

Dati nel data lake GCP

Migrazione semplificata nel cloud

Utilizzi batch o flussi di dati? Esegui la migrazione sulla tua rete mediante un servizio di transfer appliance offline o acquisendo flussi di dati in tempo reale? Ovunque si trovino attualmente i tuoi dati e qualsiasi siano le tue esigenze per gestire la migrazione, possiamo semplificarne il trasferimento in Google Cloud grazie alla durabilità del 99,999999999% di Cloud Storage.

Archiviazione di dati nell'ordine di petabyte

Archiviazione flessibile, potente e conveniente

Grazie alla separazione dell'archiviazione dalle operazioni di calcolo puoi aggiungere dati in modo gradualmente con incrementi di appena un gigabyte e pagare solo per ciò che archivi. Le varie classi di archiviazione disponibili permettono di ottimizzare i costi e la disponibilità, senza alcuna progettazione dello schema. Inoltre, la totale compatibilità con Google Cloud Platform consente di sperimentare rapidamente nuovi dati e nuove analisi per supportare qualsiasi caso d'uso.

Elabora i dati

Elabora i dati come vuoi

Con Cloud Storage puoi elaborare i dati in base alle esigenze della tua attività. Utilizza Cloud Dataproc, il nostro servizio Apache Hadoop e Apache Spark completamente gestito, per avviare i cluster in pochi secondi e pagare solo per il tempo impiegato per l'esecuzione dei job. Cloud Dataflow, il nostro servizio Apache Beam completamente gestito, consente di utilizzare carichi di lavoro con flussi o batch di dati in un ambiente serverless al fine di eliminare le difficoltà legate al provisioning e alla gestione.

Data warehouse serverless

Dashboard e visualizzazioni rapide

Vuoi eseguire analisi rapidissime su enormi volumi di dati strutturati? Con BigQuery, il data warehouse serverless su scala petabyte di Google Cloud, puoi configurare il tuo warehouse in pochi secondi, iniziare subito a eseguire query sui dati e generare immediatamente rapporti e informazioni aziendali con BigQuery BI Engine, il nostro servizio di analisi in memoria.

Analisi avanzata tramite ML

Nuovi approfondimenti con il machine learning

Grazie alle integrazioni native con Cloud AI, il tuo data lake potrà sfruttare l'enorme potenziale del machine learning, dalla scoperta di informazioni approfondite nelle immagini e nei video fino al deployment di algoritmi ML su larga scala. BigQuery ML è una funzionalità incorporata di facile utilizzo che rende accessibile il machine learning e supporta una cultura basata sui dati all'interno della tua società, in quanti permette a tutti di creare modelli e di eseguirne il deployment.

Vuoi creare il tuo data lake?

Mappa i carichi di lavoro dei data lake Hadoop on-premise ai prodotti GCP

Building a cloud data lake on GCPYESNOIm processingstreaming dataWe useApache BeamWe useApache Spark or KafkaCloud DataflowCloud DataprocCloud DataprocIm doinginteractive dataanalysis orad-hoc queryingWe use Apache Sparkwith interactive webnotebooksAre you interested in keepingthese SQL queries as they are?Cloud Dataproc in combinationwith Jupyter or Zeppelinoptional componentsCloud DataprocNo, Im interested inlearning more abouta serverless solution.YESNONo, Im interested inlearning more abouta managed solution.BigQueryWe use SQL with Apache Hive,Apache Drill, Impala,Presto or similarCloud DataprocCloud DataprocIm doing ELT/ETLor batch processingWe use MapReduce,Spark, Pig, or HiveWe use Oozie forworkflow orchestrationCloud ComposerAre you interested inkeeping these workflowjobs as they are?Im supportingNoSQL workloadsWe useApache AccumuloCloud DataprocYESNONeed to use coprocessorsor SQL with Apache Phoenix?Cloud DataprocCloud BigtableWe useApache HBaseIm running anApache Hadoopclusteron-premises

Risorse