Il Centro architetture fornisce risorse per i contenuti su un'ampia varietà big data e analisi.
Risorse per big data e analisi nel Centro architetture
Puoi filtrare il seguente elenco di risorse per big data e di analisi digitando il nome di un prodotto o una frase presente nel titolo o nella descrizione della risorsa.
Analisi dei dati FHIR in BigQuery Spiega le procedure e le considerazioni per analizzare i dati FHIR (Fast Healthcare Interoperability Resources) in BigQuery. Prodotti utilizzati: BigQuery |
Architettura e funzioni in un mesh di dati Una serie che descrive come implementare un mesh di dati interno a un'organizzazione. |
Creare una soluzione di analisi visiva ML con Dataflow e l'API Cloud Vision Come eseguire il deployment di una pipeline Dataflow per elaborare file immagine su larga scala con Cloud Vision. Dataflow archivia i risultati in BigQuery in modo che tu possa utilizzarli per addestrare modelli predefiniti di BigQuery ML. Prodotti utilizzati: BigQuery, Cloud Build, Cloud Storage, Cloud Vision, Dataflow, Pub/Sub" |
Esportazione delle metriche di Cloud Monitoring Descrive un modo per esportare le metriche di Cloud Monitoring per le analisi a lungo termine. Prodotti utilizzati: App Engine, BigQuery, Cloud Monitoring, Cloud Pub/Sub, Cloud Scheduler, Datalab, Looker Studio |
Replica continua dei dati in BigQuery utilizzando Striim Illustra come eseguire la migrazione di un database MySQL a BigQuery utilizzando Striim. Striim è una piattaforma ETL completa per estrazione, trasformazione e caricamento dei flussi di dati. Prodotti utilizzati: BigQuery, Cloud SQL per MySQL, Compute Engine |
Replicazione continua dei dati in Spanner utilizzando Striim Come eseguire la migrazione di un database MySQL in Cloud Spanner utilizzando Striim. Prodotti utilizzati: Cloud SQL, Cloud SQL per MySQL, Compute Engine, Spanner |
Data science con R su Google Cloud: analisi esplorativa dei dati Mostra come iniziare a utilizzare la data science su larga scala con R su Google Cloud. Questo documento è rivolto a coloro che hanno una certa esperienza con R e con i blocchi note Jupyter e che hanno dimestichezza con SQL. Prodotti utilizzati: BigQuery, Cloud Storage, Notebook, Vertex AI |
Trasformazione dei dati tra MongoDB Atlas e Google Cloud Trasformazione dei dati tra MongoDB Atlas come data store operativo e BigQuery come data warehouse di analisi. Prodotti utilizzati: BigQuery, Cloud Pub/Sub, Dataflow |
Spiega come utilizzare Sensitive Data Protection per creare una pipeline di trasformazione dei dati automatizzata per anonimizzare i dati sensibili come le informazioni che consentono l'identificazione personale (PII). Prodotti utilizzati: BigQuery, Cloud Pub/Sub, Cloud Storage, Dataflow, Identity and Access Management, Sensitive Data Protection |
Architettura di analisi geospaziali Scopri le funzionalità di dati geografici di Google Cloud e come utilizzarle nelle tue applicazioni di analisi geografica. Prodotti utilizzati: BigQuery, Dataflow |
Importare dati da una rete esterna in un data warehouse BigQuery sicuro Descrive un'architettura che puoi utilizzare per contribuire a proteggere un data warehouse in un ambiente di produzione e fornisce le best practice per importare i dati in BigQuery da una rete esterna, ad esempio un ambiente on-premise. Prodotti utilizzati: BigQuery |
Importare i dati da Google Cloud in un data warehouse BigQuery sicuro Descrive un'architettura che puoi utilizzare per contribuire a proteggere un data warehouse in un ambiente di produzione e fornisce le best practice per la governance dei dati di un data warehouse in Google Cloud. Prodotti utilizzati: BigQuery, Cloud Key Management Service, Dataflow, Sensitive Data Protection |
Soluzione Jump Start: lakehouse di analisi Unifica i data lake e i data warehouse creando una lakehouse di analisi utilizzando BigQuery per archiviare, elaborare, analizzare e attivare i dati. |
Soluzione rapida: data warehouse con BigQuery Creare un data warehouse con una dashboard e uno strumento di visualizzazione utilizzando BigQuery. |
Eseguire la migrazione a Google Cloud Ti aiuta a pianificare, progettare e implementare il processo di migrazione dei carichi di lavoro delle applicazioni e dell'infrastruttura a Google Cloud, inclusi carichi di lavoro di computing, database e archiviazione. Prodotti utilizzati: App Engine, Cloud Build, Cloud Data Fusion, Cloud Deployment Manager, Cloud Functions, Cloud Run, Cloud Storage, Container Registry, Data Catalog, Dataflow, Direct Peering, Google Kubernetes Engine (GKE), Transfer Appliance |
Migrazione dell'infrastruttura Hadoop on-premise a Google Cloud Linee guida per spostare i carichi di lavoro Hadoop on-premise su Google Cloud... Prodotti utilizzati: BigQuery, Cloud Storage, Dataproc |
Automazione del backup BigQuery scalabile Crea una soluzione per automatizzare le operazioni di backup ricorrenti di BigQuery su larga scala, con due metodi di backup: gli snapshot di BigQuery e le esportazioni in Cloud Storage. Prodotti utilizzati: BigQuery, Cloud Logging, Cloud Pub/Sub, Cloud Run, Cloud Scheduler, Cloud Storage |
Analisi dei log di sicurezza in Google Cloud Mostra come raccogliere, esportare e analizzare i log di Google Cloud per verificare l'utilizzo e rilevare le minacce ai dati e ai carichi di lavoro. Utilizza le query di rilevamento delle minacce incluse per BigQuery o Chronicle oppure utilizza il tuo SIEM. Prodotti utilizzati: BigQuery, Cloud Logging, Compute Engine, Looker Studio |
Utilizzare una pipeline CI/CD per i flussi di lavoro di elaborazione dei dati Descrive come configurare una pipeline di integrazione continua/deployment continuo (CI/CD) per l'elaborazione dei dati implementando metodi CI/CD con prodotti gestiti su Google Cloud. Prodotti utilizzati: Cloud Build, Cloud Composer, Cloud Source Repositories, Cloud Storage, Compute Engine, Dataflow |
Utilizzare Apache Hive su Dataproc Mostra come utilizzare Apache Hive su Dataproc in modo efficiente e flessibile archiviando i dati Hive in Cloud Storage e ospitando il metastore Hive in un database MySQL su Cloud SQL. Prodotti utilizzati: Cloud SQL, Cloud Storage, Dataproc |