Il Centro di Architettura fornisce risorse di contenuti su una vasta gamma di argomenti relativi a big data e analisi.
Risorse per big data e analisi nell'Architecture Center
Puoi filtrare il seguente elenco di risorse di big data e analisi digitando un nome di prodotto o una frase che si trova nel titolo o nella descrizione della risorsa.
Analisi dei dati FHIR in BigQuery Spiega le procedure e le considerazioni per analizzare i dati FHIR (Fast Healthcare Interoperability Resources) in BigQuery. Prodotti utilizzati: BigQuery |
Architettura e funzioni in un mesh di dati Una serie che descrive come implementare un data mesh interno a un'organizzazione. |
Creare una soluzione di analisi visiva ML con Dataflow e l'API Cloud Vision Come eseguire il deployment di una pipeline Dataflow per elaborare file di immagini su larga scala con Cloud Vision. Dataflow archivia i risultati in BigQuery in modo che tu possa utilizzarli per addestrare i modelli predefiniti di BigQuery ML. Prodotti utilizzati: BigQuery, Cloud Build, Cloud Pub/Sub, Cloud Storage, Cloud Vision, Dataflow |
Esportazione delle metriche di Cloud Monitoring Descrive un modo per esportare le metriche di Cloud Monitoring per le analisi a lungo termine. Prodotti utilizzati: App Engine, BigQuery, Cloud Monitoring, Cloud Pub/Sub, Cloud Scheduler, Datalab, Looker Studio |
Replicazione continua dei dati in BigQuery utilizzando Striim Mostra come eseguire la migrazione di un database MySQL a BigQuery utilizzando Striim. Striim è una piattaforma completa di estrazione, trasformazione e caricamento (ETL) in streaming. Prodotti utilizzati: BigQuery, Cloud SQL per MySQL, Compute Engine |
Replicazione continua dei dati in Spanner utilizzando Striim Come eseguire la migrazione di un database MySQL in Cloud Spanner utilizzando Striim. Prodotti utilizzati: Cloud SQL, Cloud SQL per MySQL, Compute Engine, Spanner |
Data science con R su Google Cloud: analisi esplorativa dei dati Mostra come iniziare a utilizzare la data science su larga scala con R su Google Cloud. Questo documento è rivolto a chi ha una certa esperienza con R e con i Jupyter Notebook e ha dimestichezza con SQL. Prodotti utilizzati: BigQuery, Cloud Storage, Notebooks, Vertex AI |
Trasformazione dei dati tra MongoDB Atlas e Google Cloud Trasformazione dei dati tra MongoDB Atlas come datastore operativo e BigQuery come data warehouse di analisi. Prodotti utilizzati: BigQuery, Cloud Pub/Sub, Dataflow |
Spiega come utilizzare Sensitive Data Protection per creare una pipeline di trasformazione dei dati automatizzata per anonimizzare i dati sensibili come le informazioni che consentono l'identificazione personale (PII). Prodotti utilizzati: BigQuery, Cloud Pub/Sub, Cloud Storage, Dataflow, Identity and Access Management, Sensitive Data Protection |
Architettura di analisi geospaziali Scopri le funzionalità geospaziali di Google Cloud e come utilizzarle nelle tue applicazioni di analisi geospaziale. Prodotti utilizzati: BigQuery, Dataflow |
Importare i dati da una rete esterna in un data warehouse BigQuery protetto Descrive un'architettura che puoi utilizzare per proteggere un data warehouse in un ambiente di produzione e fornisce best practice per l'importazione dei dati in BigQuery da una rete esterna, ad esempio un ambiente on-premise. Prodotti utilizzati: BigQuery |
Importare i dati da Google Cloud in un data warehouse BigQuery protetto Descrive un'architettura che puoi utilizzare per proteggere un data warehouse in un ambiente di produzione e fornisce best practice per la governance dei dati di un data warehouse in Google Cloud. Prodotti utilizzati: BigQuery, Cloud Key Management Service, Dataflow, Sensitive Data Protection |
Soluzione Jump Start: lakehouse di analisi Unifica i data lake e i data warehouse creando una lakehouse di analisi utilizzando BigQuery per archiviare, elaborare, analizzare e attivare i dati. |
Soluzione rapida: data warehouse con BigQuery Crea un data warehouse con uno strumento di visualizzazione e dashboard utilizzando BigQuery. |
Eseguire la migrazione a Google Cloud Ti aiuta a pianificare, progettare e implementare il processo di migrazione dei carichi di lavoro di applicazioni e infrastruttura in Google Cloud, inclusi i carichi di lavoro di calcolo, database e archiviazione. Prodotti utilizzati: App Engine, Cloud Build, Cloud Data Fusion, Cloud Deployment Manager, Cloud Functions, Cloud Run, Cloud Storage, Container Registry, Data Catalog, Dataflow, Direct Peering, Google Kubernetes Engine (GKE), Transfer Appliance |
Migrazione dell'infrastruttura Hadoop on-premise a Google Cloud Linee guida per spostare i carichi di lavoro Hadoop on-premise in Google Cloud... Prodotti utilizzati: BigQuery, Cloud Storage, Dataproc |
Automatizzazione scalabile dei backup di BigQuery Crea una soluzione per automatizzare le operazioni di backup ricorrenti di BigQuery su larga scala, con due metodi di backup: gli snapshot di BigQuery e le esportazioni in Cloud Storage. Prodotti utilizzati: BigQuery, Cloud Logging, Cloud Pub/Sub, Cloud Run, Cloud Scheduler, Cloud Storage |
Analisi dei log di sicurezza in Google Cloud Mostra come raccogliere, esportare e analizzare i log di Google Cloud per aiutarti a controllare l'utilizzo e rilevare le minacce ai tuoi dati e ai tuoi carichi di lavoro. Utilizza le query di rilevamento delle minacce incluse per BigQuery o Chronicle oppure utilizza il tuo SIEM. Prodotti utilizzati: BigQuery, Cloud Logging, Compute Engine, Looker Studio |
Utilizzare una pipeline CI/CD per i flussi di lavoro di elaborazione dei dati Descrive come configurare una pipeline di integrazione continua/deployment continuo (CI/CD) per l'elaborazione dei dati implementando metodi CI/CD con prodotti gestiti su Google Cloud. Prodotti utilizzati: Cloud Build, Cloud Composer, Cloud Source Repositories, Cloud Storage, Compute Engine, Dataflow |
Utilizzare Apache Hive su Dataproc Mostra come utilizzare Apache Hive su Dataproc in modo efficiente e flessibile archiviando i dati Hive in Cloud Storage e ospitando il metastore Hive in un database MySQL su Cloud SQL. Prodotti utilizzati: Cloud SQL, Cloud Storage, Dataproc |