Dataproc

Met Dataproc kunt u sneller, makkelijker en veiliger opensource-gegevens in de cloud verwerken en analyseren.

Dataproc kosteloos uitproberen
  • action/check_circle_24px Gemaakt met Sketch.

    Start binnen 90 seconden een cluster met automatische schaling op aangepaste machines

  • action/check_circle_24px Gemaakt met Sketch.

    Ontwerp volledig beheerde clusters op basis van Apache Spark, Apache Hadoop, Presto en andere opensource-software (OSS).

  • action/check_circle_24px Gemaakt met Sketch.

    Betaal alleen voor de resources die u gebruikt en verlaag de totale eigendomskosten van OSS

  • action/check_circle_24px Gemaakt met Sketch.

    Versleuteling en uniforme beveiliging ingebouwd in elk cluster

  • action/check_circle_24px Gemaakt met Sketch.

    Versnel processen in de datawetenschap met speciaal ontworpen clusters

Sneller aangepaste OSS-clusters op aangepaste machines ontwerpen

Of u nu extra geheugen voor Presto of GPU's voor machine learning op Apache Spark nodig heeft, met Dataproc kunt u de gegevensverwerking en -analyse versnellen door binnen 90 seconden een speciaal ontworpen cluster te starten.

Moeiteloos en betaalbaar clusters beheren

Dankzij de automatische schaling, verwijdering van inactieve clusters, facturering per seconde en andere voordelen van Dataproc kunt u de totale eigendomskosten van OSS verlagen en houdt u tijd en resources over voor andere doeleinden. 

Standaard ingebouwde beveiliging

Dankzij de standaardversleuteling zijn uw gegevens nooit onbeschermd. Met Jobs API en de component-gateway kunt u rechten voor Cloud IAM-clusters instellen zonder dat u netwerk- of gateway-nodes hoeft te maken. 

Belangrijkste functies

Geautomatiseerd clusterbeheer

Dankzij de beheerde implementatie, logboekregistratie en controle hoeft u zich alleen maar op uw gegevens te richten, niet op uw cluster. Dataproc-clusters zijn stabiel, schaalbaar en snel.

OSS-taken containeriseren

Wanneer u op Dataproc OSS-taken ontwerpt (bijvoorbeeld Apache Spark-taken), kunt u deze met Kubernetes snel containeriseren en ze in elk actief GKE-cluster implementeren. 

Beveiliging op enterprise-niveau

Wanneer u een Dataproc-cluster maakt, kunt u Hadoop Secure Mode via Kerberos inschakelen door een beveiligingsconfiguratie toe te voegen. De meestgebruikte beveiligingsfuncties voor Google Cloud met Dataproc zijn: standaardversleuteling van inactieve gegevens, inloggen bij het besturingssysteem, VPC-serviceopties en door de klant beheerde versleutelingssleutels (CMEK).

Alle functies weergeven

Toepassingen

Toepassing
Uw Hadoop- en Spark-clusters naar de cloud migreren

Bedrijven migreren hun huidige lokale Apache Hadoop- en Spark-clusters naar Dataproc om kosten te besparen en meer flexibiliteit te krijgen. Dataproc biedt bedrijven een volledig beheerd, speciaal ontworpen cluster dat automatisch wordt op- of afgeschaald voor elke vorm van gegevensverwerking en -analyse. 

Toepassing
Datawetenschap op Dataproc

Schep de ideale omgeving voor datawetenschap door een speciaal ontworpen Dataproc-cluster te starten. Integreer opensource-software zoals Apache Spark, NVIDIA RAPIDS en Jupyter-notebooks met de AI-services en GPU's van Google Cloud om uw machine learning en AI-ontwikkeling te versnellen. 

Alle functies

Schaalbare clusters Maak en schaal clusters snel met diverse typen virtuele machines, schijfgrootten, aantallen nodes en netwerkopties.
Clusters automatisch schalen Dataproc biedt met automatische schaling een mechanisme om het beheer van clusterresources te automatiseren en het aantal clusterwerkrollen (nodes) automatisch te verhogen en verlagen.
Geïntegreerd met de cloud De ingebouwde integratie met Cloud Storage, BigQuery, Cloud Bigtable, Cloud Logging, Cloud Monitoring en AI Hub zorgt voor een compleet en robuust gegevensplatform.
Versiebeheer Versiebeheer van images maakt het mogelijk om tussen verschillende versies van Apache Spark, Apache Hadoop en andere tools te wisselen.
Hoge beschikbaarheid Voer clusters met meerdere hoofdnodes uit in de modus hoge beschikbaarheid en stel in dat taken opnieuw worden opgestart bij fouten. Zo zorgt u voor een hoge beschikbaarheid van uw clusters en taken.
Geplande verwijdering van clusters Als u geen kosten wilt maken voor inactieve clusters, kunt u in Dataproc geplande verwijdering gebruiken. Deze functie biedt verschillende opties om een cluster te verwijderen na een bepaalde periode van inactiviteit, op een opgegeven tijdstip of na een opgegeven periode.
Automatische of handmatige configuratie Dataproc configureert hardware en software automatisch, maar biedt ook mogelijkheden om dit handmatig te doen.
Developer Tools Dit zijn verschillende tools om clusters te beheren, waaronder een gebruiksvriendelijke web-UI, de Cloud SDK, RESTful API's en SSH-toegang.
Initialisatieacties Voer tijdens het maken van uw cluster initialisatieacties uit om de benodigde instellingen en bibliotheken te installeren of aan te passen.
Optionele componenten Met optionele componenten kunt u aanvullende componenten in het cluster installeren en configureren. Deze optionele componenten zijn geïntegreerd met Dataproc en bieden volledig geconfigureerde omgevingen voor Zeppelin, Druid, Presto en andere opensource-software voor het ecosysteem van Apache Hadoop en Apache Spark.
Aangepaste images Dataproc-clusters kunnen worden geleverd met een custom image waarin uw Linux-besturingssysteempakketten vooraf zijn geïnstalleerd.
Flexibele virtuele machines Clusters kunnen gebruikmaken van aangepaste machinetypen en verwijderbare virtuele machines en daarmee perfect worden afgestemd op uw behoeften.
Toegang tot component-gateways en notebooks De component-gateway van Dataproc biedt veilig en snel toegang tot de webinterface van standaard en optionele Dataproc-componenten die in het cluster worden uitgevoerd.
Workflowtemplates Met de workflowtemplates van Dataproc kunnen workflows op een flexibele en gebruiksvriendelijke manier worden beheerd en uitgevoerd. Een workflowtemplate is een herbruikbare configuratie voor workflows waarin wordt aangegeven welke taken waar worden uitgevoerd.

Prijzen

De prijzen voor Dataproc zijn gebaseerd op het aantal vCPU's en de tijd dat deze actief zijn. De weergegeven prijzen zijn per uur, maar u betaalt per seconde voor wat u gebruikt. Zie de pagina met prijzen voor meer informatie.

Partners

Dataproc werkt samen met strategische partners om uw investeringen en capaciteiten te versterken.