Google Cloud für AWS-Profis: Speicher

Aktualisiert: 28. September 2018

Vergleichen Sie die Speicherdienste, die Amazon und Google in ihrer jeweiligen Cloudumgebung anbieten. Dabei werden folgende Diensttypen behandelt:

  • Verteilter Objektspeicher oder redundanter Speicher für Schlüssel/Wert-Paare zur Speicherung von Datenobjekten
  • Blockspeicher oder virtuelle Laufwerks-Volumes, die VM-Instanzen angehängt werden können
  • Dateispeicher oder dateiserverbasierter netzgebundener Speicher
  • Kalter Speicher oder Speicherdienste für Datensicherungen
  • Archivspeicher oder Speicherdienste zum Sichern von Archivdaten für Compliance- oder Analysezwecke

Datenbanken oder Nachrichtenwarteschlangen werden in diesem Artikel nicht behandelt.

Verteilter Objektspeicher

Amazon Simple Storage Service (S3) und Google Cloud Storage sind gehostete Dienste für die Speicherung von und den Zugriff auf eine Vielzahl von binären Objekten oder Blobs verschiedener Größe. Jeder Dienst kann als stark skalierbarer Speicher für Schlüssel/Wert-Paare verstanden werden, bei dem die Schlüssel Strings und die Werte beliebige binäre Objekte sind.

In diesem Abschnitt werden die Speicherklassen Amazon S3 Standard und Cloud Storage Standard behandelt. Amazon S3 und Cloud Storage bieten außerdem kostengünstigere Speicherklassen für Archivdaten und Daten, auf die nur selten zugegriffen wird. Informationen zu diesen anderen Speicherklassen finden Sie in den Abschnitten Kalter Speicher und Archivspeicher.

Dienstmodelle im Vergleich

Cloud Storage und Amazon S3 haben sehr ähnliche Dienstmodelle. Bei beiden Diensten speichern Sie Objekte in einem Bucket. Jedes Objekt innerhalb eines Buckets wird durch einen eindeutigen Schlüssel in diesem Bucket identifiziert und jedes Objekt verfügt über einen zugehörigen Metadateneintrag. Dieser Metadateneintrag enthält Informationen wie die Größe des Objekts, das Datum der letzten Änderung und den Medientyp. Wenn Sie die entsprechenden Berechtigungen haben, können Sie sich einige dieser Metadaten anzeigen lassen und diese ändern. Sie können auch benutzerdefinierte Metadaten hinzufügen.

Obwohl Buckets Speicher für Schlüssel/Wert-Paare sind, bieten sie eine ähnliche, wenn auch nicht identische Nutzerfreundlichkeit wie Dateisysteme. Objektschlüssel sind normalerweise Pfade wie "/foo/bar.txt" oder "/foo/subdir/baz.txt". Sowohl Amazon S3 als auch Cloud Storage bieten außerdem APIs, die Dateisystemen gleichen. Beispielsweise können Sie mit der Methode list alle Objektschlüssel mit einem gemeinsamen Präfix auflisten, ähnlich wie mit ls -R in einem Unix-artigen Dateisystem.

Neben der offensichtlichsten Verwendung, dem verteilten Objektspeicher, können beide Dienste zum Hosten von statischen Webinhalten und Medien genutzt werden.

Die Funktionen und die Terminologie von Amazon S3 sind denen von Cloud Storage folgendermaßen zugeordnet:

Option Amazon S3 Cloud Storage
Bereitstellungseinheit Bucket Bucket
Bereitstellungskennung Eindeutiger globaler Schlüssel Eindeutiger globaler Schlüssel
Nachbildung des Dateisystems Begrenzt Begrenzt
Objektmetadaten Ja Ja
Objektversionsverwaltung Ja Ja
Verwaltung des Objektlebenszyklus Ja Ja
Updatebenachrichtigungen Ereignisbenachrichtigungen Pub/Sub-Benachrichtigungen für Cloud Storage, Cloud Storage-Trigger für Cloud Functions und Benachrichtigungen über Objektänderungen
Dienstklassen Standard, Standard-Infrequent Access, One Zone-Infrequent Access, Amazon Glacier* Standard, Nearline, Coldline, Archive
Ortsbezogenheit Regional Multiregional und Regional
Preis Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic und der Anzahl an allgemeinen API-Anfragen Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic und der Anzahl an allgemeinen API-Anfragen

* Das Produkt Amazon Glacier gehört nicht zu Amazon S3.

Objektversionierung

Amazon S3 und Cloud Storage unterstützen beide die Objektversionsverwaltung, bei der unterschiedliche Versionen eines Objekts mit einem Schlüssel unter einer eindeutigen Versions-ID gespeichert werden. Durch Aktivieren der Versionsverwaltung können Sie das Risiko eines versehentlichen Datenverlustes aufgrund eines überschriebenen Objekts verringern.

In Cloud Storage können Sie mithilfe von Vorbedingungen bedingte Updates für PUT- und DELETE-Vorgänge ausführen. Bei einem bedingten Update ist die Updateanfrage nur erfolgreich, wenn die zu aktualisierende Objektversion der in der Anfrage spezifizierten Objektversion entspricht. Dieser Mechanismus trägt dazu bei, mögliche Race-Bedingungen während eines Updates zu vermeiden. Amazon S3 unterstützt keine bedingten Updates.

Verwaltung des Objektlebenszyklus

Sowohl mit Amazon S3 als auch mit Cloud Storage können Objekte automatisch entsprechend der benutzerspezifischen Lebenszyklusrichtlinien migriert oder gelöscht werden.

Updatebenachrichtigungen

Sowohl Amazon S3 als auch Cloud Storage erlauben es Ihnen, Ihre Buckets so zu konfigurieren, dass Benachrichtigungen ausgegeben werden, wenn Objekte erstellt, gelöscht oder aktualisiert werden. In Amazon S3 heißt diese Funktion Ereignisbenachrichtigung. Cloud Storage verfügt über mehrere Dienste, die eine ähnliche Funktionalität bieten, sich jedoch durch den gewünschten Endpunkt der Benachrichtigung unterscheiden:

Die Ereignisbenachrichtigungen von Amazon S3 unterstützen drei mögliche Benachrichtigungsendpunkte:

  • Das Thema Amazon Simple Notification Service (SNS)
  • Die Warteschlange Amazon Simple Queue Service (SQS)
  • Die AWS Lambda-Funktion

Die verschiedenen Cloud Storage-Benachrichtigungsdienste der Google Cloud unterstützen auf ähnliche Weise die folgenden Endpunkte:

  • Pub/Sub-Benachrichtigungen für Cloud Storage: ein Cloud Pub/Sub-Thema
  • Cloud Storage-Trigger: eine Funktion von Cloud Functions
  • Benachrichtigungen über Objektänderungen für Cloud Storage: Eine Ziel-URL oder ein Webhook, der die Nutzlast der Benachrichtigung verwaltet.

Service Level Agreement

Sowohl Amazon als auch Google bieten Verfügbarkeitsgarantien und haben Richtlinien für Gutschriften auf Kundenkonten, wenn diese Garantien nicht erfüllt werden. Die Garantien und Richtlinien für Amazon S3 Standard sind im standardmäßigen Amazon S3 Service Level Agreement (SLA) definiert. Die Garantien und Richtlinien für Cloud Storage sind im Cloud Storage SLA von Google definiert.

Kosten

Amazon S3 Standard

Der Preis von Amazon S3 Standard richtet sich nach der pro Monat gespeicherten Datenmenge und nach dem ausgehenden Netzwerktraffic. Die Preise variieren auch je nach Speicherregion. Amazon S3 Standard erhebt Gebühren für allgemeine API-Anfragen.

Cloud Storage Standard

Wie bei Amazon S3 Standard richtet sich der Preis für Cloud Storage Standard nach der pro Monat gespeicherten Datenmenge und nach dem ausgehenden Netzwerktraffic. Die Preise variieren je nach Speicherregion. Cloud Storage Standard erhebt zudem Gebühren für allgemeine API-Anfragen.

Blockspeicher

Google Cloud und Amazon Web Services bieten Blockspeicheroptionen als Teil ihrer Rechendienste an. Google Compute Engine bietet nichtflüchtigen Speicher und Amazon Elastic Compute Cloud (EC2) bietet Elastic Block Store (EBS). Jeder Dienst hat mehrere Blockspeichertypen, die eine Reihe von Preis- und Leistungseigenschaften abdecken.

Dienstmodelle im Vergleich

Nichtflüchtige Compute Engine-Speicher und Amazon EBS sind sich in den meisten Aspekten sehr ähnlich. In beiden Fällen hängt das Laufwerks-Volume am Netzwerk, obwohl Compute Engine und Amazon EC2 auch die Möglichkeit bieten, ein Laufwerk gegebenenfalls lokal zu verbinden. Obwohl mit dem Netzwerk verbundene Laufwerke eine höhere operative Latenz und einen geringeren Durchsatz als ihre lokal verbundenen Gegenstücke haben, bieten sie auch viele Vorteile, darunter eine integrierte Redundanz, die Möglichkeit zum Erstellen von Snapshots und ein leichtes Anschließen und Trennen von Laufwerken.

Nichtflüchtige Compute Engine-Speicher sind Amazon EBS folgendermaßen zuzuordnen:

Feature Amazon EBS Compute Engine
Volume-Typen Von EBS bereitgestelltes IOPS SSD, EBS Allzweck-SSD, Durchsatz-optimierte HDD, Cold HDD Zonale nichtflüchtige Standardspeicher (HDD), regionale nichtflüchtige Speicher, zonale nichtflüchtige SSD-Speicher, regionale nichtflüchtige SSD-Speicher
Regeln für den Ort des Volumes Muss sich in derselben Zone wie die Instanz befinden, an die es gebunden ist Muss sich in derselben Zone wie die Instanz befinden, an die es gebunden ist
Volume-Anhang Können immer nur jeweils einer Instanz angehängt werden Volumes mit Lese-/Schreibzugriff: Können immer nur jeweils einer Instanz angehängt werden
Schreibgeschützte Volumes: Können mehreren Instanzen angehängt werden
Angehängte Volumes pro Instanz Bis zu 40 Bis zu 128
Maximale Volumengröße 16 TiB 64 TB
Redundanz Zonal Je nach Typ des Volumes zonal oder multizonal
Erstellen von Snapshots Ja Ja
Snapshot-Speicherort Regional Global

So ähneln die lokal angehängten Laufwerke von Compute Engine denen von Amazon EC2:

Option Amazon EC2 Compute Engine
Dienstname Instanzenspeicher (auch bekannt als sitzungsspezifischer Speicher) Lokale SSD
Anhängen von Volumes An Instanztyp gebunden Kann an jede Instanz ohne gemeinsam genutzten Kern angefügt werden
Gerätetyp Variiert je nach Instanztyp SSD
Angehängte Volumes pro Instanz Variiert je nach Instanztyp Bis zu 8
Speicherkapazität Variiert je nach Instanztyp 375 GB pro Volume
Live-Migration Nein Ja
Redundanz Keine Keine

Volumes anhängen und trennen

Nach dem Erstellen eines Laufwerks-Volumes können Sie das Volume an eine Instanz von Compute Engine oder Amazon EC2 anhängen. Die Instanz kann dann das Laufwerks-Volume wie jedes andere Blockgerät bereitstellen oder formatieren. Ebenso können Sie ein Volume von einer Instanz trennen und es anderen Instanzen hinzufügen.

Ein Amazon EBS-Volume kann immer nur an eine Amazon EC2-Instanz gleichzeitig angehängt werden. Für nichtflüchtigen Compute Engine-Speicher im Lese-/Schreibmodus gelten dieselben Einschränkungen. Nichtflüchtiger Compute Engine-Speicher im Lesemodus kann jedoch mehreren Instanzen gleichzeitig hinzugefügt werden.

Bei Amazon EC2 können Sie bis zu 40 Laufwerks-Volumes an eine Linux-Instanz anhängen. Bei Compute Engine können Sie bis zu 128 Laufwerks-Volumes anhängen.

Volume-Snapshots erstellen

Compute Engine und Amazon EBS ermöglichen es Nutzern, Snapshots von Laufwerks-Volumes zu erfassen und zu speichern. Mit diesen Snapshots lassen sich später neue Volumes erstellen.

Bei beiden Diensten sind Snapshots differenziell. Mit dem ersten Snapshot wird eine vollständige Kopie des Volumes erstellt, aber bei den folgenden Snapshots werden nur die Blöcke kopiert, die sich seit dem vorherigen Snapshot verändert haben.

Amazon EBS-Snapshots sind standardmäßig nur in einer Region verfügbar und müssen gegebenenfalls explizit in andere Regionen kopiert werden. Dieser weitere Schritt hat zusätzliche Gebühren für den Datentransfer zur Folge. Im Gegensatz dazu sind Snapshots von nichtflüchtigen Speichern von Compute Engine global und können in jeder Region ohne zusätzliche Maßnahmen oder Gebühren verwendet werden.

Volume-Leistung

Bei sowohl persistenten Compute Engine-Laufwerken als auch Amazon EBS, hängt die Laufwerksleistung von mehreren Faktoren ab, einschließlich:

  • Volume-Typ: Jeder Dienst bietet mehrere verschiedene Volume-Typen. Jeder hat seine eigenen Leistungseigenschaften und Limits.
  • Verfügbare Bandbreite: Der Durchsatz eines mit dem Netzwerk verbundenen Volumes hängt von der Netzwerkbandbreite ab, die Compute Engine oder Amazon EC2 zur Verfügung steht.

Dieser Abschnitt behandelt zusätzliche Leistungsinformationen für jeden Dienst.

Amazon EBS

Amazon EC2-Instanzen-Typen variieren stark in Bezug auf die Netzwerkleistung. Instanztypen mit einer geringen Anzahl von Kernen, wie etwa die T2-Instanzen, haben möglicherweise nicht genug Netzwerkkapazität, um die beworbenen maximalen IOPs oder den Durchsatz für einen gegebenen Amazon EBS-Laufwerkstyp zu erreichen. Siehe Amazon EC2-Instanzenkonfiguration für weitere Informationen.

Außerdem sind einige Instanztypen von Amazon EC2 EBS-optimiert. Das bedeutet, dass eine dedizierte Verbindung zum angehängten Amazon EBS-Volume besteht. Wenn Sie einen Instanztyp von Amazon EC2 nutzen, der nicht EBS-optimiert ist, besteht keine Garantie, welche Netzwerkkapazität zu einer bestimmten Zeit für die Instanz und das EBS-Volume zur Verfügung steht.

Nichtflüchtige Compute Engine-Speicher

Compute Engine verteilt den Durchsatz pro Kern. Pro virtuellem CPU-Kern erhalten Sie 2 Gbps an ausgehendem Netzwerktraffic mit maximal 16 Gbps für eine einzige Instanz. Da Compute Engine einen Datenredundanzfaktor von 3,3 hat, erfordert jeder logische Schreibvorgang eine Netzwerkbandbreite, die 3,3 Schreibvorgängen entspricht. Dementsprechend haben Maschinentypen mit einer geringen Anzahl von Kernen möglicherweise nicht genug Netzwerkkapazität, um die beworbenen maximalen IOPs oder den Durchsatz für einen bestimmten nichtflüchtigen Speichertyp zu erreichen. Weitere Informationen finden Sie unter Kapazität des ausgehenden Netzwerktraffics.

Bei jedem Compute Engine-Laufwerkstyp steht die gesamte E/A zur Gesamtgröße der Volumes in Beziehung, die mit einer gegebenen Instanz verbunden sind. Wenn Sie beispielsweise zwei nichtflüchtige Standardspeicher mit 2 TB haben, die mit einer Instanz verbunden sind, beträgt Ihr gesamtes verfügbares E-/A-Volumen 3.072 Lese-IOPS und 6.144 Schreib-IOPS.

Lokal angeschlossene Laufwerke

Zusätzlich zu einem standardmäßigen, mit dem Netzwerk verbundenen Blockspeicher ermöglichen Amazon EC2 und Compute Engine den Nutzern die Verwendung von Laufwerken, die lokal an die physische Maschine angeschlossen sind, auf der die Instanz ausführt wird. Diese lokalen Laufwerke bieten deutlich schnellere Übertragungsraten. Im Gegensatz zu einem mit dem Netzwerk verbundenen Blockspeicher sind diese nicht redundant und es kann kein Snapshot für sie erstellt werden.

Bei Amazon EC2 werden lokale Laufwerke als Instanzspeicher oder als sitzungsspezifischer Speicher bezeichnet. Bei diesen Laufwerken kann es sich entweder um HDD oder SSD handeln, je nach Typenfamilie der Instanz. Die Anzahl und die Größe dieser Laufwerke hängen vom spezifischen Instanztyp ab und sind nicht anpassbar.

In Compute Engine werden lokale Laufwerke als lokale SSDs bezeichnet. Lokale SSDs sind, wie der Name schon sagt, reine SSDs, die nahezu allen Maschinentypen hinzugefügt werden können, außer solchen mit gemeinsam genutztem Kern wie f1-micro und g1-small. Lokale SSDs haben eine feste Größe von 375 GB pro Laufwerk und es können maximal 8 an eine einzige Instanz angehängt werden.

Compute Engine migriert lokale SSDs automatisch und nahtlos, wenn ihre Hostmaschinen für die Wartung heruntergefahren sind. Weitere Informationen finden Sie unter Live-Migration.

Während für den Amazon EC2-Instanzspeicher keine zusätzlichen Kosten anfallen, werden für die lokalen SSDs von Compute Engine zusätzliche Gebühren erhoben. Weitere Informationen finden Sie unter Lokale SSDs – Preise.

Kosten

Amazon EBS

Der Preis von Amazon EBS-Volumes wird pro GB pro Monat und bei einigen Volume-Typen nach bereitgestellten IOPS pro Monat berechnet. Zusätzlich variieren die Amazon EBS-Preise je nach Region. Siehe Amazon EBS Preise für weitere Informationen.

Nichtflüchtige Compute Engine-Speicher

Die Preise für nichtflüchtige Compute Engine-Speicher und Laufwerks-Snapshots richten sich nach den GB pro Monat. Weitere Informationen finden Sie unter Preise für nichtflüchtigen Speicher.

File Storage

Sowohl Google Cloud als auch AWS bieten als Bestandteil ihrer Compute-Dienste Dateispeicheroptionen an. Google Cloud stellt Filestore und AWS stellt das Elastic File System (EFS) bereit. Ab September 2018 befindet sich Filestore in der Betaversion.

So entsprechen die Speicherdienste von AWS denen von Google Cloud:

Feature Amazon EFS Filestore
Stufen/Modi Allgemein und Max. E/A. Jede Stufe unterstützt entweder den Modus "Bursting-Durchsatz" oder den Modus "Bereitgestellter Durchsatz". Standard und Premium
Bereitstellungsort Regional Zonal
Protokoll NFSv4** NFSv3
Verschlüsselung Kann bei Inaktivität und während der Übertragung aktiviert werden Bei Inaktivität und während der Übertragung standardmäßig verschlüsselt
Maximale Anzahl an Bereitstellungen pro Laufwerk Keine Angabe (keine veröffentlichten Daten) 500
Maximale Dateigröße 47,9 TB 16 TB
Maximaler Durchsatz für Schreibvorgänge Abhängig von der Größe des Dateisystems und davon, ob Sie den Modus "Bursting-Durchsatz" oder "Bereitgestellter Durchsatz" verwenden. Standard: 100 MB/s bei bis zu 10 TB, 180 MB/s bei mehr als 10 TB.
Premium: 700 MB/s
Maximaler Durchsatz für Lesevorgänge Abhängig von der Größe des Dateisystems und davon, ob Sie den Modus "Bursting-Durchsatz" oder "Bereitgestellter Durchsatz" verwenden.

Standard: 100 MB/s für einen Speicher von bis zu 10 TB, 120 MB/s für einen Speicher von mehr als 10 TB.

Premium: 350 MB/s

Maximale IOPS Keine Angabe (keine veröffentlichten Daten) Standardstufe: 5.000; Premiumstufe: 30.000
Größenbeschränkung Keine Angabe (keine veröffentlichten Daten) 63,9 TB
Preise Abhängig von der durchschnittlichen Menge an GB pro Monat und von der Region der Bereitstellung. Wird der Modus "Bereitgestellter Durchsatz" verwendet, richtet sich der Preis auch nach den bereitgestellten MB des Durchsatzes. Abhängig von den zugewiesenen GB pro Sekunde sowie von der Region der Bereitstellung und der Stufe des Dienstes.

** Amazon EFS unterstützt eine Teilmenge der NFSv4-Funktionen. Weitere Informationen finden Sie unter Limits für Amazon EFS.

Bereitstellungsort

Wenn Sie Amazon EFS verwenden, stellen Sie das Dateisystem in einer bestimmten Region bereit. Amazon EC2-Instanzen innerhalb dieser Region können dann auf dieses Dateisystem zugreifen. Wenn Sie die Amazon VPC zusammen mit AWS Direct Connect nutzen, können Sie das Dateisystem auch auf einem lokalen Clientcomputer bereitstellen.

Wenn Sie Filestore verwenden, stellen Sie Instanzen in einer bestimmten Zone bereit. Sie können Ihre Filestore-Instanz auf einer Compute Engine-Instanz in einer beliebigen Google Cloud-Zone bereitstellen, solange sich beide Instanzen im selben Netzwerk befinden. Ab September 2018 bietet Filestore keine Möglichkeit mehr, Volumes von außerhalb Ihrer Google Cloud-Umgebung bereitzustellen.

Kosten

Amazon EFS

Bei Amazon EFS richtet sich der Preis nach der durchschnittlichen Menge an genutzten GB pro Monat. Wird der Modus "Bereitgestellter Durchsatz" verwendet, richtet sich der Preis auch nach den bereitgestellten MB des Durchsatzes. Der Preis für Amazon EFS variiert auch in Abhängigkeit von der Region, in der sich die Amazon EFS-Bereitstellung befindet.

Filestore

Bei Filestore richtet sich der Preis nach der Menge an zugewiesenen GB pro Sekunde und nach der Dienststufe (Standard oder Premium). Der Preis variiert auch in Abhängigkeit von der Region, in der die Filestore-Instanz bereitgestellt wird.

Kalter Speicher

Für Daten, die nicht die Verfügbarkeit der Standardspeicherstufe erfordern, bieten sowohl Cloud Storage als auch Amazon S3 eine Speicherklasse zu geringeren Kosten. Cloud Storage bietet Cloud Storage Nearline und Cloud Storage Coldline. Amazon S3 bietet Standard – Infrequent Access (Standard-IA) und One Zone – Infrequent Access (One Zone-IA).

So entsprechen die Dienste von AWS für kalten Speicher denen von Google Cloud:

Feature Amazon S3 Standard-IA Amazon S3 One Zone-IA Cloud Storage Nearline Cloud Storage Coldline
Latenz des ersten Bytes Millisekunden (identisch mit Amazon S3 Standard) Millisekunden (identisch mit Amazon S3 Standard) Millisekunden (identisch mit Cloud Storage Standard) Millisekunden (identisch mit Cloud Storage Standard)
Bereitstellungsort Regional Zonal Multiregional oder regional Multiregional oder regional
Mindestspeicherdauer 30 Tage 30 Tage 30 Tage 90 Tage
SLA Ja (Amazon S3 SLA) Ja (Amazon S3 SLA) Ja (Cloud Storage SLA) Ja (Cloud Storage SLA)
Preise Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic, der minimalen Objektgröße, der Speicherdauer, der Speicherregion und der Anzahl an allgemeinen API-Anfragen Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic, der minimalen Objektgröße, der Speicherdauer, der Speicherregion und der Anzahl an allgemeinen API-Anfragen Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic, der Speicherdauer, der Speicherregion und der Anzahl an allgemeinen API-Anfragen Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic, der Speicherdauer, der Speicherregion und der Anzahl an allgemeinen API-Anfragen

Kosten

Amazon S3 Standard-IA und One Zone-IA

Der Preis von Amazon S3 Standard-IA und One Zone-IA richtet sich jeweils nach der pro Monat gespeicherten Datenmenge und dem ausgehenden Netzwerktraffic. Die Preise variieren auch je nach Speicherregion. Da bei Amazon S3 eine Mindestobjektgröße von 128 KB gilt, entspricht der Preis für Objekte mit weniger als 128 KB dem Preis für Objekte mit 128 KB. Wenn Sie Daten vor Ablauf der Mindestspeicherdauer löschen oder ändern, wird Ihnen die verbleibende Dauer berechnet. Falls Sie beispielsweise ein Objekt fünf Tage nach dem Speichern löschen, werden Ihnen die verbleibenden 25 Tage für die Speicherung dieses Objekts berechnet.

Außerdem fallen bei Amazon S3 Standard-IA und One Zone-IA Gebühren für allgemeine API-Anfragen und für den Datenabruf auf einer Pro-GB-Basis an.

Cloud Storage Nearline und Cloud Storage Coldline

Bei Cloud Storage Nearline und Cloud Storage Coldline richtet sich der Preis nach der pro Monat gespeicherten Datenmenge und dem ausgehenden Netzwerk-Traffic. Die Preise variieren auch je nach Speicherregion. Wenn Sie Daten vor Ablauf der Mindestspeicherdauer löschen oder ändern, wird Ihnen die verbleibende Dauer berechnet. Falls Sie beispielsweise ein als Cloud Storage Nearline gespeichertes Objekt fünf Tage nach dem Speichern löschen, werden Ihnen die verbleibenden 25 Tage für die Speicherung dieses Objekts berechnet.

Bei Cloud Storage Nearline und Cloud Storage Coldline werden außerdem auch allgemeine API-Anfragen in Rechnung gestellt.

Weitere Informationen zu den Preisen für Cloud Storage Nearline und Cloud Storage Coldline erhalten Sie unter Cloud Storage-Preise.

Archivspeicher

Google und Amazon bieten jeweils Archivspeicheroptionen für Daten an, auf die nicht regelmäßig zugegriffen werden muss und die nicht schnell abgerufen werden müssen. Cloud Storage bietet eine zusätzliche Klasse namens Cloud Storage Archive und Amazon bietet Amazon Glacier.

So entsprechen die Archivspeicherdienste von AWS denen von Google Cloud:

Feature Amazon Glacier Cloud Storage Archive
Latenz des ersten Bytes Minuten bis Stunden Millisekunden (identisch mit Cloud Storage Standard)
Abrufarten Beschleunigt, Standard, Bulk. Nutzer der Abrufart "Beschleunigt" können darüber hinaus zwischen einem Abruf "On Demand" und einem Abruf als "Bereitstellung" auswählen.
Bereitstellungsort Regional Multiregional oder regional
Mindestspeicherdauer 90 Tage 365 Tage
SLA Nein Nein
Preise Abhängig von der Menge der pro Monat gespeicherten Daten, der Größe der gespeicherten Dateien, der Abrufart, der Anzahl an Abrufanfragen, dem ausgehenden Netzwerktraffic, der Speicherregion, der Speicherdauer und der Anzahl an allgemeinen API-Anfragen Abhängig von der Menge der pro Monat gespeicherten Daten, dem ausgehenden Netzwerktraffic, der Speicherregion, der Speicherdauer und der Anzahl an allgemeinen API-Anfragen

Kosten

Amazon Glacier

Der Preis für Amazon Glacier richtet sich nach folgenden Faktoren:

  • Menge der pro Monat gespeicherten Daten
  • Größe der gespeicherten Dateien
  • Abrufart
  • Anzahl der Abrufanfragen
  • Netzwerktraffic (ausgehend)
  • Speicherregion
  • Bei Verwendung der Abrufart "Beschleunigt" besteht die Wahl zwischen einem Abruf "On Demand" und einem Abruf als "Bereitstellung"

Wenn Sie Daten vor Ablauf der Mindestspeicherdauer löschen oder ändern, wird Ihnen die verbleibende Dauer berechnet. Falls Sie beispielsweise ein Objekt fünf Tage nach dem Speichern löschen, werden Ihnen die verbleibenden 25 Tage für die Speicherung dieses Objekts berechnet.

Wie bei anderen Speicherklassen von Amazon S3 fallen auch bei Amazon Glacier Gebühren für allgemeine API-Anfragen an.

Weitere Informationen zu den Amazon Glacier-Preisen finden Sie unter Amazon Glacier – Preise.

Cloud Storage Archive

Der Preis für Cloud Storage Archive richtet sich nach der pro Monat gespeicherten Datenmenge und dem ausgehenden Netzwerktraffic. Die Preise variieren auch je nach Speicherregion. Wenn Sie Daten vor Ablauf der Mindestspeicherdauer löschen oder ändern, wird Ihnen die verbleibende Dauer berechnet. Falls Sie beispielsweise ein Objekt fünf Tage nach dem Speichern löschen, werden Ihnen die verbleibenden 360 Tage für die Speicherung dieses Objekts berechnet.

Cloud Storage Archive erhebt auch Gebühren für allgemeine API-Anfragen.

Weitere Informationen zu den Preisen für Cloud Storage Archive finden Sie unter Cloud Storage-Preise.

Nächste Schritte

Weitere Artikel zu Google Cloud für AWS-Experten: