Dieses Dokument bietet einen Überblick über Cloud Storage FUSE, einen FUSE-Adapter, mit dem Sie Cloud Storage-Buckets als lokale Dateisysteme bereitstellen und aufrufen können. Damit können Anwendungen Objekte in Ihrem Bucket mit der Standardsemantik des Dateisystems lesen und schreiben.
In dieser Dokumentation wird sich durchgängig auf die aktuelle Version von Cloud Storage FUSE bezogen. Weitere Informationen zur aktuellen Version finden Sie unter Cloud Storage FUSE auf GitHub.
Cloud Storage FUSE ist ein von Google unterstütztes Open-Source-Produkt. Cloud Storage FUSE verwendet FUSE und Cloud Storage APIs, um Buckets transparent als lokal bereitgestellte Ordner in Ihrem Dateisystem verfügbar zu machen.
Wenn Sie Cloud Storage FUSE verwenden möchten, installieren Sie zunächst das Cloud Storage FUSE-Paket auf einem Computer mit kompatiblem Betriebssystem wie Linux oder einem Windows-Subsystem für Linux. Dann richten Sie die entsprechende Google Cloud -Authentifizierung und die Berechtigungen ein und führen anschließend den Befehl gcsfuse aus, um einen bestimmten Cloud Storage-Bucket in einem lokalen Verzeichnis bereitzustellen.
Cloud Storage FUSE ist in andere Google Cloud -Dienste eingebunden. Mit dem Cloud Storage FUSE-CSI-Treiber können Sie beispielsweise die API von Google Kubernetes Engine (GKE) verwenden, um Buckets als Volumes zu nutzen. Damit können Sie aus Ihren Kubernetes-Pods heraus in Cloud Storage lesen und schreiben. Weitere Informationen zu anderen Einbindungen finden Sie unter Einbindungen.
So funktioniert Cloud Storage FUSE
Cloud Storage FUSE übersetzt Objektspeichernamen in eine verzeichnisähnliche Struktur. Dabei wird der Schrägstrich (/) in Objektnamen als Trennzeichen für Verzeichnisse interpretiert. Objekte mit demselben Präfix werden als Dateien im selben Verzeichnis behandelt, sodass Anwendungen mit dem bereitgestellten Bucket genau wie mit einem Dateisystem interagieren können. Objekte können mithilfe des hierarchischen Namespace auch in einer logischen Dateisystemstruktur organisiert werden. So können Sie Objekte in Ordnern organisieren.
Cloud Storage FUSE kann überall ausgeführt werden, wo eine Verbindung zu Cloud Storage besteht, auch in Google Kubernetes Engine, Compute Engine-VMs und lokalen Systemen.
Cloud Storage FUSE für maschinelles Lernen
Cloud Storage FUSE eignet sich besonders für Anwendungsfälle, in denen Cloud Storage die passende Leistung und Skalierbarkeit für Anwendungen bietet, die Dateisystemsemantik erfordern. Cloud Storage FUSE ist beispielsweise nützlich für Projekte im Bereich maschinelles Lernen (ML), da es eine Möglichkeit bietet, Daten, Modelle, Prüfpunkte und Logs direkt in Cloud Storage zu speichern. Weitere Informationen zu Cloud Storage FUSE für ML-Arbeitslasten.
Cloud Storage FUSE wird häufig von Entwicklern verwendet, die ML-Trainings- und -Modelldaten als Objekte in Cloud Storage speichern und darauf zugreifen möchten. Cloud Storage FUSE bietet für die Entwicklung von ML-Projekten mehrere Vorteile:
Mit Cloud Storage FUSE können Sie Cloud Storage-Buckets als lokales Dateisystem bereitstellen, damit Ihre Anwendungen mit der Standardsemantik des Dateisystems auf Trainings- und Modelldaten zugreifen können. Dadurch sparen Sie die Kosten für das Neuschreiben oder Refaktorieren des Anwendungscodes, wenn Sie ML-Daten mit Cloud Storage speichern.
Vom Training bis zur Inferenz können Sie mit Cloud Storage FUSE die inhärente hohe Skalierbarkeit, Leistung und Kosteneffizienz von Cloud Storage nutzen und ML-Arbeitslasten in großem Maßstab ausführen.
Mit Cloud Storage FUSE können Sie schnell Trainingsjobs starten, da Rechenressourcen direkten Zugriff auf Daten in Cloud Storage erhalten. Dadurch müssen Sie keine Trainingsdaten in die Rechenressource herunterladen.
Informationen zu Von Cloud Storage FUSE unterstützte Frameworks, Betriebssysteme und Architekturen.
Frameworks, Betriebssysteme und Architekturen
Cloud Storage FUSE wurde mit den folgenden Frameworks validiert:
TensorFlow V2.x
TensorFlow V1.x
PyTorch V2.x
PyTorch V1.x
JAX 0.4.x
Cloud Storage FUSE unterstützt die folgenden Betriebssysteme und Architekturen:
Rocky Linux 8.9 oder höher
Ubuntu 18.04 oder höher
Debian 10 oder höher
CentOS 7.9 oder höher
RHEL 7.9 oder höher
SLES 15 oder höher
x86_64
ARM64
Integrationen in andere Google Cloud -Produkte
Cloud Storage FUSE kann in die folgenden Google Cloud -Produkte eingebunden werden:
| Produkt | So wird Cloud Storage FUSE eingebunden |
|---|---|
| AI Hypercomputer | Cloud Storage FUSE wird für KI- und ML-Anwendungsfälle empfohlen, da Sie damit Buckets als lokale Dateisysteme bereitstellen und Ihren Datenspeicher kostengünstiger skalieren können als mit Dateisystemdiensten. Weitere Informationen zu Speicherdienste. |
| Batch | Mit Cloud Storage FUSE können Sie Cloud Storage-Buckets als Speicher-Volumes bereitstellen, wenn Sie Batchjobs erstellen und ausführen. Sie können in der Definition eines Jobs einen Bucket angeben, der dann beim Ausführen des Jobs automatisch für die VMs bereitgestellt wird. |
| Cloud Composer | Beim Erstellen einer Umgebung speichert Cloud Composer den Quellcode für Ihre Workflows und deren Abhängigkeiten in bestimmten Ordnern in einem Cloud Storage-Bucket. Cloud Composer verwendet Cloud Storage FUSE, um die Ordner im Bucket den Airflow-Komponenten in der Cloud Composer-Umgebung zuzuordnen. |
| Cloud Run | Mit Cloud Run können Sie einen Cloud Storage-Bucket als Volume bereitstellen und den Inhalt des Buckets als Dateien im Container-Dateisystem darstellen. Informationen zum Einrichten von Volume-Bereitstellungen finden Sie unter Cloud Storage-Volume bereitstellen. |
| Cluster Toolkit | Mit dem Cluster Toolkit können Sie einen Cloud Storage-Bucket als Dateisystem erstellen oder bereitstellen. Sie können den Bucket in einer Blueprint-YAML-Datei mit dem entsprechenden Modul angeben. Der Bucket wird dann beim Ausführen der Bereitstellung automatisch erstellt oder bereitgestellt |
| Dataflow | Wenn Sie mit Cloud Storage FUSE Cloud Storage-Buckets direkt im Dateisystem des Workers bereitstellen, kann der zugrunde liegende Apache Beam-Pipelinecode von Dataflow mit der Standardsemantik des Dateisystems direkt auf Dateien in Cloud Storage zugreifen. Das ist besonders hilfreich, wenn Sie Dataflow für KI/ML-Aufgaben verwenden, die große Datasets und Software mit erforderlichem Dateizugriff einbeziehen. |
| Deep Learning Container | Um Cloud Storage-Buckets für Deep Learning Container bereitzustellen, können Sie entweder den Cloud Storage FUSE-CSI-Treiber verwenden (empfohlen) oder Cloud Storage FUSE installieren. |
| Deep Learning VM Images | In Cloud Storage FUSE sind Deep Learning VM Images bereits vorinstalliert. |
| Google Kubernetes Engine (GKE) | Der Cloud Storage FUSE-CSI-Treiber verwaltet die Einbindung von Cloud Storage FUSE in die Kubernetes API, damit Cloud Storage-Buckets als Volumes genutzt werden können. Mit dem Cloud Storage FUSE-CSI-Treiber können Sie auf Google Kubernetes Engine-Knoten Buckets als Dateisysteme bereitstellen. |
| Vertex AI-Training | Wenn Sie in Vertex AI ein benutzerdefiniertes Training durchführen, können Sie auf Daten aus einem Cloud Storage-Bucket als bereitgestelltes Dateisystem zugreifen. Weitere Informationen zu Cloud Storage-Dateien mit Cloud Storage FUSE lesen und schreiben. |
| Vertex AI Workbench | Instanzen von Vertex AI Workbench sind in Cloud Storage eingebunden, sodass Sie Buckets durchsuchen und über die JupyterLab-Oberfläche mit kompatiblen Dateien in Cloud Storage arbeiten können. Mit der Einbindung in Cloud Storage können Sie auf alle Cloud Storage-Buckets und -Dateien zugreifen, auf die Ihre Instanz innerhalb des Projekts Ihrer Vertex AI Workbench-Instanz Zugriff hat. Wie Sie die Einbindung einrichten, lesen Sie in den Vertex AI Workbench-Anleitungen für den Zugriff auf Cloud Storage-Buckets und -Dateien in JupyterLab. |
Eine Liste der Google Cloud -Produkte, die im Allgemeinen in Cloud Storage eingebunden sind, finden Sie unter Einbindung in Google Cloud -Dienste und -Tools.
Caching
Cloud Storage FUSE bietet vier Arten von Caching, mit denen Sie die Leistung erhöhen und Kosten senken können: Datei-Caching, Statistik-Caching, Typ-Caching und Listen-Caching. Weitere Informationen zu diesen Caching-Arten finden Sie in der Caching-Übersicht.
Verzeichnissemantik
Cloud Storage bietet sowohl Buckets mit einem flachen Namespace als auch Buckets mit aktiviertem hierarchischem Namespace. Cloud Storage FUSE kann in Buckets mit aktiviertem hierarchischem Namespace standardmäßig explizit definierte Verzeichnisse, auch Ordner genannt, ableiten. Im Gegensatz dazu können implizit definierte Verzeichnisse in Buckets mit einem flachen Namespace nicht abgeleitet werden. Das gilt auch für simulierte Ordner und verwaltete Ordner.
Explizit definierte Verzeichnisse sind Ordner, die in Cloud Storage-Buckets durch eigene Objekte dargestellt werden. Implizit definierte Verzeichnisse sind Verzeichnisse, die in Cloud Storage-Buckets nicht über eigene entsprechende Objekte verfügen.
Angenommen, Sie stellen einen Bucket mit dem Namen my-bucket bereit, der ein Objekt mit dem Namen my-directory/my-object.txt enthält, wobei my-directory/ ein simulierter Ordner ist.
Wenn Sie am Bucket-Bereitstellungspunkt ls ausführen, kann Cloud Storage FUSE standardmäßig weder auf das simulierte Verzeichnis my-bucket/my-directory/ noch auf das darin enthaltene Objekt my-object.txt zugreifen. Damit Cloud Storage FUSE den simulierten Ordner und das darin enthaltene Objekt ableiten kann, fügen Sie bei der Bereitstellung eines Buckets mit flachem Namespace die Option --implicit-dirs gcsfuse oder das Konfigurationsdateifeld implicit-dirs zum Befehl gcsfuse mount hinzu.
Wenn Sie Ihre Daten in einem Dateisystem speichern und darauf zugreifen müssen, verwenden Sie Buckets mit aktiviertem hierarchischem Namespace. Wie Sie diese Buckets erstellen, lesen Sie in Buckets mit aktiviertem hierarchischem Namespace erstellen.
Weitere Informationen zur Verzeichnissemantik sowie zum Bereitstellen von Buckets mit implizit definierten Verzeichnissen finden Sie in der GitHub-Dokumentation zu Cloud Storage FUSE unter Files and directories.
Wiederholungsstrategien für Cloud Storage FUSE
Fehlgeschlagene Anfragen von Cloud Storage FUSE an Cloud Storage werden standardmäßig mit exponentiellem Backoff wiederholt, bis eine festgelegte maximale Backoff-Dauer erreicht wird. Dieser Wert ist standardmäßig auf 30s (30 Sekunden) festgelegt. Wenn die Backoff-Dauer die angegebene Höchstdauer überschreitet, wird der Wiederholungsversuch mit der angegebenen Höchstdauer fortgesetzt. Sie können die Backoff-Dauer mit der Option --max-retry-sleep oder dem Feld gcs-retries:max-retry-sleep in einem gcsfuse mount-Aufruf angeben.
Wiederholungsstrategie für blockierte GET- oder READ-Anfragen
Wenn Sie eine GET- oder READ-Anfrage mit Cloud Storage FUSE ausführen, gilt hierfür ein Zeitlimit. Überschreitet die Anfrage das Zeitlimit, bricht Cloud Storage FUSE die Anfrage ab und wiederholt sie mit einem exponentiellen Backoff-Algorithmus.
Das Zeitlimit ist dynamisch und basiert auf der Latenz des 99. Perzentils vergangener erfolgreicher oder abgebrochener GET- bzw. READ-Anfragen. Der Mindestwert liegt bei 1,5 Sekunden. So wird sichergestellt, dass nur die langsamsten 1 % der Anfragen, die die frühere Latenz des 99. Perzentils überschreiten, noch einmal versucht werden.
Wiederholungsstrategie für blockierte Uploads
Schreibvorgänge für große Dateien werden in Blöcken hochgeladen. Um die Latenzzeiten am Ende von Schreibvorgängen zu verkürzen, versucht Cloud Storage FUSE nach 10 Sekunden, einen Schreibvorgang auf Blockebene, der blockiert wurde oder fehlgeschlagen ist, noch einmal auszuführen. Für jeden blockierten Block werden maximal vier Wiederholungsversuche durchgeführt.
Cloud Storage FUSE-Vorgänge, die mit Cloud Storage-Vorgängen verknüpft sind
Wenn Sie einen Vorgang mit Cloud Storage FUSE ausführen, führen Sie gleichzeitig auch die Cloud Storage-Vorgänge aus, die mit dem Cloud Storage FUSE-Vorgang verknüpft sind. In der folgenden Tabelle werden gängige Cloud Storage FUSE-Befehle und die zugehörigen Vorgänge der Cloud Storage JSON API beschrieben. Sie können Informationen zu den Vorgängen von Cloud Storage FUSE anzeigen, indem Sie im gcsfuse-Befehl die Option --log-severity oder das Feld logging:severity auf TRACE setzen.
| Befehl | JSON API-Vorgänge |
|---|---|
gcsfuse --log-severity=TRACE example-bucket mp |
Objects.list (zum Prüfen von Anmeldedaten) |
cd mp |
n. v. |
ls mp |
Objects.list("") |
mkdir subdir |
Objects.get("subdir") Objects.get("subdir/") Objects.insert("subdir/") |
cp ~/local.txt subdir/ |
Objects.get("subdir/local.txt") Objects.get("subdir/local.txt/") Objects.insert("subdir/local.txt"), um ein leeres Objekt zu erstellen Objects.insert("subdir/local.txt"), beim Schließen nach dem Schreiben |
rm -rf subdir |
Objects.list("subdir") Objects.list("subdir/") Objects.delete("subdir/local.txt") Objects.list("subdir/") Objects.delete("subdir/") |
Messwerte
Cloud Storage bietet detaillierte Messwerte, die Ihnen helfen, Leistung und Kosten von Cloud Storage FUSE zu optimieren. Weitere Informationen zu Cloud Storage FUSE-Messwerten.
Sicherheit
Cloud Storage FUSE wendet über die Standardanmeldedaten für Anwendungen die Standardauthentifizierung von Google Cloudan, um Nutzer oder Dienstkonten zu identifizieren. Der Zugriff auf die Inhalte in Buckets wird über Identity and Access Management-Berechtigungen gesteuert. Durch lokale Systemberechtigungen werden der Bereitstellungspunkt selbst und alle lokal im Cache gespeicherten Daten geschützt.
Preise für Cloud Storage FUSE
Cloud Storage FUSE selbst ist kostenlos. Für den Speicherplatz, die Metadaten und die Netzwerk-E/A, die zu und von Cloud Storage generiert werden, werden jedoch, wie für jede andere Cloud Storage-Schnittstelle auch, Kosten in Rechnung gestellt. Das heißt, alle von Cloud Storage FUSE ausgeführten Datenübertragungen und Vorgänge sind mit Cloud Storage-Übertragungen und -Vorgängen verknüpft und werden entsprechend abgerechnet. Weitere Informationen zu gängigen Cloud Storage FUSE-Vorgängen und wie sie mit Cloud Storage-Vorgängen verknüpft sind.
Um unerwartete Kosten zu vermeiden, sollten Sie abschätzen, wie sich Ihre Verwendung von Cloud Storage FUSE auf die Cloud Storage-Gebühren auswirkt. Wenn Sie Cloud Storage FUSE beispielsweise zum Speichern von Logdateien verwenden, können schnell Gebühren entstehen, wenn die Logs glichzeitig auf Hunderte oder Tausende von Rechnern geleert werden.
Informationen zu Gebühren für Speicherplatz, Netzwerknutzung und Vorgänge finden Sie unter Cloud Storage – Preise.
Einschränkungen
Auch wenn Cloud Storage FUSE eine Dateisystemschnittstelle hat, unterscheidet es sich im Backend von einem NFS- oder CIFS-Dateisystem. Außerdem ist Cloud Storage FUSE nicht POSIX-konform. Informationen zu einem POSIX-Dateisystemprodukt in Google Cloudfinden Sie unter Filestore.
Beachten Sie bei der Verwendung von Cloud Storage FUSE die Einschränkungen und die Semantik, die sich von POSIX-Dateisystemen unterscheidet. Cloud Storage FUSE sollte nur im Rahmen seines Funktionsumfangs verwendet werden.
Einschränkungen und Unterschiede zu POSIX-Dateisystemen
In der folgenden Liste werden die Einschränkungen von Cloud Storage FUSE beschrieben:
- Metadaten: Cloud Storage FUSE überträgt beim Hochladen von Dateien in Cloud Storage keine Objektmetadaten, mit Ausnahme von mtime- und symlink-Zielen. Das bedeutet, dass Sie keine Objektmetadaten festlegen können, wenn Sie Dateien mit Cloud Storage FUSE hochladen. Wenn Sie Objektmetadaten beibehalten möchten, können Sie Dateien über die Google Cloud CLI, die JSON API oder dieGoogle Cloud Console hochladen.
- Nebenläufigkeit: Wenn Sie für den Zugriff auf denselben Cloud Storage-Bucket mehrere Bereitstellungspunkte konfigurieren und mindestens zwei Bereitstellungen gleichzeitig versuchen, in dasselbe Cloud Storage-Objekt zu schreiben, wird die Bereitstellung gespeichert, die den Schreibvorgang als erste abschließt und ihre Änderungen erfolgreich in das Objekt leert. Bei anderen Bereitstellungen, deren lokale Dateideskriptoren nach der Änderung des Objekts nicht aktualisiert wurden, tritt beim Speichern der Änderungen aufgrund von Vorbedingungsprüfungen ein
syscall.ESTALE-Fehler auf. Damit Ihre Daten konsistent geschrieben werden, raten wir dringend davon ab, mehrere Quellen dasselbe Objekt ändern zu lassen.Beachten Sie, dass gleichzeitig mehrere Leser auf dieselben oder unterschiedliche Objekte in einem Bucket zugreifen und mehrere Schreiber gleichzeitig unterschiedliche Objekte im selben Bucket ändern können. Es ist möglich, von derselben Bereitstellung gleichzeitige Schreibvorgänge in dasselbe Cloud Storage-Objekt durchzuführen. Die Verhaltensweise ist dabei ähnlich wie bei integrierten Dateisystemen.
- Verlinkung: Cloud Storage FUSE unterstützt keine Hardlinks.
- Dateisperre und Datei-Patching: Cloud Storage FUSE unterstützt keine Dateisperren und kein Datei-Patching. Daher sollten Sie Versionsverwaltungssystem-Repositories nicht in Cloud Storage FUSE-Bereitstellungspunkten speichern, da Versionsverwaltungssysteme Dateisperren und Datei‑Patching benötigen. Außerdem sollten Sie Cloud Storage FUSE nicht als Dateiersatz verwenden.
- Semantik: Die Semantik in Cloud Storage FUSE unterscheidet sich von herkömmlichen Dateisystemen. Beispielsweise werden Metadaten wie der Zeitpunkt des letzten Zugriffs nicht unterstützt. Einige Metadatenvorgänge wie das Umbenennen von Verzeichnissen sind nicht atomar, es sei denn, Sie verwenden Buckets mit aktiviertem hierarchischem Namespace. Eine Liste der Unterschiede zwischen der Semantik von Cloud Storage FUSE und der Semantik herkömmlicher Dateisysteme finden Sie in der GitHub-Dokumentation zu Cloud Storage FUSE unter Cloud Storage FUSE-Semantik. Informationen dazu, wie Cloud Storage FUSE Verzeichnisse in Cloud Storage ableitet, finden Sie unter Verzeichnissemantik.
- Arbeitslasten, die Datei-Patching (oder In-Place-Überschreibungen) ausführen: Cloud Storage FUSE kann jeweils nur ganze Objekte in Cloud Storage schreiben und bietet keinen Mechanismus für das Patchen. Wenn Sie versuchen, eine Datei zu patchen, lädt Cloud Storage FUSE die gesamte Datei noch einmal hoch. Die einzige Ausnahme besteht darin, dass Sie an das Ende einer mindestens 2 MB großen Datei Inhalte anhängen können. Dann lädt Cloud Storage FUSE nur den angehängten Inhalt noch einmal hoch.
- Zugriff: Die Autorisierung für Dateien wird über die Cloud Storage-Berechtigungen gesteuert. Die Zugriffssteuerung im POSIX-Stil ist nicht möglich.
- Leistung: Cloud Storage FUSE hat eine deutlich höhere Latenz als ein lokales Dateisystem und sollte daher nicht als Backend zum Speichern einer Datenbank verwendet werden. Der Durchsatz kann sich verringern, wenn Sie kleine Dateien einzeln lesen oder schreiben. Wenn Sie größere Dateien und/oder mehrere Dateien gleichzeitig übertragen, wird der Durchsatz erhöht.
- Verfügbarkeit: Wenn Sie Cloud Storage FUSE für den Zugriff auf Cloud Storage verwenden, können in manchen Fällen vorübergehende Fehler auftreten. Es wird empfohlen, fehlgeschlagene Vorgänge mithilfe von Wiederholungsstrategien noch einmal zu versuchen.
- Objektversionsverwaltung: Cloud Storage FUSE unterstützt die Verwendung von Buckets mit aktivierter Objektversionsverwaltung nicht offiziell. Die Verwendung von Cloud Storage FUSE mit Buckets mit aktivierter Objektversionsverwaltung kann zu unerwarteten Ergebnissen führen.
- Dateitranscodierung:
Objekte mit
content-encoding: gzipin den Metadaten: Für diese Objekte in einem von Cloud Storage FUSE bereitgestellten Verzeichnis wird keine dekomprimierende Transcodierung durchgeführt. Stattdessen bleibt das Objekt auf dieselbe Weise komprimiert, wie es im Bucket gespeichert wurde.Beispielsweise kann eine Datei mit 1.000 Byte, die mit dem Befehl
gcloud storage cpund dem Flag--gzip-localin einen Bucket hochgeladen wurde, als Cloud Storage-Objekt auf 60 Byte komprimiert werden. Die tatsächliche komprimierte Größe hängt vom Inhalt und der GZIP-Implementierung der gcloud CLI ab. Wenn der Bucket mit „gcsfuse“ bereitgestellt und die entsprechende Datei aus dem Bereitstellungsverzeichnis aufgelistet oder gelesen wurde, wird ihre Größe mit 60 Byte zurückgegeben. Der Inhalt ist eine komprimierte Version des ursprünglichen Inhalts mit 1.000 Byte.Dies unterscheidet sich von einem Download mit
gcloud storage cp gs://bucket/path /local/path, bei dem eine dekomprimierende Transcodierung durchgeführt wird: Imgcloud-Befehl werden die Inhalte während des Downloads automatisch dekomprimiert und die ursprünglichen, unkomprimierten Inhalte bereitgestellt. - Aufbewahrungsrichtlinien: Cloud Storage FUSE unterstützt keine Schreibvorgänge in Buckets mit einer Aufbewahrungsrichtlinie.
Wenn Sie versuchen, in einen Bucket mit Aufbewahrungsrichtlinie zu schreiben, schlagen Ihre Schreibvorgänge fehl.
Mit Cloud Storage FUSE können Sie Objekte aus Buckets mit Aufbewahrungsrichtlinie lesen. Der Bucket muss jedoch als
Read-Onlybereitgestellt werden, indem Sie während der Bucket-Bereitstellung das Flag-o ROübergeben. - Lokaler Speicher: Neue oder geänderte Objekte werden komplett in einer lokalen temporären Datei gespeichert, bis sie geschlossen oder synchronisiert werden. Achten Sie bei der Arbeit mit großen Dateien darauf, dass Sie genügend lokale Speicherkapazität für die temporären Dateikopien haben, vor allem wenn Sie mit Compute Engine-Instanzen arbeiten. Weitere Informationen finden Sie in der GitHub-Dokumentation zu Cloud Storage FUSE in der README-Übersichtsdatei zu Cloud Storage FUSE.
- Dateihandle-Limits: Der Linux-Kernel hat ein Standardlimit von 1.024 offenen Dateihandles. Dieses Limit wird möglicherweise überschritten, wenn Sie Cloud Storage FUSE als Server für mehrere gleichzeitige Verbindungen verwenden. Achten Sie daher darauf, dass die Anzahl der gleichzeitigen Verbindungen zu einem einzelnen Host unter dem Limit bleibt. Sie können das Limit aber auch erhöhen. Dies ist beispielsweise der Fall, wenn Sie Cloud Storage FUSE für die Bereitstellung von Webinhalten, das Hosten von NAS (Network Attached Storage) oder das Hosten eines FTP-Servers (File Transfer Protocol) verwenden. Wenn Sie Webinhalte über eine Cloud Storage FUSE-Bereitstellung in Cloud Run bereitstellen, liegt die maximale Anzahl gleichzeitiger Anfragen pro Instanz bei maximal 1.000.
rsync-Einschränkungen: Die Dateisystemlatenz von Cloud Storage FUSE wirkt sich aufrsyncaus, das jeweils nur eine Datei liest und schreibt. Wenn Sie mehrere Dateien gleichzeitig in Ihren oder aus Ihrem Bucket übertragen möchten, verwenden Sie die Google Cloud CLIund führen Siegcloud storage rsyncaus. Weitere Informationen finden Sie in der Dokumentation zursync.- Einschränkungen bei Auflistungsvorgängen: Wenn Sie alle Objekte in einem bereitgestellten Bucket auflisten, z. B. durch das Ausführen von
ls, ruft Cloud Storage FUSE die Objects: list API in Cloud Storage auf. Die API paginiert die Ergebnisse. Das bedeutet, dass Cloud Storage FUSE möglicherweise mehrere Aufrufe ausführen muss, je nachdem, wie viele Objekte sich im Bucket befinden. Dadurch können Auflistungsvorgänge teuer und langsam werden.
Bekannte Probleme
Auf GitHub finden Sie eine Liste der bekannten Probleme von Cloud Storage FUSE.
Support anfordern
Support erhalten Sie über einen der offiziellenGoogle Cloud-Supportkanäle. Außerdem können Sie dort allgemeine Fragen stellen und neue Features anfragen. Sie können auch Support erhalten, indem Sie Probleme in GitHub melden.
Lösungen für häufig auftretende Probleme finden Sie in der GitHub-Dokumentation zu Cloud Storage FUSE unter Troubleshooting for production issues.
Nächste Schritte
Cloud Storage FUSE mit einer Kurzanleitung ausprobieren
Verhalten von Cloud Storage FUSE mit der
gcsfuse-Befehlszeile oder einer Cloud Storage FUSE-Konfigurationsdatei konfigurieren