Dateien parallel exportieren und importieren

Auf dieser Seite wird beschrieben, wie Sie Dateien parallel in Cloud SQL-Instanzen exportieren und importieren.

Hinweise

Für einen Export- oder Importvorgang ist Folgendes zu beachten:

  • Sorgen Sie dafür, dass in Ihrer Datenbank ausreichend freier Speicherplatz vorhanden ist.
  • Export- und Importvorgänge verwenden Datenbankressourcen, stören den normalen Datenbankbetrieb jedoch nicht, wenn die Instanz nicht unterdimensioniert ist.

  • Beachten Sie die Best Practices zum Exportieren und Importieren von Daten.
  • Prüfen Sie die Ergebnisse nach Abschluss eines Importvorgangs.

Daten aus Cloud SQL for MySQL parallel in mehrere Dateien exportieren

In den folgenden Abschnitten finden Sie Informationen zum parallelen Exportieren von Daten aus Cloud SQL for MySQL in mehrere Dateien.

Erforderliche Rollen und Berechtigungen für den parallelen Export von Daten aus Cloud SQL for MySQL in mehrere Dateien

Damit Daten aus Cloud SQL in Cloud Storage exportiert werden können, muss der Nutzer, der den Export initiiert, eine der folgenden Rollen haben:

Darüber hinaus muss das Dienstkonto für die Cloud SQL-Instanz eine der folgenden Rollen haben:

  • Die Rolle storage.objectAdmin für die Identitäts- und Zugriffsverwaltung (Identity and Access Management, IAM)
  • Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
    • storage.objects.create
    • storage.objects.list (nur für parallelen Export von Dateien)
    • storage.objects.delete (nur für parallelen Export von Dateien)

Informationen zu IAM-Rollen finden Sie unter Identity and Access Management.

Daten parallel in mehrere Dateien exportieren

Sie können Daten parallel aus mehreren Dateien, die sich in Cloud SQL befinden, in Cloud Storage exportieren. Verwenden Sie dazu das Dienstprogramm dumpInstance.

Sobald sich die Dateien in Cloud Storage befinden, können Sie sie in eine andere Cloud SQL-Datenbank importieren. Wenn Sie lokal auf die Daten in den Dateien zugreifen möchten, laden Sie die Daten aus Cloud Storage in Ihre lokale Umgebung herunter.

Wenn Ihre Dateien DEFINER-Klauseln (Ansichten, Trigger, gespeicherte_procedures usw.) enthalten, kann abhängig von der Reihenfolge, in der diese Anweisungen ausgeführt werden, der Import dieser Dateien fehlschlagen. Weitere Informationen über die Verwendung von DEFINER und mögliche Workarounds in Cloud SQL

gcloud

Führen Sie die folgenden Schritte aus, um Daten parallel aus Cloud SQL in mehrere Dateien zu exportieren:

  1. Cloud Storage-Bucket erstellen.
  2. Verwenden Sie den Befehl
    gcloud sql instances describe, um das Dienstkonto für die Cloud SQL-Instanz zu finden, aus der Sie Dateien exportieren.
    gcloud sql instances describe INSTANCE_NAME
  3. Ersetzen Sie INSTANCE_NAME durch den Namen Ihrer Cloud SQL-Instanz.

    Suchen Sie in der Ausgabe nach dem Wert, der dem Feld serviceAccountEmailAddress zugeordnet ist.

  4. Weisen Sie dem Dienstkonto mit dem Befehl gcloud storage buckets add-iam-policy-binding die IAM-Rolle storage.objectAdmin zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  5. Verwenden Sie den Befehl gcloud sql export sql, um Daten parallel aus Cloud SQL in mehrere Dateien zu exportieren:
    gcloud sql export sql INSTANCE_NAME gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME \
    --offload \
    --parallel \
    --threads=THREAD_NUMBER \
    --database=DATABASE_NAME \
    --table=TABLE_EXPRESSION
    

    Ersetzen Sie die folgenden Werte:

    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: Der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
    • FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert werden.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel exportieren möchten, geben Sie 3 als Wert für diesen Parameter an.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Export erfolgt. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
    • TABLE_EXPRESSION: die Tabellen, die aus der angegebenen Datenbank exportiert werden sollen.

    Mit dem Befehl export sql werden zwar Ansichten exportiert, jedoch keine Trigger oder gespeicherten Prozeduren. Verwenden Sie zum Exportieren von Triggern oder gespeicherten Prozeduren einen einzelnen Thread. In diesem Thread wird das mysqldump-Tool verwendet.

    Nach Abschluss des Exports sollten Sie Dateien im Ordner des Cloud Storage-Buckets im Dump-Format der MySQL-Shell haben.

  6. Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für Exporte aus Cloud SQL for MySQL festgelegt haben, nicht mehr benötigen, entfernen Sie sie.

REST Version 1

Führen Sie die folgenden Schritte aus, um Daten parallel aus Cloud SQL in mehrere Dateien zu exportieren:

  1. Erstellen Sie einen Cloud Storage-Bucket:
    gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
    
    Ersetzen Sie die folgenden Werte:
    • BUCKET_NAME: Der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel: my-bucket
    • PROJECT_NAME: Der Name des Google Cloud -Projekts, das den Cloud Storage-Bucket enthält, den Sie erstellen.
    • LOCATION_NAME: der Speicherort des Buckets, in dem Sie die exportierten Dateien speichern möchten. Beispiel: us-east1.
  2. Weisen Sie Ihrer Instanz die IAM-Rolle legacyBucketWriter für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  3. Exportieren Sie Daten parallel aus Cloud SQL in mehrere Dateien:

    Ersetzen Sie diese Werte in den folgenden Anfragedaten:

    • PROJECT_NAME: den Namen des Google Cloud Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: Der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
    • FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert werden.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Export erfolgt. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel exportieren möchten, geben Sie 3 als Wert für diesen Parameter an.

    HTTP-Methode und URL:

    POST https://sqladmin.googleapis.com/v1/projects/PROJECT_NAME/instances/INSTANCE_NAME/export

    JSON-Text anfordern:

    {
     "exportContext":
       {
          "fileType": "SQL",
          "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME",
          "databases": ["DATABASE_NAME"],
          "offload": [TRUE|FALSE],
          "sqlExportOptions": {
            "parallel": [TRUE|FALSE],
            "threads": [THREAD_NUMBER]
           }
       }
    }
    

    Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

    Sie sollten in etwa folgende JSON-Antwort erhalten:

  4. Nach Abschluss des Exports sollten Sie Dateien im Ordner des Cloud Storage-Buckets im Dump-Format der MySQL-Shell haben.

  5. Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für Exporte aus Cloud SQL for MySQL festgelegt haben, nicht mehr benötigen, entfernen Sie sie.
Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.

REST v1beta4

Führen Sie die folgenden Schritte aus, um Daten parallel aus Cloud SQL in mehrere Dateien zu exportieren:

  1. Erstellen Sie einen Cloud Storage-Bucket:
    gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
    Ersetzen Sie die folgenden Werte:
    • BUCKET_NAME: Der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel: my-bucket
    • PROJECT_NAME: Der Name des Google Cloud -Projekts, das den Cloud Storage-Bucket enthält, den Sie erstellen.
    • LOCATION_NAME: der Speicherort des Buckets, in dem Sie die exportierten Dateien speichern möchten. Beispiel: us-east1.
  2. Weisen Sie Ihrer Instanz die IAM-Rolle storage.objectAdmin für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  3. Exportieren Sie Daten parallel aus Cloud SQL in mehrere Dateien:

    Ersetzen Sie diese Werte in den folgenden Anfragedaten:

    • PROJECT_NAME: den Namen des Google Cloud Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: Der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
    • FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert werden.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Export erfolgt. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel exportieren möchten, geben Sie 3 als Wert für diesen Parameter an.

    HTTP-Methode und URL:

    POST https://sqladmin.googleapis.com/sql/v1beta4/projects/PROJECT_NAME/instances/INSTANCE_NAME/export

    JSON-Text anfordern:

    {
     "exportContext":
       {
          "fileType": "SQL",
          "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME",
          "databases": ["DATABASE_NAME"],
          "offload": [TRUE|FALSE],
          "sqlExportOptions": {
            "parallel": [TRUE|FALSE],
            "threads": [THREAD_NUMBER]
           }
       }
    }
    

    Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

    Sie sollten in etwa folgende JSON-Antwort erhalten:

  4. Nach Abschluss des Exports sollten Sie Dateien im Ordner des Cloud Storage-Buckets im Dump-Format der MySQL-Shell haben.

  5. Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für Exporte aus Cloud SQL for MySQL festgelegt haben, nicht mehr benötigen, entfernen Sie sie.
Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.

Daten aus mehreren Dateien parallel in Cloud SQL for MySQL importieren

In den folgenden Abschnitten finden Sie Informationen zum parallelen Importieren von Daten aus mehreren Dateien in Cloud SQL for MySQL.

Erforderliche Rollen und Berechtigungen für den parallelen Import von Daten aus mehreren Dateien in Cloud SQL for MySQL

Wenn Sie Daten aus Cloud Storage in Cloud SQL importieren möchten, muss der Nutzer, der den Import initiiert, eine der folgenden Rollen haben:

Darüber hinaus muss das Dienstkonto für die Cloud SQL-Instanz eine der folgenden Rollen haben:

  • storage.objectAdmin IAM-Rolle.
  • Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
    • storage.objects.get
    • storage.objects.list (nur für parallelen Import von Dateien)

Informationen zu IAM-Rollen finden Sie unter Identity and Access Management.

Daten in Cloud SQL for MySQL importieren

Sie können Daten parallel aus mehreren Dateien, die sich in Cloud Storage befinden, in Ihre Datenbank importieren. Verwenden Sie dazu das Dienstprogramm loadDump.

gcloud

Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:

  1. Cloud Storage-Bucket erstellen
  2. Laden Sie die Dateien in Ihren Bucket hoch.

    Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.

  3. Verwenden Sie den Befehl
    gcloud sql instances describe, um das Dienstkonto für die Cloud SQL-Instanz zu finden, in die Sie Dateien importieren.
    gcloud sql instances describe INSTANCE_NAME
  4. Ersetzen Sie INSTANCE_NAME durch den Namen Ihrer Cloud SQL-Instanz.

    Suchen Sie in der Ausgabe nach dem Wert, der dem Feld serviceAccountEmailAddress zugeordnet ist.

  5. Weisen Sie dem Dienstkonto mit dem Tool gcloud storage buckets add-iam-policy-binding die IAM-Rolle storage.objectAdmin zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  6. Verwenden Sie den Befehl gcloud sql import sql, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:
    gcloud sql import sql INSTANCE_NAME gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME \
    --parallel \ 
    --threads=THREAD_NUMBER \
    --database=DATABASE_NAME
    

    Ersetzen Sie die folgenden Werte:

    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, in die Sie Dateien parallel importieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
    • FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel importieren möchten, geben Sie 3 als Wert für diesen Parameter an.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Import erfolgt. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.

    Wenn durch den Befehl ein Fehler wie ERROR_RDBMS zurückgegeben wird, prüfen Sie die Berechtigungen. Dieser Fehler wird oft durch Berechtigungsprobleme verursacht.

  7. Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, entfernen Sie sie mit gcloud storage buckets remove-iam-policy-binding.

REST Version 1

Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:

  1. Erstellen Sie einen Cloud Storage-Bucket:
    gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
    
    Ersetzen Sie die folgenden Werte:
    • BUCKET_NAME: Der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel: my-bucket
    • PROJECT_NAME: Der Name des Google Cloud -Projekts, das den Cloud Storage-Bucket enthält, den Sie erstellen.
    • LOCATION_NAME: der Speicherort des Buckets, in dem Sie die zu importierenden Dateien speichern möchten. Beispiel: us-east1.
  2. Laden Sie die Dateien in Ihren Bucket hoch.

    Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.

  3. Weisen Sie Ihrer Instanz die IAM-Rolle storage.objectAdmin für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  4. So importieren Sie Daten aus mehreren Dateien parallel in Cloud SQL:

    Ersetzen Sie diese Werte in den folgenden Anfragedaten:

    • PROJECT_NAME: den Namen des Google Cloud Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, in die Sie Dateien parallel importieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
    • FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Import erfolgt. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel importieren möchten, geben Sie 3 als Wert für diesen Parameter an.

    HTTP-Methode und URL:

    POST https://sqladmin.googleapis.com/v1/projects/PROJECT_NAME/instances/INSTANCE_NAME/import

    JSON-Text anfordern:

    {
     "importContext":
       {
          "fileType": "SQL",
          "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME",
          "databases": ["DATABASE_NAME"],
          "offload": [TRUE|FALSE],
          "sqlImportOptions": {
            "parallel": [TRUE|FALSE],
            "threads": [THREAD_NUMBER]
           }
       }
    }
    
    

    Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

    Sie sollten in etwa folgende JSON-Antwort erhalten:

    Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.
  5. Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, entfernen Sie sie mit gcloud storage buckets remove-iam-policy-binding.

REST v1beta4

Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:

  1. Erstellen Sie einen Cloud Storage-Bucket:
    gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
    
    Ersetzen Sie die folgenden Werte:
    • BUCKET_NAME: Der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel: my-bucket
    • PROJECT_NAME: Der Name des Google Cloud -Projekts, das den Cloud Storage-Bucket enthält, den Sie erstellen.
    • LOCATION_NAME: der Speicherort des Buckets, in dem Sie die zu importierenden Dateien speichern möchten. Beispiel: us-east1.
  2. Laden Sie die Dateien in Ihren Bucket hoch.

    Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.

  3. Weisen Sie Ihrer Instanz die IAM-Rolle storage.objectAdmin für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden.
  4. So importieren Sie Daten aus mehreren Dateien parallel in Cloud SQL:

    Ersetzen Sie diese Werte in den folgenden Anfragedaten:

    • PROJECT_NAME: den Namen des Google Cloud Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
    • INSTANCE_NAME: Der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel importieren.
    • BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
    • BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
    • FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
    • DATABASE_NAME (optional): Der Name der Datenbanken in der Cloud SQL-Instanz, aus denen der Import erfolgt. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.
    • THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig parallel importieren möchten, geben Sie 3 als Wert für diesen Parameter an.

    HTTP-Methode und URL:

    POST https://sqladmin.googleapis.com/sql/v1beta4/projects/PROJECT_NAME/instances/INSTANCE_NAME/import

    JSON-Text anfordern:

    {
      "importContext":
        {
           "fileType": "SQL",
           "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME",
           "databases": ["DATABASE_NAME"],
           "offload": [TRUE|FALSE],
           "sqlImportOptions": {
             "parallel": [TRUE|FALSE],
             "threads": [THREAD_NUMBER]
            }
        }
     }
     
    

    Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

    Sie sollten in etwa folgende JSON-Antwort erhalten:

    Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.
  5. Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, entfernen Sie sie mit gcloud storage buckets remove-iam-policy-binding.

Beschränkungen

  • Wenn Sie beim parallelen Importieren oder Exportieren von Daten aus mehreren Dateien zu viele Threads angeben, kann es sein, dass Sie mehr Arbeitsspeicher verwenden, als Ihre Cloud SQL-Instanz hat. In diesem Fall wird eine interne Fehlermeldung angezeigt. Prüfen Sie die Speichernutzung Ihrer Instanz und erhöhen Sie die Größe der Instanz bei Bedarf. Weitere Informationen finden Sie unter Instanzeinstellungen.

  • Beim Exportieren werden Kommas in Datenbank- oder Tabellennamen in den Feldern databases oder tables nicht unterstützt.

  • Achten Sie darauf, dass genügend Speicherplatz für den Download der ersten Dump-Datei vorhanden ist. Andernfalls wird der Fehler no space left on disk angezeigt.

  • Wenn Ihre Instanz nur eine virtuelle CPU (vCPU) hat, können Sie nicht mehrere Dateien parallel importieren oder exportieren. Die Anzahl der vCPUs für Ihre Instanz darf nicht kleiner sein als die Anzahl der Threads, die Sie für den Import- oder Exportvorgang verwenden. Die Anzahl der Threads muss mindestens zwei betragen.

  • Multi-Thread-Importe und ‑Exporte sind nicht mit Single-Thread-Importen und ‑Exporten kompatibel. So können beispielsweise Dumpdateien, die durch einen Single-Thread-Export generiert wurden, nur durch Single-Thread-Importe importiert werden. Dumpdateien, die durch parallele Exporte generiert werden, können nur durch parallele Importe importiert werden.

  • Wenn Sie während eines Exportvorgangs DDL-Anweisungen (Data Definition Language, Datendefinitionssprache) wie CREATE, DROP oder ALTER schreiben, schlägt der Vorgang möglicherweise fehl oder die exportierten Daten sind möglicherweise inkonsistent mit dem Snapshot Wiederherstellung zu einem bestimmten Zeitpunkt.

  • Wenn ein Importvorgang fehlschlägt, sind möglicherweise teilweise importierte Daten vorhanden. MySQL führt für DDL-Anweisungen automatisch Commits aus. Wenn dies der Fall ist, müssen Sie die DDL-Anweisungen und die Daten bereinigen, bevor Sie die Daten noch einmal importieren.

  • Ähnlich wie bei einem parallelen Importvorgang für eine einzelne Datenbank müssen Sie vor dem Ausführen eines parallelen Importvorgangs für eine gesamte Instanz sicherstellen, dass die Erstellung aller Datenbanken abgeschlossen ist.

Nächste Schritte