Lernziele
In dieser Anleitung werden Sie durch die folgenden Schritte mit Spanner geführt Lokaler PGAdapter-Proxy für PostgreSQL-Treiber:
- Spanner-Instanz und ‑Datenbank erstellen
- SQL-Abfragen für Daten in der Datenbank schreiben, lesen und ausführen
- Datenbankschema aktualisieren
- Daten mit einer Lese-Schreib-Transaktion aktualisieren
- Sekundären Index für die Datenbank hinzufügen
- Mit dem Index Daten lesen und SQL-Abfragen ausführen
- Daten über eine schreibgeschützte Transaktion abrufen
Kosten
In dieser Anleitung wird Spanner verwendet, eine kostenpflichtige Komponente des Google Cloud Informationen zu den Kosten für die Verwendung von Spanner finden Sie unter Preise.
Hinweise
Führen Sie die unter Einrichten beschriebenen Schritte aus, die das Erstellen und Festlegen eines standardmäßigen Google Cloud-Projekts, das Aktivieren der Rechnungsstellung, das Aktivieren der Cloud Spanner API und das Einrichten von OAuth 2.0 umfassen, um Anmeldedaten für die Authentifizierung für die Verwendung der Cloud Spanner API zu erhalten.
Sie müssen insbesondere gcloud auth
application-default login
ausführen, um die lokale Entwicklungsumgebung mit Anmeldedaten für die Authentifizierung einzurichten.
Lokale PGAdapter-Umgebung vorbereiten
Sie können PostgreSQL-Treiber in Kombination mit PGAdapter verwenden. um eine Verbindung zu Spanner herzustellen. PGAdapter ist ein lokaler Proxy, der das PostgreSQL-Netzwerkprotokoll in das Spanner-gRPC-Protokoll übersetzt.
Zur Ausführung von PGAdapter ist entweder Java oder Docker erforderlich.
Installieren Sie eines der folgenden Elemente auf Ihrem Entwicklungscomputer, falls noch keines installiert ist:
- Java 8 JDK (herunterladen).
- Docker (herunterladen)
Klonen Sie das Repository der Beispiel-App auf Ihren lokalen Computer:
git clone https://github.com/GoogleCloudPlatform/pgadapter.git
Wechseln Sie in das Verzeichnis, das den Spanner-Beispielcode enthält:
psql
cd pgadapter/samples/snippets/psql-snippets
Java
cd pgadapter/samples/snippets/java-snippets mvn package -DskipTests
Go
cd pgadapter/samples/snippets/golang-snippets
Node.js
cd pgadapter/samples/snippets/nodejs-snippets npm install
Python
cd pgadapter/samples/snippets/python-snippets python -m venv ./venv pip install -r requirements.txt cd samples
C#
cd pgadapter/samples/snippets/dotnet-snippets
Instanz erstellen
Wenn Sie Spanner zum ersten Mal verwenden, müssen Sie eine Instanz erstellen. Dies ist eine Zuweisung von Ressourcen, die von Spanner-Datenbanken verwendet werden. Wenn Sie eine Instanz erstellen, müssen Sie eine Instanzkonfiguration auswählen. Abhängig davon werden der Speicherort Ihrer Daten sowie die Anzahl der zu verwendenden Knoten festgelegt. Anhand der Knotenanzahl wird dann die Menge der Bereitstellungs- und Speicherressourcen in Ihrer Instanz festgelegt.
Führen Sie den folgenden Befehl aus, um eine Spanner-Instanz in der Region zu erstellen
us-central1
mit 1 Knoten:
gcloud spanner instances create test-instance --config=regional-us-central1 \
--description="Test Instance" --nodes=1
Dadurch wird eine Instanz mit diesen Properties erstellt:
- Instanz-ID
test-instance
- Anzeigename
Test Instance
- Instanzkonfiguration
regional-us-central1
– Bei regionalen Konfigurationen werden Daten in nur einer Region gespeichert, während sie bei multiregionalen Konfigurationen auf mehrere Regionen verteilt werden. Weitere Informationen finden Sie unter Informationen zu Instanzen.) - Knotenanzahl 1 –
node_count
entspricht der Anzahl der Bereitstellungs- und Speicherressourcen in der Instanz, die für Datenbanken zur Verfügung stehen. Weitere Informationen finden Sie unter Knoten und Verarbeitungseinheiten.)
Hier sollten Sie dies sehen:
Creating instance...done.
Beispieldateien ansehen
Das Beispiel-Repository enthält ein Beispiel für die Verwendung von Spanner mit PGAdapter an.
Sehen Sie sich den Ordnersamples/snippets
an. Darin wird die Verwendung von
Spanner. Der Code zeigt, wie eine neue Datenbank erstellt und verwendet wird. In den Daten wird das Beispielschema verwendet, das auf der Seite Schema und Datenmodell dargestellt ist.
PGAdapter starten
Starten Sie PGAdapter auf Ihrem lokalen Entwicklungscomputer und verweisen Sie auf den Instanz erstellt haben.
Bei den folgenden Befehlen wird davon ausgegangen, dass Sie
gcloud auth application-default login
Java-Anwendung
wget https://storage.googleapis.com/pgadapter-jar-releases/pgadapter.tar.gz \
&& tar -xzvf pgadapter.tar.gz
java -jar pgadapter.jar -i test-instance
Docker
docker pull gcr.io/cloud-spanner-pg-adapter/pgadapter
docker run \
--name pgadapter \
--rm -d -p 5432:5432 \
-v "$HOME/.config/gcloud":/gcloud:ro \
--env CLOUDSDK_CONFIG=/gcloud \
gcr.io/cloud-spanner-pg-adapter/pgadapter \
-i test-instance -x
Emulator
docker pull gcr.io/cloud-spanner-pg-adapter/pgadapter-emulator
docker run \
--name pgadapter-emulator \
--rm -d \
-p 5432:5432 \
-p 9010:9010 \
-p 9020:9020 \
gcr.io/cloud-spanner-pg-adapter/pgadapter-emulator
Dadurch wird PGAdapter mit einem eingebetteten Spanner gestartet. Emulator. Dieser eingebettete Emulator erstellt automatisch Instanz oder Datenbank, zu der Sie eine Verbindung herstellen, ohne manuelle Erstellung im Vorfeld an.
Wir empfehlen, PGAdapter in der Produktion entweder als Beiwagen auszuführen oder als In-Process-Abhängigkeit. Weitere Informationen zum Bereitstellen PGAdapter in der Produktion, siehe Wählen Sie eine Methode zum Ausführen von PGAdapter aus.
Datenbank erstellen
Erstellen Sie eine Datenbank mit dem Namen example-db
in der Instanz test-instance
, indem Sie
und führen den folgenden Befehl in der Befehlszeile aus.
gcloud spanner databases create example-db --instance=test-instance \
--database-dialect=POSTGRESQL
Hier sollten Sie dies sehen:
Creating database...done.
Tabellen erstellen
Mit dem folgenden Code werden zwei Tabellen in der Datenbank erstellt.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./create_tables.sh example-db
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar createtables example-db
Go
go run sample_runner.go createtables example-db
Node.js
npm start createtables example-db
Python
python create_tables.py example-db
C#
dotnet run createtables example-db
Im nächsten Schritt werden Daten in die Datenbank geschrieben.
Verbindung herstellen
Bevor Sie Lese- oder Schreibvorgänge ausführen können, müssen Sie eine Verbindung zu PGAdapter aus. Alle Interaktionen mit Spanner müssen überConnection
. Der Datenbankname wird im Verbindungsstring angegeben.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./create_connection.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar createconnection example-db
Go
go run sample_runner.go createconnection example-db
Node.js
npm start createconnection example-db
Python
python create_connection.py example-db
C#
dotnet run createconnection example-db
Daten mit DML schreiben
Sie können Daten mit der Datenbearbeitungssprache (Data Manipulation Language, DML) in eine Lese-Schreib-Transaktion einfügen.
In diesen Beispielen wird gezeigt, wie eine DML-Anweisung in Spanner ausgeführt wird. mit einem PostgreSQL-Treiber.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./write_data_with_dml.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar writeusingdml example-db
Go
go run sample_runner.go writeusingdml example-db
Node.js
npm start writeusingdml example-db
Python
python write_data_with_dml.py example-db
C#
dotnet run writeusingdml example-db
Sie sollten die folgende Antwort sehen:
4 records inserted.
Daten mit einem DML-Batch schreiben
PGAdapter unterstützt die Ausführung von DML-Batches. Mehrere DML senden in einem Batch reduziert die Anzahl der Umläufe auf Spanner zu erstellen und die Leistung Ihrer Anwendung zu verbessern.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./write_data_with_dml_batch.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar writeusingdmlbatch example-db
Go
go run sample_runner.go writeusingdmlbatch example-db
Node.js
npm start writeusingdmlbatch example-db
Python
python write_data_with_dml_batch.py example-db
C#
dotnet run writeusingdmlbatch example-db
Hier sollten Sie dies sehen:
3 records inserted.
Daten mit Mutationen schreiben
Sie können Daten auch mithilfe von Mutationen einfügen.
PGAdapter übersetzt den PostgreSQL-Befehl COPY
in
Mutationen. COPY
ist die effizienteste Methode, um Daten schnell in
Ihrer Spanner-Datenbank.
COPY
-Vorgänge sind standardmäßig atomar. Atomare Vorgänge an
Spanner sind an das Commit-Größenlimit gebunden.
Weitere Informationen finden Sie unter CRUD-Limit.
Diese Beispiele zeigen, wie ein nicht atomarer COPY
-Vorgang ausgeführt wird. Dadurch können Sie
Den COPY
-Vorgang, um die Commit-Größenbeschränkung zu überschreiten.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./write_data_with_copy.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar write example-db
Go
go run sample_runner.go write example-db
Node.js
npm start write example-db
Python
python write_data_with_copy.py example-db
C#
dotnet run write example-db
Hier sollten Sie dies sehen:
Copied 5 singers
Copied 5 albums
Daten mit SQL abfragen
Spanner unterstützt eine SQL-Schnittstelle zum Lesen von Daten, die Sie Zugriff über die Befehlszeile über die Google Cloud CLI oder programmatischen über einen PostgreSQL-Treiber.
Über die Befehlszeile
Führen Sie die folgende SQL-Anweisung aus, damit Sie die Werte aller Spalten aus der Tabelle Albums
lesen können:
gcloud spanner databases execute-sql example-db --instance=test-instance \
--sql='SELECT singer_id, album_id, album_title FROM albums'
Das Ergebnis sollte so aussehen:
SingerId AlbumId AlbumTitle
1 1 Total Junk
1 2 Go, Go, Go
2 1 Green
2 2 Forever Hold Your Peace
2 3 Terrified
PostgreSQL-Treiber verwenden
Neben dem Ausführen einer SQL-Anweisung in der Befehlszeile können Sie den Befehl mithilfe eines PostgreSQL-Treibers programmatisch ausführen.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./query_data.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar query example-db
Go
go run sample_runner.go query example-db
Node.js
npm start query example-db
Python
python query_data.py example-db
C#
dotnet run query example-db
Sie sollten folgendes Ergebnis sehen:
1 1 Total Junk
1 2 Go, Go, Go
2 1 Green
2 2 Forever Hold Your Peace
2 3 Terrified
Abfrage mit einem SQL-Parameter
Wenn Ihre Anwendung eine häufig ausgeführte Abfrage hat, können Sie deren Leistung verbessern indem Sie es parametrisieren. Die resultierende parametrische Abfrage kann im Cache gespeichert und wiederverwendet werden, was reduziert die Kompilierungskosten. Weitere Informationen finden Sie unter Mit Abfrageparametern häufig ausgeführte Abfragen beschleunigen
Hier ist ein Beispiel für die Verwendung eines Parameters in der WHERE
-Klausel,
Abfragedatensätze, die einen bestimmten Wert für LastName
enthalten.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./query_data_with_parameter.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar querywithparameter example-db
Go
go run sample_runner.go querywithparameter example-db
Node.js
npm start querywithparameter example-db
Python
python query_data_with_parameter.py example-db
C#
dotnet run querywithparameter example-db
Sie sollten folgendes Ergebnis sehen:
12 Melissa Garcia
Datenbankschema aktualisieren
Beispiel: Sie müssen eine neue Spalte namens MarketingBudget
zur Tabelle Albums
hinzufügen. Damit einer vorhandenen Tabelle eine neue Spalte hinzugefügt werden kann, muss das Datenbankschema aktualisiert werden. Spanner unterstützt Schemaaktualisierungen für Datenbanken, ohne dass die Traffic-Bereitstellung unterbrochen werden muss. Bei einer Schemaaktualisierung muss die Datenbank nicht offline geschaltet und es müssen keine ganzen Tabellen oder Spalten gesperrt werden. Sie können während der Aktualisierung weiter Daten in die Datenbank schreiben. Weitere Informationen zu unterstützten
Schemaaktualisierungen und Schemaänderungsleistung in
Schemaaktualisierungen vornehmen
Spalte hinzufügen
Sie können eine Spalte in der Befehlszeile mithilfe der Google Cloud CLI oder programmatischen über einen PostgreSQL-Treiber.
Über die Befehlszeile
Verwenden Sie den folgenden Befehl ALTER TABLE
, um die neue Spalte zur Tabelle hinzuzufügen:
gcloud spanner databases ddl update example-db --instance=test-instance \
--ddl='ALTER TABLE albums ADD COLUMN marketing_budget BIGINT'
Hier sollten Sie dies sehen:
Schema updating...done.
PostgreSQL-Treiber verwenden
Führen Sie die DDL-Anweisung mit einem PostgreSQL-Treiber aus, um die Schema:
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./add_column.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar addmarketingbudget example-db
Go
go run sample_runner.go addmarketingbudget example-db
Node.js
npm start addmarketingbudget example-db
Python
python add_column.py example-db
C#
dotnet run addmarketingbudget example-db
Hier sollten Sie dies sehen:
Added marketing_budget column
DDL-Batch ausführen
Wir empfehlen, mehrere Schemaänderungen in einem Batch auszuführen.
Sie können mehrere DDL-Anweisungen in einem Batch ausführen, indem Sie die integrierte Batch-Funktion Ihres PostgreSQL-Treibers verwenden, alle DDL-Anweisungen als einen durch Semikolons getrennten SQL-String einreichen oder die Anweisungen START BATCH DDL
und RUN BATCH
verwenden.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./ddl_batch.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar ddlbatch example-db
Go
go run sample_runner.go ddlbatch example-db
Node.js
npm start ddlbatch example-db
Python
python ddl_batch.py example-db
C#
dotnet run ddlbatch example-db
Hier sollten Sie dies sehen:
Added venues and concerts tables
Daten in die neue Spalte schreiben
Mit dem folgenden Code werden Daten in die neue Spalte geschrieben. Er legt für MarketingBudget
den Wert 100000
für den Zeilenschlüssel fest, der durch Albums(1, 1)
angegeben wird, und er legt 500000
für den Zeilenschlüssel fest, der durch Albums(2, 2)
angegeben wird.
COPY
in
Mutationen. COPY
-Befehle werden standardmäßig in Insert
-Mutationen übersetzt.
Führe set spanner.copy_upsert=true
aus, um COPY
-Befehle in InsertOrUpdate
-Mutationen umzuwandeln. Hiermit können vorhandene Daten in
Spanner.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./update_data_with_copy.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar update example-db
Go
go run sample_runner.go update example-db
Node.js
npm start update example-db
Python
python update_data_with_copy.py example-db
C#
dotnet run update example-db
Hier sollten Sie dies sehen:
Updated 2 albums
Sie können auch eine SQL-Abfrage ausführen, um die Werte abzurufen, die Sie gerade geschrieben haben.
Mit diesem Code können Sie die Abfrage ausführen:
psql
Java
Go
Node.js
Python
C#
Führen Sie die Abfrage mit diesem Befehl aus:
psql
PGDATABASE=example-db ./query_data_with_new_column.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar querymarketingbudget example-db
Go
go run sample_runner.go querymarketingbudget example-db
Node.js
npm start querymarketingbudget example-db
Python
python query_data_with_new_column.py example-db
C#
dotnet run querymarketingbudget example-db
Hier sollten Sie dies sehen:
1 1 100000
1 2 null
2 1 null
2 2 500000
2 3 null
Daten aktualisieren
Sie können Daten mit DML in einer Lese-Schreib-Transaktion aktualisieren.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./update_data_with_transaction.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar writewithtransactionusingdml example-db
Go
go run sample_runner.go writewithtransactionusingdml example-db
Node.js
npm start writewithtransactionusingdml example-db
Python
python update_data_with_transaction.py example-db
C#
dotnet run writewithtransactionusingdml example-db
Hier sollten Sie dies sehen:
Transferred marketing budget from Album 2 to Album 1
Transaktions- und Anfrage-Tags
Transaktions-Tags und Anfrage-Tags verwenden
um Fehler bei Transaktionen und Abfragen
in Spanner zu beheben. Sie können
Transaktions-Tags und Anfrage-Tags mit den SPANNER.TRANSACTION_TAG
- und
SPANNER.STATEMENT_TAG
Sitzungsvariablen.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./tags.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar tags example-db
Go
go run sample_runner.go tags example-db
Node.js
npm start tags example-db
Python
python tags.py example-db
C#
dotnet run tags example-db
Daten mit schreibgeschützten Transaktionen abrufen
Angenommen, Sie möchten mehr als einen Lesevorgang mit demselben Zeitstempel ausführen. Bei schreibgeschützten Transaktionen wird ein gleichbleibendes Präfix des Commit-Verlaufs der Transaktionen beibehalten, damit die Anwendung immer konsistente Daten erhält.
Legen Sie die Verbindung auf schreibgeschützt fest oder verwenden Sie die SQL-Anweisung SET TRANSACTION READ ONLY
um eine schreibgeschützte Transaktion auszuführen.
So werden eine Abfrage und ein Lesevorgang in derselben schreibgeschützten Transaktion ausgeführt:
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./read_only_transaction.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar readonlytransaction example-db
Go
go run sample_runner.go readonlytransaction example-db
Node.js
npm start readonlytransaction example-db
Python
python read_only_transaction.py example-db
C#
dotnet run readonlytransaction example-db
Die Ausgabe sollte etwa so aussehen:
1 1 Total Junk
1 2 Go, Go, Go
2 1 Green
2 2 Forever Hold Your Peace
2 3 Terrified
2 2 Forever Hold Your Peace
1 2 Go, Go, Go
2 1 Green
2 3 Terrified
1 1 Total Junk
Partitionierte Abfragen und Data Boost
Die partitionQuery
API unterteilt eine Abfrage in kleinere Teile oder Partitionen und verwendet mehrere Maschinen, um die Partitionen parallel abzurufen. Jede Partition wird durch ein Partitionstoken identifiziert. Die PartitionQuery API hat eine höhere Latenz als die Standard-API.
Query API verwenden, da sie nur für Bulk-Vorgänge wie das Exportieren oder
das Scannen der gesamten Datenbank.
Daten-Boost können Sie Analyseabfragen und Datenexporte mit nahezu null Auswirkungen auf vorhandene Arbeitslasten in der bereitgestellten Spanner-Instanz. Data Boost unterstützt nur partitionierte Abfragen.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./data_boost.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar databoost example-db
Go
go run sample_runner.go databoost example-db
Node.js
npm start databoost example-db
Python
python data_boost.py example-db
C#
dotnet run databoost example-db
Weitere Informationen zum Ausführen von partitionierten Abfragen und zur Verwendung von Data Boost mit PGAdapter an: Data Boost und partitionierte Abfrageanweisungen
Partitionierte DML
Partitioned Data Manipulation Language (DML) ist die für die folgenden Arten von Bulk-Aktualisierungen und -Löschvorgängen vorgesehen sind:
- Regelmäßige und automatische Speicherbereinigungsvorgänge.
- Backfilling neuer Spalten mit Standardwerten.
psql
Java
Go
Node.js
Python
C#
Führen Sie das Beispiel mit dem folgenden Befehl aus:
psql
PGDATABASE=example-db ./partitioned_dml.sh
Java
java -jar target/pgadapter-snippets/pgadapter-samples.jar partitioneddml example-db
Go
go run sample_runner.go partitioneddml example-db
Node.js
npm start partitioneddml example-db
Python
python partitioned_dml.py example-db
C#
dotnet run datpartitioneddmlboost example-db
Bereinigen
Löschen Sie die Datenbank und die erstellte Instanz, um zu vermeiden, dass Ihrem Cloud-Rechnungskonto die in dieser Anleitung verwendeten Ressourcen in Rechnung gestellt werden.
Datenbank löschen
Wenn Sie eine Instanz löschen, werden alle darin enthaltenen Datenbanken automatisch gelöscht. In diesem Schritt wird gezeigt, wie eine Datenbank gelöscht wird, ohne eine Instanz zu löschen (dabei fallen weiterhin Gebühren für die Instanz an).
Über die Befehlszeile
gcloud spanner databases delete example-db --instance=test-instance
Google Cloud Console verwenden
Rufen Sie in der Google Cloud Console die Seite Spanner-Instanzen auf.
Klicken Sie auf die Instanz.
Klicken Sie auf die Datenbank, die Sie löschen möchten.
Klicken Sie auf der Seite Datenbankdetails auf Löschen.
Bestätigen Sie, dass die Datenbank gelöscht werden soll, und klicken Sie auf Löschen.
Instanz löschen
Beim Löschen einer Instanz werden alle Datenbanken, die in der Instanz erstellt wurden, automatisch gelöscht.
Über die Befehlszeile
gcloud spanner instances delete test-instance
Google Cloud Console verwenden
Rufen Sie in der Google Cloud Console die Seite Spanner-Instanzen auf.
Klicken Sie auf die Instanz.
Klicken Sie auf Löschen.
Bestätigen Sie, dass die Instanz gelöscht werden soll, und klicken Sie auf Löschen.
Nächste Schritte
Informationen zu Anmeldedaten für die Autorisierung und Authentifizierung finden Sie unter Authentifizieren bei Cloud-Dienste mit Clientbibliotheken
Weitere Informationen zu Best Practices für das Schemadesign für Spanner.