Nesta página, você verá uma lista problemas conhecidos do Cloud SQL para PostgreSQL, além de maneiras de evitar ou remediar esses problemas.
Se você estiver tendo problemas com sua instância, verifique as informações em Como diagnosticar problemas.Problemas de conexão da instância
Certificados SSL/TLS expirados
Se a instância estiver configurada para usar SSL, acesse a página Instâncias do Cloud SQL no console do Google Cloud e abra a instância. Abra a página Conexões, selecione a guia Segurança e verifique se o certificado do servidor é válido. Se ele tiver expirado, você precisará adicionar um novo e fazer a rotação dos certificados.
Versão do proxy do Cloud SQL Auth
Se estiver se conectando usando o proxy do Cloud SQL Auth, verifique se está usando a versão mais recente. Para mais informações, consulte Como manter o proxy do Cloud SQL Auth atualizado.
Conexão não autorizada
Se você tentar se conectar a uma instância que não existe no projeto, a mensagem de erro informará apenas que você não está autorizado a acessar essa instância.
Não é possível criar uma instância do Cloud SQL
Se a mensagem de erro
Failed to create subnetwork. Router status is temporarily unavailable. Please try again later. Help Token: [token-ID]
for exibida, tente criar a instância do Cloud SQL novamente.
O seguinte funciona apenas com o usuário padrão ('postgres'):
gcloud sql connect --user
Se você tentar se conectar usando esse comando com qualquer outro usuário, a mensagem de erro será FATAL: database 'user' does not exist. A solução alternativa é se conectar usando o usuário padrão ('postgres') e, em seguida, usar o comando
"\c"
psql para se reconectar como o usuário diferente.
As conexões do PostgreSQL travam quando a autenticação do proxy db do IAM está ativada.
Quando o proxy de autenticação do Cloud SQL é iniciado com soquetes TCP e com a flag
-enable_iam_login
, um cliente PostgreSQL trava durante a conexão TCP. Uma solução é usarsslmode=disable
na string de conexão do PostgreSQL. Exemplo:psql "host=127.0.0.1 dbname=postgres user=me@google.com sslmode=disable"
Outra solução é iniciar o proxy de autenticação do Cloud SQL com soquetes Unix. Isso desativa a criptografia SSL do PostgreSQL e permite que o proxy de autenticação do Cloud SQL faça essa criptografia.
Problemas administrativos
Apenas uma operação de importação ou exportação do Cloud SQL de longa duração pode ser executada por vez em uma instância. Ao iniciar uma operação, verifique se não é necessário executar outras operações na instância. Além disso, ao iniciar uma operação, é possível cancelá-la.
O PostgreSQL importa dados em uma única transação. Portanto, se você cancelar a operação de importação, o Cloud SQL não manterá os dados da importação.
Problemas com importação e exportação de dados
Para as versões 15 e posteriores do PostgreSQL, se o banco de dados de destino for criado a partir de
template0
, a importação de dados poderá falhar e você poderá ver uma mensagem de erropermission denied for schema public
. Para resolver esse problema, forneça privilégios de esquema públicos ao usuáriocloudsqlsuperuser
executando o comando SQLGRANT ALL ON SCHEMA public TO cloudsqlsuperuser
.Exportar vários objetos grandes faz com que a instância pare de responder
Se o banco de dados tiver vários objetos grandes (blobs), sua exportação poderá consumir tanta memória que a instância não responderá. Isso pode acontecer mesmo se os blobs estiverem vazios.
O Cloud SQL não é compatível com espaços de tabela personalizados, mas é compatível com a migração de dados de espaços de tabela personalizados para o padrão,
pg_default
, na instância de destino. Por exemplo, se você tem um espaço de tabela chamadodbspace
está localizado em/home/data
, após a migração todos os dados dedbspace
são migrados para opg_default
. Mas o Cloud SQL não vai criar um espaço de tabela chamado "dbspace" no disco.Se você estiver tentando importar e exportar dados de um banco de dados grande (por exemplo, um banco de dados que tenha 500 GB de dados ou mais), as operações de importação e exportação poderão levar muito tempo para serem concluídas. Além disso, outras operações (por exemplo, a de backup) não estarão disponíveis para serem realizadas enquanto ocorre a importação ou exportação. Uma opção possível para melhorar o desempenho do processo de importação e exportação é restaurar um backup anterior usando
gcloud
ou a API.
- O Cloud Storage é compatível com um tamanho máximo de objeto único de 5 terabytes. Se você tiver bancos de dados maiores que 5 TB, a operação de exportação para o Cloud Storage falhará. Nesse caso, é preciso dividir os arquivos de exportação em segmentos menores.
Registros de transações e crescimento do disco
Os registros são limpados uma vez por dia, e não continuamente. Quando o número de dias de retenção de registros é configurado para ser o mesmo que o número de backups, um dia de registro pode ser perdido, dependendo de quando o backup ocorre. Por exemplo, definir a retenção de registros para 7 dias e a retenção de backup para 7 backups significa que entre 6 e 7 dias de registros serão retidos.
Recomendamos que você defina o número de backups para, pelo menos, um dia a mais de dias de retenção de registros. Dessa forma, é possível garantir um mínimo de dias especificados para a retenção de registros.
Problemas relacionados ao Cloud Monitoring ou ao Cloud Logging
As instâncias com os seguintes nomes de região são exibidas incorretamente em determinados contextos, da seguinte maneira:
us-central1
é exibido comous-central
europe-west1
é exibido comoeurope
asia-east1
é exibido comoasia
Esse problema ocorre nos seguintes contextos:
- Alertas no Cloud Monitoring
- Metrics Explorer
- Cloud Logging
Reduza o problema dos alertas no Cloud Monitoring e no Metrics Explorer usando os rótulos de metadados de recursos. Use o rótulo de metadados do sistema
region
em vez do rótulo de recurso monitoradoregion
cloudsql_database.