Informações gerais técnicas do GKE Enterprise (Anthos)

O GKE Enterprise é a plataforma de contêineres focada na nuvem do Google para executar aplicativos modernos em qualquer lugar e de maneira consistente em grande escala. Neste guia, fornecemos informações gerais sobre como o Anthos funciona e como ele pode ajudar você a fornecer aplicativos gerenciáveis, escalonáveis e confiáveis.

Por que o GKE Enterprise?

Normalmente, conforme as organizações adotam tecnologias nativas da nuvem, como contêineres, orquestração de contêineres e malhas de serviço, elas chegam a um ponto em que a execução de um único cluster não é mais suficiente. Há vários motivos pelos quais as organizações optam por implantar vários clusters para atingir objetivos técnicos e comerciais, por exemplo, separação da produção de ambientes que não sejam de produção, restrições regulamentares diferentes ou separação de serviços entre camadas, localidades ou equipes. No entanto, o uso de vários clusters tem suas próprias dificuldades e sobrecargas em termos de configuração, segurança e gerenciamento consistentes. Por exemplo, configurar manualmente um cluster por vez acarreta no risco de interrupções e pode ser difícil enxergar exatamente onde ocorrem erros.

Tudo pode ficar ainda mais complexo (e caro) quando os clusters não estão em um só lugar. Muitas organizações que usam o Google Cloud também querem ou precisam executar cargas de trabalho nos próprios data centers, no chão de fábrica, em lojas de varejo e até mesmo em outras nuvens públicas, mas não querem criar novas plataformas de contêineres em todos esses locais ou repensar a forma como configuram, protegem, monitoram e otimizam cargas de trabalho de contêineres de acordo com o local onde estão sendo executadas, com a possibilidade de ambientes inconsistentes, riscos de segurança e de configuração incorreta e tarefas operacionais repetitivas.

Exemplo:

  • Uma instituição financeira está criando uma plataforma bancária digital no Google Cloud e requer configurações consistentes, aplicação rigorosa de políticas de segurança e visibilidade profunda da comunicação entre diversos apps. Uma grande empresa de varejo que cria uma plataforma de e-commerce moderna tem os mesmos requisitos. As duas empresas gerenciam vários clusters em várias regiões no Google Cloud usando o GKE.
  • Outra instituição financeira global está desenvolvendo apps de gerenciamento de riscos complexos, apps de transferência entre bancos e muitas outras cargas de trabalho confidenciais. Algumas delas precisam ser protegidas pelo firewall corporativo e outras implantadas no GKE no Google Cloud.
  • Um grande varejista de farmácias está criando novos apps de programação de vacinação, mensagens aos clientes e engajamento digital para modernizar as operações de farmácias e criar uma experiência mais personalizada nas lojas. Esses apps exigem plataformas de contêineres em loja integradas aos serviços hospedados no Google Cloud, como o BigQuery e a Retail Search
  • Uma empresa de mídia e entretenimento precisa de um ambiente de contêiner consistente em 30 estádios, todos conectados e gerenciados pelo Google Cloud, para coletar e analisar terabytes de estatísticas de jogo e impulsionar o engajamento dos fãs dentro e fora dos campos.
  • Uma fabricante de hardware precisa testar e otimizar a qualidade dos produtos no chão de fábrica e a segurança dos funcionários analisando dados com latência muito baixa para tomar decisões praticamente em tempo real, consolidando os dados no Google Cloud para análises em longo prazo.
  • Uma empresa de software e Internet que oferece uma plataforma de integração em um modelo de software como serviço (SaaS) precisa oferecer essa plataforma nas principais nuvens públicas para execução quando os clientes precisarem de proximidade com serviços de nuvem nativos. A empresa precisa de uma maneira unificada e consistente de provisionar, configurar, proteger e monitorar ambientes de contêiner em várias nuvens públicas por meio de um plano de gerenciamento, para evitar a sobrecarga operacional de gerenciar cada ambiente de nuvem com diferentes ferramentas de gerenciamento nativas.

O GKE Enterprise pode ajudar todas essas organizações, fornecendo uma plataforma consistente que permite:

  • Modernizar aplicativos e infraestruturas no local
  • Criar um modelo operacional de nuvem unificado (painel único) para criar, atualizar e otimizar clusters de contêiner onde quer que eles estejam
  • Escalonar grandes aplicativos multicluster como frotas, agrupamentos lógicos de ambientes semelhantes, com segurança, configuração e gerenciamento de serviços consistentes
  • Aplicar segurança e governança consistentes em um plano de controle unificado

Ele faz isso com ferramentas e recursos opinativos que ajudam a controlar, gerenciar e operar cargas de trabalho em contêineres em escala corporativa, permitindo a adoção de práticas recomendadas e princípios que aprendemos com a execução de serviços no Google.

Princípios básicos do GKE Enterprise

Diagrama mostrando os recursos da plataforma GKE Enterprise

Os recursos do GKE Enterprise foram desenvolvidos com base na ideia da frota, um agrupamento lógico de clusters do Kubernetes que podem ser gerenciados juntos. Uma frota pode ser totalmente composta de clusters do GKE no Google Cloud ou incluir clusters fora do Google Cloud em execução no local e em outras nuvens públicas, como a AWS e o Azure.

Depois de criar uma frota, use os recursos ativados para frota do GKE Enterprise para agregar mais valor e simplificar o trabalho em vários clusters e provedores de infraestrutura:

  • As ferramentas de gerenciamento de políticas e configuração ajudam você a trabalhar com mais facilidade em grande escala, adicionando e atualizando as mesmas configurações, recursos e políticas de segurança automaticamente e de forma consistente em toda a frota, onde quer que seus clusters estejam.
  • Os recursos de rede para toda a frota ajudam você a gerenciar o tráfego em toda a frota, incluindo a Entrada em vários clusters para aplicativos que abrangem vários clusters, e os recursos de gerenciamento de tráfego da malha de serviço.
  • Os recursos de gerenciamento de identidade ajudam você a configurar de maneira consistente a autenticação para cargas de trabalho e usuários de frota.
  • Os recursos de observabilidade permitem monitorar e solucionar problemas de clusters e aplicativos, incluindo integridade, uso de recursos e postura de segurança.
  • As ferramentas de gerenciamento de equipes permitem garantir que os times tenham acesso aos recursos de infraestrutura necessários para executar cargas de trabalho e oferecem às equipes uma visualização com escopo dos recursos e cargas de trabalho.
  • Para os aplicativos baseados em microsserviços executados na sua frota, o Anthos Service Mesh fornece ferramentas com a mais alta tecnologia para segurança, rede e observabilidade de aplicativos em toda a malha.

É possível permitir que toda a plataforma GKE Enterprise use todos os recursos disponíveis, incluindo os de várias nuvens e de nuvem híbrida, ou criar uma frota apenas no Google Cloud e pagar por recursos empresariais adicionais conforme necessário. O GKE Enterprise usa tecnologias de código aberto padrão do setor e oferece suporte a vários provedores de infraestrutura, com flexibilidade para usar o GKE Enterprise de uma maneira que atenda às suas necessidades comerciais e organizacionais.

Como as frotas funcionam

As frotas são como o GKE Enterprise permite agrupar e normalizar logicamente os clusters do Kubernetes, facilitando a administração da infraestrutura. Adotar frotas ajuda sua organização a melhorar o gerenciamento de clusters individuais para grupos de clusters, com uma única visualização de toda a frota no console do Google Cloud. No entanto, as frotas são mais do que apenas grupos de clusters. Os princípios de igualdade e confiança presumidos em uma frota permitem que você use toda a gama de recursos habilitados para frotas.

O primeiro desses princípios de frota é a semelhança. Isso significa que, em uma frota de clusters, alguns objetos do Kubernetes, como namespaces em clusters diferentes, são tratados como se fossem iguais quando têm o mesmo nome. Essa normalização simplifica o gerenciamento de vários clusters de uma só vez e é usada pelos recursos ativados para frota do GKE Enterprise. Por exemplo, é possível aplicar uma política de segurança com o Policy Controller a todos os serviços da frota no namespace foo, independentemente de em quais clusters eles estejam ou onde os clusters estão.

As frotas também pressupõem semelhança de serviço (todos os serviços em um namespace com o mesmo nome podem ser tratados como o mesmo serviço, por exemplo, para fins de gerenciamento de tráfego) e semelhança de identidade (serviços e cargas de trabalho em uma frota podem aproveitar uma identidade comum para autenticação e autorização). O princípio da uniformidade da frota também fornece orientações sólidas sobre como configurar namespaces, serviços e identidades, seguindo o que muitas organizações e o Google já implementam como práticas recomendadas.

Outro princípio fundamental é a confiança. A consistência do serviço, da identidade da carga de trabalho e da identidade da malha é baseada em um princípio de alta confiança entre os membros de uma frota. Essa confiança possibilita elevar o gerenciamento desses recursos para a frota, em vez de gerenciar cluster por cluster e, por fim, torna o limite do cluster menos importante.

A maneira como você organiza suas frotas depende de suas necessidades organizacionais e técnicas. Cada frota está associada a um projeto específico do Google Cloud, conhecido como projeto host da frota, que você usa para gerenciar e visualizar sua frota, mas pode incluir clusters de outros projetos. Por exemplo, é possível ter frotas separadas para ambientes de produção, teste e desenvolvimento, ou frotas separadas para linhas de negócios diferentes (equipes diferentes, como locatários na sua infraestrutura, podem ser tratadas dentro das frotas usando escopos). Os clusters com grandes quantidades de comunicação entre serviços beneficiam-se mais de serem gerenciados juntos em uma frota. Os clusters no mesmo ambiente (por exemplo, ambiente de produção) devem estar na mesma frota. Geralmente, recomendamos a maior frota que permita confiança e semelhança entre os serviços, mas lembre-se de que se você optar por usar o Anthos Service Mesh, poderá ter um controle de acesso mais refinado ao serviço na sua frota.


Saiba mais:


Clusters do Kubernetes em qualquer lugar

O Kubernetes é a base do GKE Enterprise e oferece várias opções de cluster do Kubernetes para você criar sua frota:

  • O Google Kubernetes Engine (GKE) é a implementação gerenciada do Kubernetes do Google, com as seguintes opções disponíveis para usuários do GKE Enterprise:
    • No Google Cloud, o GKE tem um plano de controle hospedado na nuvem e clusters compostos de instâncias do Compute Engine. Embora o GKE no Google Cloud ajude você a implantar, escalonar e gerenciar o Kubernetes automaticamente, o agrupamento de clusters do GKE em uma frota facilita o trabalho em escala e permite usar os recursos do GKE Enterprise, além dos recursos avançados de gerenciamento de clusters já oferecidos pelo GKE.
    • Fora do Google Cloud, o GKE é ampliado para uso com outros provedores de infraestrutura, incluindo Azure, AWS e no seu próprio hardware local (no VMware ou em bare metal). Nessas opções, o plano de controle do Kubernetes fornecido pelo Google é executado no seu data center ou provedor de nuvem com os nós do cluster, com os clusters conectados ao projeto host da frota no Google Cloud.
  • O Google Distributed Cloud Edge também permite adicionar clusters locais do GKE à sua frota, desta vez em execução em hardwares fornecidos e mantidos pelo Google e compatíveis com um subconjunto de recursos do GKE Enterprise.
  • Os clusters do GKE não são sua única opção. O GKE Enterprise também permite registrar clusters do Kubernetes de terceiros em conformidade na sua frota, como clusters do EKS e do AKS, conhecidos como clusters anexados. Com essa opção, você continua a executar as cargas de trabalho atuais onde elas estão e agrega valor com um subconjunto de recursos do GKE Enterprise. O GKE Enterprise não gerencia o plano de controle do Kubernetes ou os componentes dos nós, apenas os serviços do GKE Enterprise executados nesses clusters.

Para todos os clusters baseados no GKE, incluindo nuvens locais e públicas, o GKE Enterprise fornece ferramentas para gerenciamento de cluster e ciclo de vida (criação, atualização, exclusão e upgrade), incluindo utilitários de linha de comando e, para alguns tipos de cluster, gerenciamento pelo console do Google Cloud.

Configuração do cluster

Seja qual for o local dos clusters, o Config Sync fornece uma maneira consistente de gerenciar a configuração dos clusters em toda a frota, incluindo clusters anexados. O Config Sync usa a abordagem de "configuração como dados": o estado desejado do ambiente é definido de maneira declarativa, mantido como uma única fonte de verdade no controle de versões e aplicado diretamente com resultados reproduzíveis. Ele monitora um repositório Git central que contém sua configuração e aplica automaticamente todas as alterações aos clusters de destino especificados, onde quer que estejam em execução. Qualquer YAML ou JSON que possa ser aplicado com comandos kubectl poderá ser gerenciado com o Config Sync e aplicado a qualquer cluster do Kubernetes.

Migração e VMs

Para organizações que querem migrar aplicativos para contêineres e o Kubernetes como parte do processo de modernização, a plataforma do GKE Enterprise inclui o Migrate to Containers, com ferramentas para converter cargas de trabalho baseadas em VMs em contêineres executados no GKE. Nas plataformas bare metal do GKE Enterprise (GKE em Bare Metal e Distributed Cloud Edge), as organizações também podem usar o ambiente de execução de VMs no Google Distributed Cloud para executar VMs no Kubernetes. Elas fazem isso da mesma forma que executam contêineres, permitindo que continuem usando cargas de trabalho baseadas em VMs atuais, já que elas também desenvolvem e executam novos aplicativos baseados em contêineres. Quando for possível, migre essas cargas de trabalho baseadas em VM para contêineres e continue usando as mesmas ferramentas de gerenciamento do GKE Enterprise.


Saiba mais:


Recursos do GKE Enterprise

A outra parte deste guia apresenta os recursos que o GKE Enterprise oferece para ajudar você a gerenciar suas frotas e os aplicativos executados nelas. Confira uma lista completa dos recursos disponíveis para cada tipo de cluster do Kubernetes com suporte em Opções de implantação do GKE Enterprise.

Rede, autenticação e segurança

Depois de construir sua frota, o GKE Enterprise ajuda você a gerenciar o tráfego, gerenciar a autenticação e o controle de acesso e aplicar consistentemente políticas de segurança e conformidade em toda a frota.

Conectar-se à sua frota

Para gerenciar a conexão com o Google em frotas híbridas e em várias nuvens, o Google oferece uma implantação do Kubernetes chamada Connect Agent. Depois de instalado em um cluster como parte do registro da frota, o agente estabelece uma conexão entre o cluster fora do Google Cloud e o projeto host da frota do Google Cloud. Isso permite que você gerencie seus clusters e as cargas de trabalho do Google e use nossos serviços.

Em ambientes locais, a conectividade com o Google pode usar a Internet pública, uma VPN de alta disponibilidade, uma interconexão pública ou uma interconexão dedicada, dependendo dos requisitos de latência, segurança e largura de banda dos aplicativos ao interagir com o Google Cloud.


Saiba mais:


Balanceamento de carga

Para gerenciar o tráfego de entrada e saída na sua frota, o GKE Enterprise fornece as seguintes soluções de balanceamento de carga:

  • Os clusters do GKE no Google Cloud podem usar as seguintes opções:
  • Os clusters do GKE Enterprise no local permitem que você escolha entre diversos modos de balanceamento de carga para atender às suas necessidades, incluindo um balanceador de carga MetalLB agrupado e a opção de configurar manualmente o balanceamento de carga para usar as soluções atuais
  • O Distributed Cloud Edge inclui o balanceamento de carga MetalLB agrupado
  • Os clusters do GKE Enterprise em outras nuvens públicas usam balanceadores de carga nativos da plataforma

Saiba mais:


Autenticação e controle de acesso

Um desafio significativo ao trabalhar com vários clusters em vários provedores de infraestrutura é o gerenciamento da autenticação e da autorização. Para autenticação nos clusters da sua frota, o GKE Enterprise oferece opções de autenticação consistente, simples e segura ao interagir com os clusters na linha de comando com kubectl e no console do Google Cloud.

  • Usar a identidade do Google: o Connect Gateway permite que usuários e contas de serviço façam a autenticação nos clusters da sua frota com os IDs do Google, onde quer que os clusters estejam. É possível usar esse recurso para se conectar diretamente a clusters ou com pipelines de compilação e outras automações de DevOps.
  • Usar identidade de terceiros: o serviço de identidade do GKE Enterprise do GKE Enterprise permite configurar a autenticação com provedores de identidade de terceiros. Assim, suas equipes podem continuar usando nomes de usuário, senhas e grupos de segurança atuais do OIDC (e LDAP, quando compatível), como o Microsoft AD FS e o Okta, em toda a frota de dispositivos.

É possível configurar quantos provedores de identidade compatíveis você quiser para um cluster.

Depois de configurar a autenticação, use o controle de acesso padrão baseado em papéis (RBAC, na sigla em inglês) do Kubernetes para autorizar usuários autenticados a interagir com seus clusters, assim como o Identity and Access Management para controlar o acesso aos serviços do Google, como o Connect Gateway.

Para cargas de trabalho em execução nos clusters, o GKE Enterprise fornece a identidade de carga de trabalho em toda a frota. Esse recurso permite que as cargas de trabalho em clusters de membros da frota usem identidades de um pool de identidades de carga de trabalho em toda a frota ao realizar a autenticação em serviços externos, como APIs do Cloud. Isso simplifica a configuração do acesso de um aplicativo a esses serviços, em vez de configurar o acesso cluster por cluster. Por exemplo, se você tiver um aplicativo com um back-end implantado em vários clusters na mesma frota e que precisa ser autenticado em uma API do Google, será fácil configurá-lo para que todos os serviços no namespace "backend" possam usar essa API.


Saiba mais:


Gerenciamento de políticas

Outro desafio ao trabalhar com vários clusters é a aplicação de políticas consistentes de segurança e conformidade regulatória em toda a frota. Muitas organizações têm requisitos de segurança e conformidade rigorosos, por exemplo, aqueles que protegem informações de consumidores em aplicativos de serviços financeiros, e precisam ser capazes de atender a essas necessidades em grande escala.

Para ajudar com isso, o Policy Controller aplica uma lógica de negócios personalizada em todas as solicitações da API Kubernetes nos clusters relevantes. Essas políticas atuam como uma "guarda" e impedem que qualquer alteração na configuração da API do Kubernetes viole os controles de segurança, operação ou conformidade. É possível definir políticas para bloquear ativamente solicitações de API não compatíveis em toda a frota ou simplesmente auditar a configuração dos clusters e relatar violações. Regras comuns de segurança e conformidade podem ser facilmente expressas usando o conjunto integrado de regras do Policy Controller. Também é possível escrever suas próprias regras usando a linguagem de políticas extensível, com base no projeto de código aberto Open Policy Agent.


Saiba mais:


Segurança no nível do aplicativo

Para aplicativos executados na sua frota, o GKE Enterprise oferece recursos abrangentes de controle de acesso e autenticação, incluindo:

  • Autorização binária, que garante que somente imagens confiáveis sejam implantadas nos clusters da frota.
  • Política de rede do Kubernetes, que permite especificar os pods que têm permissão para se comunicar uns com os outros e com outros endpoints da rede.
  • Controle de acesso ao serviço do Anthos Service Mesh, que permite configurar um controle de acesso refinado para os serviços da malha com base em contas de serviço e contextos de solicitação.
  • A autoridade certificadora do Anthos Service Mesh (Mesh CA), que gera e alterna certificados automaticamente para facilitar a autenticação mútua de TLS (mTLS) nos serviços.

Observabilidade

Uma parte essencial da operação e do gerenciamento de clusters em escala é poder monitorar facilmente os clusters e os aplicativos da sua frota, incluindo a integridade, o uso de recursos e a postura de segurança.

GKE Enterprise no console do Google Cloud

O console do Google Cloud é a interface da Web do Google Cloud que pode ser usada para gerenciar seus projetos e recursos. O GKE Enterprise traz recursos empresariais e uma visualização estruturada de todos os seus dispositivos nas páginas do console do Google Cloud no GKE. Ele oferece uma interface integrada que ajuda você a gerenciar seus aplicativos e recursos em um só lugar. As páginas do painel permitem que você visualize informações aprofundadas, além de fornecer o detalhamento necessário para identificar problemas.

  • Informações gerais: as informações gerais do GKE Enterprise fornecem detalhes abrangentes sobre o uso de recursos da sua frota com base nas informações fornecidas pelo Cloud Monitoring, mostrando a utilização de CPU, memória e disco agregada por frota e cluster, além da cobertura do Policy Controller para toda a frota.
  • Gerenciamento de clusters: a visualização de clusters do GKE Enterprise fornece um console seguro para mostrar o estado de todos os clusters do seu projeto e da frota, incluindo a integridade dos clusters, registrar clusters e criar novos clusters para sua frota (apenas do Google Cloud). Para informações sobre clusters específicos, confira os detalhes nessa visualização ou acesse outros painéis do GKE para conhecer melhor os nós e as cargas de trabalho do cluster.
  • Informações gerais da equipe: se você já configurou equipes para sua frota, consulte as informações gerais da equipe para exibir a utilização de recursos, taxas de erro e outras métricas agregadas por equipe, facilitando a visualização e a solução de problemas pelos administradores e membros da equipe.
  • Gerenciamento de atributos: a visualização "Gerenciamento de atributos" permite exibir o estado dos recursos do GKE Enterprise nos clusters da sua frota.
  • Malha de serviço: se você estiver usando o Anthos Service Mesh no Google Cloud, a visualização dele permitirá observar a integridade e o desempenho dos serviços. O Anthos Service Mesh coleta e agrega dados sobre cada solicitação e resposta de serviço. Assim, você não precisa instrumentar o código para coletar dados de telemetria ou configurar painéis e gráficos manualmente. O Anthos Service Mesh faz upload automático de métricas e registros para o Cloud Monitoring e o Cloud Logging em todo o tráfego do cluster. Essa telemetria detalhada permite que os operadores observem o comportamento do serviço e os capacita a solucionar problemas, manter e otimizar os aplicativos.
  • Postura de segurança: a visualização mostra recomendações úteis e opinativas para melhorar a postura de segurança da sua frota.
  • Gerenciamento de configuração: a visualização "Configuração" oferece informações gerais do estado de configuração de todos os clusters da frota com o Config Sync ativado e permite adicionar rapidamente o recurso a clusters que ainda não foram configurados. É possível acompanhar facilmente as alterações de configuração e conferir qual ramificação e tag de confirmação foram aplicadas a cada cluster. Os filtros flexíveis simplificam a visualização do status de lançamento da configuração por cluster, ramificação ou tag.
  • Gerenciamento de políticas: a visualização "Política" mostra quantos clusters na sua frota estão com o Policy Controller ativado, apresenta informações gerais das violações de compliance e permite adicionar o recurso aos clusters da frota.

Geração de registros e monitoramento

Para informações mais detalhadas sobre os clusters e as cargas de trabalho, use o Cloud Logging e o Cloud Monitoring. O Cloud Logging fornece um local unificado para armazenar e analisar dados de registros, enquanto o Cloud Monitoring coleta e armazena automaticamente dados de desempenho, além de fornecer ferramentas de análise e visualização de dados. A maioria dos tipos de cluster do GKE Enterprise envia informações de geração de registros e monitoramento para componentes do sistema (como cargas de trabalho nos namespaces kube-system e gke-connect) para o Cloud Monitoring e o Cloud Logging por padrão. É possível configurar ainda mais o Cloud Monitoring e o Cloud Logging para receber informações sobre as cargas de trabalho dos seus aplicativos, criar painéis que incluem vários tipos de métricas, criar alertas e muito mais.

Dependendo das necessidades da sua organização e do projeto, o GKE Enterprise também oferece suporte à integração com outras ferramentas de observabilidade, incluindo o Prometheus e o Grafana de código aberto, e ferramentas de terceiros, como o Elastic e o Splunk.


Saiba mais:


Gerenciamento de serviços

No Kubernetes, um serviço é uma maneira abstrata de expor um aplicativo em execução em um conjunto de pods como um serviço de rede, com um único endereço DNS para o tráfego às cargas de trabalho do serviço. Em uma arquitetura moderna de microsserviços, um único aplicativo pode consistir em vários serviços e cada serviço pode ter várias versões implementadas simultaneamente. A comunicação entre serviços nesse tipo de arquitetura ocorre pela rede, portanto, os serviços precisam ser capazes de lidar com idiossincrasias e outros problemas de infraestrutura.

Para facilitar o gerenciamento de serviços na sua frota, use o Anthos Service Mesh. O Anthos Service Mesh é baseado no Istio, que é uma implementação de código aberto de uma camada de infraestrutura de malha de serviço. As malhas de serviço consideram as preocupações comuns com a execução de um serviço, como monitoramento, rede e segurança, com ferramentas consistentes e avançadas, facilitando o foco dos desenvolvedores e operadores de serviços na criação e no gerenciamento de aplicativos. Com o Anthos Service Mesh, essas funções são abstraídas do contêiner principal do aplicativo e implementadas em um proxy comum fora do processo, fornecido como um contêiner separado no mesmo pod. Esse padrão dissocia a lógica de aplicativo ou de negócios das funções de rede e permite que os desenvolvedores se concentrem nos recursos necessários para os negócios. As malhas de serviço também permitem que as equipes de operações e de desenvolvimento separem o trabalho uma da outra.

O Anthos Service Mesh oferece muitos recursos, além de toda a funcionalidade do Istio:

  • Os registros e as métricas de serviço de todo o tráfego no cluster da malha são ingeridos automaticamente no Google Cloud.
  • Os painéis gerados automaticamente exibem a telemetria detalhada no painel do Anthos Service Mesh para que você analise melhor suas métricas e registros, filtre e distribua seus dados em uma grande variedade de atributos.
  • Resumo das relações serviço a serviço: entenda o que se conecta a cada serviço e os serviços dos quais cada item depende.
  • Proteja seu tráfego entre serviços: a autoridade certificadora do Anthos Service Mesh (Mesh CA) gera e alterna automaticamente os certificados para que você possa ativar facilmente a autenticação TLS mútua (mTLS) com as políticas do Istio.
  • Confira rapidamente a postura de segurança da comunicação não só do seu serviço, mas de suas relações com outros serviços.
  • Saiba mais sobre suas métricas de serviço e combine-as com outras métricas do Google Cloud usando o Cloud Monitoring.
  • Receba insights claros e simples sobre a integridade do serviço com objetivos de nível de serviço (SLOs, na sigla em inglês), que permitem definir e alertar facilmente sobre seus próprios padrões de integridade do serviço.

O Anthos Service Mesh permite que você escolha entre um plano de controle de malha de serviço totalmente gerenciado no Google Cloud (para malhas em execução apenas em clusters de membros da frota no Google Cloud) ou um plano de controle no cluster que você instala por conta própria. Saiba mais sobre os recursos disponíveis para cada opção na documentação do Anthos Service Mesh.


Saiba mais:


A seguir