Este documento no Well-Architected Framework: perspetiva de IA e ML oferece uma vista geral dos princípios e das recomendações para criar e operar sistemas de IA e ML robustos no Google Cloud. Estas recomendações ajudam a configurar elementos de base, como observabilidade, automatização e escalabilidade. As recomendações neste documento estão alinhadas com o pilar de excelência operacional da Google Cloud framework bem arquitetada.
A excelência operacional no domínio da IA e da AA é a capacidade de implementar, gerir e governar facilmente os sistemas e os pipelines de IA e AA que ajudam a impulsionar os objetivos estratégicos da sua organização. A excelência operacional permite-lhe responder de forma eficiente às alterações, reduzir a complexidade operacional e garantir que as suas operações permanecem alinhadas com os objetivos de negócio.
As recomendações neste documento estão mapeadas para os seguintes princípios fundamentais:
- Crie uma base robusta para o desenvolvimento de modelos
- Automatize o ciclo de vida de desenvolvimento de modelos
- Implemente a observabilidade
- Crie uma cultura de excelência operacional
- Crie em função da escalabilidade
Crie uma base robusta para o desenvolvimento de modelos
Para desenvolver e implementar sistemas de IA escaláveis e fiáveis que ajudam a alcançar os seus objetivos empresariais, é essencial uma base de desenvolvimento de modelos robusta. Esta base permite fluxos de trabalho consistentes, automatiza passos críticos para reduzir erros e garante que os modelos podem ser dimensionados de acordo com a procura. Uma base de desenvolvimento de modelos sólida garante que os seus sistemas de ML podem ser atualizados, melhorados e reciclados de forma integrada. A base também ajuda a alinhar o desempenho dos seus modelos com as necessidades da empresa, implementar rapidamente soluções de IA impactantes e adaptar-se aos requisitos em constante mudança.
Para criar uma base sólida para desenvolver os seus modelos de IA, considere as seguintes recomendações.
Defina os problemas e os resultados necessários
Antes de iniciar qualquer projeto de IA ou aprendizagem automática, tem de compreender claramente os problemas empresariais a resolver e os resultados necessários. Comece com um resumo dos objetivos empresariais e divida-os em indicadores essenciais de desempenho (KPIs) mensuráveis. Para organizar e documentar as definições e as hipóteses dos seus problemas num ambiente de bloco de notas do Jupyter, use ferramentas como o Vertex AI Workbench. Para implementar o controlo de versões para código e documentos, e para documentar os seus projetos, objetivos e pressupostos, use ferramentas como o Git. Para desenvolver e gerir comandos para aplicações de IA generativa, pode usar o Vertex AI Studio.
Recolha e pré-processe os dados necessários
Para implementar o pré-processamento e a transformação de dados, pode usar o Dataflow (para o Apache Beam), Dataproc (para o Apache Spark) ou o BigQuery se um processo baseado em SQL for adequado. Para validar esquemas e detetar anomalias, use a validação de dados do TensorFlow (TFDV) e tire partido das análises automatizadas da qualidade dos dados no BigQuery, quando aplicável.
Para a IA generativa, a qualidade dos dados inclui a precisão, a relevância, a diversidade e o alinhamento com as características de saída necessárias. Nos casos em que os dados do mundo real são insuficientes ou desequilibrados, pode gerar dados sintéticos para ajudar a melhorar a robustez e a generalização do modelo. Para criar conjuntos de dados sintéticos com base em padrões existentes ou aumentar os dados de preparação para um melhor desempenho do modelo, use os DataFrames do BigQuery e o Gemini. Os dados sintéticos são particularmente valiosos para a IA generativa porque podem ajudar a melhorar a diversidade dos comandos e a robustez geral do modelo. Quando cria conjuntos de dados para o ajuste fino de modelos de IA generativa, considere usar as capacidades de geração de dados sintéticos na Vertex AI.
Para tarefas de IA generativa, como o ajuste preciso ou a aprendizagem reforçada pelo feedback humano (ARFH), certifique-se de que as etiquetas refletem com precisão a qualidade, a relevância e a segurança dos resultados gerados.
Selecione uma abordagem de ML adequada
Quando cria o modelo e os parâmetros, considere a complexidade do modelo e as necessidades de computação. Consoante a tarefa (como classificação, regressão ou geração), considere usar a preparação personalizada do Vertex AI para a criação de modelos personalizados ou o AutoML para tarefas de ML mais simples. Para aplicações comuns, também pode aceder a modelos pré-preparados através do Vertex AI Model Garden. Pode experimentar uma variedade de modelos de base de vanguarda para vários exemplos de utilização, como gerar texto, imagens e código.
Pode querer ajustar um modelo base pré-treinado para alcançar um desempenho ideal para o seu exemplo de utilização específico. Para requisitos de elevado desempenho na preparação personalizada, configure unidades de processamento de tensores (TPUs) da nuvem ou recursos de GPU para acelerar a preparação e a inferência de modelos de aprendizagem profunda, como modelos de linguagem grandes (LLMs) e modelos de difusão.
Configure o controlo de versões para código, modelos e dados
Para gerir e implementar versões de código de forma eficaz, use ferramentas como o GitHub ou o GitLab. Estas ferramentas oferecem funcionalidades de colaboração robustas, estratégias de ramificação e integração com pipelines de CI/CD para garantir um processo de desenvolvimento simplificado.
Use soluções adequadas para gerir cada artefacto do seu sistema de AA, como os seguintes exemplos:
- Para artefactos de código, como imagens de contentores e componentes de pipelines, o Artifact Registry oferece uma solução de armazenamento escalável que pode ajudar a melhorar a segurança. O Artifact Registry também inclui controlo de versões e pode integrar-se com o Cloud Build e o Cloud Deploy.
- Para gerir artefactos de dados, como conjuntos de dados usados para preparação e avaliação, use soluções como o BigQuery ou o Cloud Storage para armazenamento e controlo de versões.
- Para armazenar metadados e ponteiros para localizações de dados, use o seu sistema de controlo de versões ou um catálogo de dados separado.
Para manter a consistência e o controlo de versões dos dados das funcionalidades, use o Vertex AI Feature Store. Para monitorizar e gerir artefactos de modelos, incluindo ficheiros binários e metadados, use o Registo de modelos do Vertex AI, que lhe permite armazenar, organizar e implementar versões de modelos de forma integrada.
Para garantir a fiabilidade do modelo, implemente o Vertex AI Model Monitoring. Detete a deriva de dados, monitorize o desempenho e identifique anomalias na produção. Para os sistemas de IA generativa, monitorize as alterações na qualidade do resultado e na conformidade com a segurança.
Automatize o ciclo de vida do desenvolvimento de modelos
A automatização ajuda a simplificar todas as fases do ciclo de vida da IA e da AA. A automatização reduz o esforço manual e padroniza os processos, o que leva a uma eficiência operacional melhorada e a um menor risco de erros. Os fluxos de trabalho automatizados permitem uma iteração mais rápida, uma implementação consistente em todos os ambientes e resultados mais fiáveis, para que os seus sistemas possam ser dimensionados e adaptados sem problemas.
Para automatizar o ciclo de vida de desenvolvimento dos seus sistemas de IA e AA, considere as seguintes recomendações.
Use um sistema de orquestração de pipelines gerido
Use os pipelines da Vertex AI para automatizar cada passo do ciclo de vida da aprendizagem automática, desde a preparação de dados à preparação, avaliação e implementação de modelos. Para acelerar a implementação e promover a consistência entre projetos, automatize tarefas recorrentes com execuções de pipelines agendadas, monitorize fluxos de trabalho com métricas de execução e desenvolva modelos de pipelines reutilizáveis para fluxos de trabalho padronizados. Estas capacidades estendem-se aos modelos de IA generativa, que requerem frequentemente passos especializados, como a engenharia de comandos, a filtragem de respostas e a avaliação human-in-the-loop. Para a IA generativa, os Vertex AI Pipelines podem automatizar estes passos, incluindo a avaliação dos resultados gerados em função das métricas de qualidade e das diretrizes de segurança. Para melhorar a diversidade dos comandos e a robustez do modelo, os fluxos de trabalho automatizados também podem incluir técnicas de aumento de dados.
Implemente pipelines de CI/CD
Para automatizar a criação, o teste e a implementação de modelos de AA, use o Cloud Build. Este serviço é particularmente eficaz quando executa conjuntos de testes para o código da aplicação, o que garante que a infraestrutura, as dependências e a preparação de modelos cumprem os seus requisitos de implementação.
Os sistemas de ML requerem frequentemente passos adicionais além dos testes de código. Por exemplo, tem de testar a resistência dos modelos sob cargas variáveis, fazer avaliações em massa para avaliar o desempenho do modelo em diversos conjuntos de dados e validar a integridade dos dados antes de voltar a preparar. Para simular cargas de trabalho realistas para testes de esforço, pode usar ferramentas como Locust, Grafana k6 ou Apache JMeter. Para identificar gargalos, monitorize as principais métricas, como a latência, a taxa de erros e a utilização de recursos através do Cloud Monitoring. Para a IA generativa, os testes também têm de incluir avaliações específicas do tipo de conteúdo gerado, como a qualidade do texto, a fidelidade da imagem ou a funcionalidade do código. Estas avaliações podem envolver métricas automatizadas, como a perplexidade para modelos de linguagem ou a avaliação humana para aspetos mais complexos como a criatividade e a segurança.
Para implementar tarefas de testes e avaliação, pode integrar o Cloud Build com outros Google Cloud serviços. Por exemplo, pode usar os Vertex AI Pipelines para a avaliação automatizada de modelos, o BigQuery para a análise de dados em grande escala e a validação de pipelines do Dataflow para a validação de caraterísticas.
Pode melhorar ainda mais o seu pipeline de CI/CD usando o Vertex AI para formação contínua para ativar a reciclagem automática de modelos em novos dados. Especificamente para a IA generativa, para manter os resultados gerados relevantes e diversificados, a reciclagem pode envolver a atualização automática dos modelos com novos dados ou comandos de preparação. Pode usar o Vertex AI Model Garden para selecionar os modelos de base mais recentes que estão disponíveis para otimização. Esta prática garante que os modelos permanecem atualizados e otimizados para as necessidades da sua empresa em constante evolução.
Implemente lançamentos de modelos seguros e controlados
Para minimizar os riscos e garantir implementações fiáveis, implemente uma abordagem de lançamento de modelos que lhe permita detetar problemas antecipadamente, validar o desempenho e reverter rapidamente quando necessário.
Para criar pacotes dos seus modelos e aplicações de AA em imagens de contentores e implementá-los, use o Cloud Deploy. Pode implementar os seus modelos em pontos finais da Vertex AI.
Implemente lançamentos controlados para as suas aplicações e sistemas de IA através de estratégias como os lançamentos canary. Para aplicações que usam modelos geridos, como o Gemini, recomendamos que lance gradualmente novas versões da aplicação para um subconjunto de utilizadores antes da implementação completa. Esta abordagem permite-lhe detetar potenciais problemas antecipadamente, especialmente quando usa modelos de IA generativa em que os resultados podem variar.
Para lançar modelos ajustados, pode usar o Cloud Deploy para gerir a implementação das versões do modelo e usar a estratégia de lançamento canário para minimizar o risco. Com os modelos geridos e os modelos otimizados, o objetivo dos lançamentos controlados é testar alterações com um público-alvo limitado antes de lançar as aplicações e os modelos para todos os utilizadores.
Para uma validação robusta, use as experiências do Vertex AI para comparar novos modelos com os existentes e use a avaliação de modelos do Vertex AI para avaliar o desempenho do modelo. Especificamente para a IA generativa, defina métricas de avaliação que se alinhem com o exemplo de utilização pretendido e os potenciais riscos. Pode usar o serviço de avaliação de IA gen no Vertex AI para avaliar métricas como toxicidade, coerência, precisão factual e conformidade com as diretrizes de segurança.
Para garantir a fiabilidade da implementação, precisa de um plano de reversão robusto. Para sistemas de ML tradicionais, use o Vertex AI Model Monitoring para detetar a variação dos dados e a degradação do desempenho. Para modelos de IA generativa, pode acompanhar métricas relevantes e configurar alertas para alterações na qualidade do resultado ou o surgimento de conteúdo prejudicial através da avaliação de modelos do Vertex AI, juntamente com o Cloud Logging e o Cloud Monitoring. Configure alertas com base em métricas específicas da IA generativa para acionar procedimentos de reversão quando necessário. Para acompanhar a linhagem do modelo e reverter para a versão estável mais recente, use as estatísticas do Registo de modelos da Vertex AI.
Implemente a observabilidade
O comportamento dos sistemas de IA e AA pode mudar ao longo do tempo devido a alterações nos dados ou no ambiente e a atualizações dos modelos. Esta natureza dinâmica torna a observabilidade crucial para detetar problemas de desempenho, parcialidades ou comportamento inesperado. Isto é especialmente verdade para os modelos de IA generativa, uma vez que os resultados podem ser altamente variáveis e subjetivos. A observabilidade permite-lhe abordar proativamente o comportamento inesperado e garantir que os seus sistemas de IA e ML permanecem fiáveis, precisos e justos.
Para implementar a observabilidade dos seus sistemas de IA e ML, considere as seguintes recomendações.
Monitorize o desempenho de forma contínua
Use métricas e critérios de sucesso para a avaliação contínua dos modelos após a implementação.
Pode usar o Vertex AI Model Monitoring para monitorizar proativamente o desempenho do modelo, identificar a discrepância entre a preparação e a apresentação, bem como a deriva de previsão, e receber alertas para acionar a nova preparação do modelo necessária ou outras intervenções. Para monitorizar eficazmente a discrepância entre a preparação e a publicação, crie um conjunto de dados de referência que represente a distribuição de dados ideal e use o TFDV para analisar os dados de preparação e estabelecer um esquema de base.
Configure a monitorização de modelos para comparar a distribuição dos dados de entrada com o conjunto de dados de referência para a deteção automática de desvios. Para os modelos de ML tradicionais, concentre-se nas métricas, como a precisão, a revocação, a pontuação F1, a AUC-ROC e a perda logarítmica. Defina limites personalizados para alertas na monitorização de modelos. Para a IA generativa, use o serviço de avaliação de IA gen para monitorizar continuamente o resultado do modelo em produção. Também pode ativar métricas de avaliação automáticas para a qualidade da resposta, a segurança, a conformidade com as instruções, a fundamentação, o estilo de escrita e a verbosidade. Para avaliar a qualidade, a relevância, a segurança e a conformidade com as diretrizes dos resultados gerados, pode incorporar a avaliação human-in-the-loop.
Crie ciclos de feedback para voltar a preparar automaticamente os modelos com os pipelines do Vertex AI quando a monitorização de modelos aciona um alerta. Use estas estatísticas para melhorar continuamente os seus modelos.
Avalie modelos durante o desenvolvimento
Antes de implementar os seus MDIs e outros modelos de IA generativa, avalie-os exaustivamente durante a fase de desenvolvimento. Use a avaliação de modelos da Vertex AI para alcançar um desempenho ideal e mitigar o risco. Use a avaliação rápida da Vertex AI para permitir que as avaliações sejam executadas automaticamente com base no conjunto de dados e nos comandos que fornecer. Google Cloud
Também pode definir e integrar métricas personalizadas específicas do seu exemplo de utilização. Para feedback sobre conteúdo gerado, integre fluxos de trabalho com intervenção humana através da avaliação de modelos do Vertex AI.
Use testes adversariais para identificar vulnerabilidades e potenciais modos de falha. Para identificar e mitigar potenciais parcialidades, use técnicas como a análise de subgrupos e a geração contrafactual. Use as estatísticas recolhidas das avaliações que foram concluídas durante a fase de desenvolvimento para definir a sua estratégia de monitorização de modelos em produção. Prepare a sua solução para a monitorização contínua, conforme descrito na secção Monitorize o desempenho de forma contínua deste documento.
Monitorize a disponibilidade
Para obter visibilidade do estado e do desempenho dos seus pontos finais implementados e infraestrutura, use o Cloud Monitoring. Para os seus pontos finais da Vertex AI, acompanhe as principais métricas, como a taxa de pedidos, a taxa de erros, a latência e a utilização de recursos, e configure alertas para anomalias. Para mais informações, consulte o artigo Métricas do Cloud Monitoring para a Vertex AI.
Monitorizar o estado da infraestrutura subjacente, que pode incluir instâncias do Compute Engine, clusters do Google Kubernetes Engine (GKE) e TPUs e GPUs. Receba recomendações de otimização automatizadas do Active Assist. Se usar o dimensionamento automático, monitorize o comportamento de dimensionamento para garantir que o dimensionamento automático responde adequadamente às alterações nos padrões de tráfego.
Acompanhe o estado das implementações de modelos, incluindo lançamentos de testes e reversões, através da integração do Cloud Deploy com o Cloud Monitoring. Além disso, monitorize potenciais ameaças e vulnerabilidades de segurança através do Security Command Center.
Configure alertas personalizados para limites específicos da empresa
Para uma identificação e retificação atempadas de anomalias e problemas, configure alertas personalizados com base em limites específicos dos seus objetivos de negócio. Seguem-se alguns exemplos de Google Cloud produtos que pode usar para implementar um sistema de alertas personalizado:
- Cloud Logging: Recolha, armazene e analise registos de todos os componentes do seu sistema de IA e AA.
- Cloud Monitoring: crie painéis de controlo personalizados para visualizar as principais métricas e tendências, e defina métricas personalizadas com base nas suas necessidades. Configure alertas para receber notificações sobre problemas críticos e integre os alertas com as suas ferramentas de gestão de incidentes, como o PagerDuty ou o Slack.
- Relatórios de erros: capture e analise automaticamente erros e exceções.
- Cloud Trace: analise o desempenho dos sistemas distribuídos e identifique gargalos. O rastreio é particularmente útil para compreender a latência entre diferentes componentes do seu pipeline de IA e AA.
- Cloud Profiler: Analise continuamente o desempenho do seu código em produção e identifique gargalos de desempenho na utilização da CPU ou da memória.
Crie uma cultura de excelência operacional
Mudar o foco da simples criação de modelos para a criação de soluções de IA sustentáveis, fiáveis e com impacto. Capacitar as equipas para aprenderem, inovarem e melhorarem continuamente, o que leva a ciclos de desenvolvimento mais rápidos, erros reduzidos e maior eficiência. Ao dar prioridade à automatização, à padronização e às considerações éticas, pode garantir que as suas iniciativas de IA e ML oferecem valor de forma consistente, mitigam riscos e promovem o desenvolvimento responsável de IA.
Para criar uma cultura de excelência operacional para os seus sistemas de IA e ML, considere as seguintes recomendações.
Promova a automatização e a padronização
Para enfatizar a eficiência e a consistência, incorpore a automatização e as práticas padronizadas em todas as fases do ciclo de vida da IA e da AA. A automatização reduz os erros manuais e permite que as equipas se foquem na inovação. A padronização garante que os processos são repetíveis e escaláveis em várias equipas e projetos.
Priorize a aprendizagem e a melhoria contínuas
Promova um ambiente em que a educação e a experimentação contínuas sejam princípios fundamentais. Incentive as equipas a manterem-se atualizadas com os avanços da IA e da ML, e ofereça oportunidades de aprendizagem com base em projetos anteriores. Uma cultura de curiosidade e adaptação impulsiona a inovação e garante que as equipas estão preparadas para enfrentar novos desafios.
Cultive a responsabilidade e a propriedade
Crie confiança e alinhamento com funções, responsabilidades e métricas de sucesso claramente definidas. Permitir que as equipas tomem decisões informadas dentro destes limites e estabelecer formas transparentes de medir o progresso. Um sentimento de propriedade motiva as equipas e garante a responsabilidade coletiva pelos resultados.
Incorporar considerações de segurança e ética da IA
Priorizar as considerações éticas em todas as fases de desenvolvimento. Incentive as equipas a pensar criticamente sobre o impacto das respetivas soluções de IA e promova debates sobre a equidade, a parcialidade e o impacto social. Os princípios claros e os mecanismos de responsabilidade garantem que os seus sistemas de IA estão alinhados com os valores organizacionais e promovem a confiança.
Crie em função da escalabilidade
Para dar resposta aos volumes de dados e às exigências dos utilizadores em crescimento, e para maximizar o valor dos investimentos em IA, os seus sistemas de IA e ML têm de ser escaláveis. Os sistemas têm de se adaptar e ter um desempenho ideal para evitar gargalos de desempenho que prejudiquem a eficácia. Quando cria em função da escalabilidade, garante que a infraestrutura de IA consegue lidar com o crescimento e manter a capacidade de resposta. Use uma infraestrutura escalável, planeie a capacidade e use estratégias como o dimensionamento horizontal e os serviços geridos.
Para criar os seus sistemas de IA e ML em função da escalabilidade, considere as seguintes recomendações.
Planeie a capacidade e as quotas
Avalie o crescimento futuro e planeie a capacidade da infraestrutura e as quotas de recursos em conformidade. Trabalhe com as partes interessadas da empresa para compreender o crescimento projetado e, em seguida, defina os requisitos de infraestrutura em conformidade.
Use o Cloud Monitoring para analisar a utilização de recursos do histórico, identificar tendências e projetar necessidades futuras. Realize testes de carga regulares para simular cargas de trabalho e identificar gargalos.
Familiarize-se com as Google Cloud quotas dos serviços que usa, como o Compute Engine, o Vertex AI e o Cloud Storage. Peça proativamente aumentos de quota através da Google Cloud consola e justifique os aumentos com dados da previsão e dos testes de carga. Monitorize a utilização da quota e configure alertas para receber notificações quando a utilização se aproximar dos limites da quota.
Para otimizar a utilização de recursos com base na procura, ajuste o tamanho dos recursos, use VMs do Spot para cargas de trabalho em lote com tolerância a falhas e implemente a escala automática.
Prepare-se para eventos de pico
Certifique-se de que o seu sistema consegue processar picos súbitos de tráfego ou carga de trabalho durante eventos de pico. Documente a sua estratégia de eventos de pico e faça testes regulares para testar a capacidade do seu sistema de processar o aumento da carga.
Para aumentar agressivamente a escala dos recursos quando a procura aumenta, configure políticas de escala automática no Compute Engine e no GKE. Para padrões de picos previsíveis, pondere usar a escala automática preditiva. Para acionar o dimensionamento automático com base em sinais específicos da aplicação, use métricas personalizadas no Cloud Monitoring.
Distribua o tráfego por várias instâncias de aplicações através do Cloud Load Balancing. Escolha um tipo de balanceador de carga adequado com base nas necessidades da sua aplicação. Para utilizadores distribuídos geograficamente, pode usar o balanceamento de carga global para encaminhar o tráfego para a instância disponível mais próxima. Para arquiteturas complexas baseadas em microsserviços, considere usar a Cloud Service Mesh.
Coloque conteúdo estático em cache no limite da rede da Google através do Cloud CDN. Para colocar em cache dados acedidos com frequência, pode usar o Memorystore, que oferece um serviço na memória totalmente gerido para Redis, Valkey ou Memcached.
Desassocie os componentes do seu sistema através do Pub/Sub para mensagens em tempo real e do Cloud Tasks para execução de tarefas assíncronas
Dimensione as aplicações para produção
Para garantir a apresentação escalável em produção, pode usar serviços geridos como a preparação distribuída do Vertex AI e a inferência do Vertex AI. A Vertex AI Inference permite-lhe configurar os tipos de máquinas para os seus nós de previsão quando implementa um modelo num ponto final ou pede previsões em lote. Para algumas configurações, pode adicionar GPUs. Escolha o tipo de máquina e os aceleradores adequados para otimizar a latência, o débito e o custo.
Para dimensionar aplicações de IA e Python complexas, bem como cargas de trabalho personalizadas, em recursos de computação distribuídos, pode usar o Ray no Vertex AI. Esta funcionalidade pode ajudar a otimizar o desempenho e permite uma integração perfeita com os Google Cloud serviços. O Ray na Vertex AI simplifica a computação distribuída ao processar a gestão de clusters, o agendamento de tarefas e a transferência de dados. Integra-se com outros serviços do Vertex AI, como preparação, previsão e pipelines. O Ray oferece tolerância a falhas e escalabilidade automática, e ajuda a adaptar a infraestrutura a cargas de trabalho em constante mudança. Oferece uma estrutura unificada para preparação distribuída, ajuste de hiperparâmetros, aprendizagem por reforço e publicação de modelos. Use o Ray para pré-processamento de dados distribuídos com o Dataflow ou o Dataproc, preparação de modelos acelerada, otimização de hiperparâmetros escalável, aprendizagem por reforço e previsão em lote paralelizada.
Colaboradores
Autores:
- Charlotte Gistelinck, PhD | Partner Engineer
- Sannya Dang | Arquiteta de soluções de IA
- Filipe Gracio, PhD | Engenheiro de clientes, especialista em IA/AA
Outros colaboradores:
- Gary Harmson | Principal Architect
- Kumar Dhanagopal | Cross-Product Solution Developer
- Marwan Al Shawi | Partner Customer Engineer
- Ryan Cox | Principal Architect
- Stef Ruinard | Generative AI Field Solutions Architect