Google Cloud incorpora innovaciones desarrolladas y probadas por Google DeepMind en nuestra plataforma de IA preparada para empresas, de modo que los clientes puedan comenzar a utilizarlas para compilar y entregar capacidades de IA generativa hoy mismo, no en el futuro.
Los clientes nuevos obtienen $300 en créditos gratuitos que pueden usar en Vertex AI.
Descripción general
Un modelo de lenguaje extenso (LLM) es un modelo estadístico de lenguaje, entrenado con una gran cantidad de datos, que se puede usar para generar y traducir texto y otros contenidos, así como realizar otras tareas de procesamiento de lenguaje natural (PLN).
Por lo general, los LLM se basan en arquitecturas de aprendizaje profundo, como Transformer, desarrollado por Google en 2017, y se pueden entrenar con miles de millones de textos y otros tipos de contenido.
Vertex AI ofrece acceso a Gemini, un modelo multimodal de DeepMind de Google. Gemini es capaz de comprender de forma virtual prácticamente cualquier entrada, combinar diferentes tipos de información y generar casi cualquier resultado. Envía instrucciones a Vertex AI con Gemini y haz pruebas en ella usando texto, imágenes, video o código. Con el razonamiento avanzado y las capacidades de generación de vanguardia de Gemini, los desarrolladores pueden probar instrucciones de muestra para extraer texto de imágenes, convertir texto de imágenes a JSON y hasta generar respuestas sobre las imágenes subidas para compilar aplicaciones de IA de nueva generación.
Los LLM basados en texto se usan para varias tareas de procesamiento de lenguaje natural, incluidas la generación de texto, la traducción automática, el resumen de textos, la respuesta de preguntas y la creación de chatbots que puedan mantener conversaciones con personas.
Los LLM también se pueden entrenar con otros tipos de datos, como código, imágenes, audio y video, entre otros. Codey, Imagen y Chirp de Google son ejemplos de modelos que generarán nuevas aplicaciones y ayudarán a crear soluciones para los problemas más desafiantes del mundo.
IA generativa de Vertex AI: Te brinda acceso a los grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos e implementarlos para su uso en tus aplicaciones con tecnología de IA.
Vertex AI Agent Builder: Aplicaciones de búsqueda empresarial y de chatbots con flujos de trabajo compilados previamente para tareas comunes, como la integración, la transferencia de datos y la personalización.
Contact Center AI (CCAI) : Solución de centro de contacto inteligente que incluye Dialogflow, nuestra plataforma de IA conversacional con capacidades basadas en intents y de LLM.
Cómo funciona
Los LLM usan una gran cantidad de datos de texto para entrenar una red neuronal. Luego, esta red neuronal se utiliza para generar texto, traducirlo o realizar otras tareas. Cuantos más datos se usen para entrenar la red neuronal, mejor y más precisa será en la tarea de realizarla.
Google Cloud desarrolló productos basados en sus tecnologías de LLM, que satisfacen una amplia variedad de casos de uso que puedes explorar en la sección Usos comunes que aparece a continuación.
Usos comunes
Vertex AI Agents facilita la creación de chatbots similares a los humanos y con sonido natural. El agente de IA generativa es una función de Vertex AI Agents, que se basa en la funcionalidad de Dialogflow CX.
Con esta función, puedes proporcionar una URL de sitio web o cualquier cantidad de documentos para que el Agente de IA generativa analice tu contenido y cree un agente virtual potenciado por almacenes de datos y LLM.
Vertex AI Agents facilita la creación de chatbots similares a los humanos y con sonido natural. El agente de IA generativa es una función de Vertex AI Agents, que se basa en la funcionalidad de Dialogflow CX.
Con esta función, puedes proporcionar una URL de sitio web o cualquier cantidad de documentos para que el Agente de IA generativa analice tu contenido y cree un agente virtual potenciado por almacenes de datos y LLM.
Extrae y resume información valiosa de documentos complejos, como formularios 10-K, informes de investigación, servicios de noticias de terceros y, también, informes financieros, con un solo clic. Mira cómo Enterprise Search usa el lenguaje natural para comprender las consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demostración de la derecha.
La solución usa Vertex AI Agent Builder como componente principal. Con Vertex AI Agent Builder, incluso los desarrolladores novatos pueden compilar e implementar rápidamente chatbots y aplicaciones de búsqueda en minutos.
Extrae y resume información valiosa de documentos complejos, como formularios 10-K, informes de investigación, servicios de noticias de terceros y, también, informes financieros, con un solo clic. Mira cómo Enterprise Search usa el lenguaje natural para comprender las consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demostración de la derecha.
La solución usa Vertex AI Agent Builder como componente principal. Con Vertex AI Agent Builder, incluso los desarrolladores novatos pueden compilar e implementar rápidamente chatbots y aplicaciones de búsqueda en minutos.
Con Generative AI Document Summarization, implementa una solución de un solo clic que ayuda a detectar texto en archivos sin procesar y automatizar los resúmenes de documentos. La solución establece una canalización que usareconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crea un resumen a partir del texto extraído con Vertex AI y almacena el resumen que se puede buscar en una base de datos de BigQuery.
Con Generative AI Document Summarization, implementa una solución de un solo clic que ayuda a detectar texto en archivos sin procesar y automatizar los resúmenes de documentos. La solución establece una canalización que usareconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crea un resumen a partir del texto extraído con Vertex AI y almacena el resumen que se puede buscar en una base de datos de BigQuery.
Con las tecnologías de IA, como el procesamiento de lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, Contact Center AI Platform ofrece una solución de centro de contacto como servicio (CCaaS) que ayuda a crear un centro de contacto desde cero. También tiene herramientas individuales que se enfocan en aspectos específicos de un centro de contacto, por ejemplo: Dialogflow CX para crear un chatbot,Agent Assist para obtener asistencia en tiempo real para agentes humanos y CCAI Insights para identificar las opiniones y los impulsores de las llamadas.
Con las tecnologías de IA, como el procesamiento de lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, Contact Center AI Platform ofrece una solución de centro de contacto como servicio (CCaaS) que ayuda a crear un centro de contacto desde cero. También tiene herramientas individuales que se enfocan en aspectos específicos de un centro de contacto, por ejemplo: Dialogflow CX para crear un chatbot,Agent Assist para obtener asistencia en tiempo real para agentes humanos y CCAI Insights para identificar las opiniones y los impulsores de las llamadas.
Las Cloud TPU son las supercomputadoras a escala de almacén de Google para el aprendizaje automático. Están optimizadas para ofrecer rendimiento y escalabilidad, a la vez que minimizan el costo total de propiedad y son ideales para entrenar LLM y modelos de IA generativa.
Con los tiempos de entrenamiento más rápidos en cinco comparativas de MLPerf 2.0, los pods de Cloud TPU v4 son la generación más reciente de aceleradores, que forman el centro de AA disponible de forma pública más grande del mundo, con hasta 9 exaflops de rendimiento máximo agregado.
Las Cloud TPU son las supercomputadoras a escala de almacén de Google para el aprendizaje automático. Están optimizadas para ofrecer rendimiento y escalabilidad, a la vez que minimizan el costo total de propiedad y son ideales para entrenar LLM y modelos de IA generativa.
Con los tiempos de entrenamiento más rápidos en cinco comparativas de MLPerf 2.0, los pods de Cloud TPU v4 son la generación más reciente de aceleradores, que forman el centro de AA disponible de forma pública más grande del mundo, con hasta 9 exaflops de rendimiento máximo agregado.