Google Cloud bringt Innovationen, die von Google DeepMind entwickelt und getestet wurden, in unsere unternehmensgerechte KI-Plattform ein. Kunden können damit schon heute – und nicht erst morgen – Generative AI-Funktionen entwickeln und bereitstellen.
Neukunden erhalten ein Startguthaben von 300 $ für Vertex AI.
Überblick
Ein Large Language Model (LLM) ist ein statistisches Sprachmodell, das auf einer riesigen Datenmenge trainiert wird. Es kann verwendet werden, um Text und andere Inhalte zu generieren und zu übersetzen sowie andere Aufgaben zur Natural Language Processing (NLP) auszuführen.
LLMs basieren in der Regel auf Deep-Learning-Architekturen wie dem 2017 von Google entwickelten Transformer und können mit Milliarden von Text und anderen Inhalten trainiert werden.
Vertex AI bietet Zugriff auf Gemini, ein multimodales Modell von Google DeepMind. Gemini ist in der Lage, praktisch jede Eingabe zu verstehen, verschiedene Arten von Informationen zu kombinieren und fast jede Ausgabe zu generieren. Testen Sie Prompts in Vertex AI mit Gemini mit Text, Bildern, Video oder Code. Mit der fortschrittlichen Logik und den hochmodernen Funktionen von Gemini können Entwickler Beispiel-Prompts ausprobieren, um Text aus Bildern zu extrahieren, Bildtext in JSON zu konvertieren und sogar Antworten zu hochgeladenen Bildern zu generieren, um KI-Anwendungen der nächsten Generation zu entwickeln.
Textgesteuerte LLMs werden für eine Vielzahl von Natural Language Processing-Aufgaben verwendet, einschließlich Textgenerierung, maschinelle Übersetzung, Textzusammenfassung, Beantwortung von Fragen und Erstellung von Chatbots, die Unterhaltungen mit Menschen führen können.
LLMs können auch mit anderen Datentypen trainiert werden, darunter Code, Bilder, Audio, Video und mehr. Codey, Imagen und Chirp von Google sind Beispiele für solche Modelle, die neue Anwendungen und Lösungen für die größten Herausforderungen der Welt hervorbringen.
Generative AI in Vertex AI: Sie erhalten Zugriff auf die großen generativen KI-Modelle von Google, sodass Sie sie testen, optimieren und für die Verwendung in Ihren KI-gestützten Anwendungen bereitstellen können.
Vertex AI Agent Builder: Such- und Chatbot-Anwendungen für Unternehmen mit vordefinierten Workflows für gängige Aufgaben wie Onboarding, Datenaufnahme und Anpassung.
Contact Center AI (CCAI): Intelligente Contact Center-Lösung mit Dialogflow, unserer dialogorientierten KI-Plattform mit Intent- und LLM-Funktionen.
Funktionsweise
LLMs verwenden eine große Menge an Textdaten, um ein neuronales Netzwerk zu trainieren. Dieses neuronale Netzwerk wird dann verwendet, um Text zu generieren, zu übersetzen oder andere Aufgaben auszuführen. Je mehr Daten zum Trainieren des neuronalen Netzwerks verwendet werden, desto besser und genauer kann es seine Aufgabe ausführen.
Google Cloud hat Produkte auf Basis seiner LLM-Technologien entwickelt, die auf eine Vielzahl von Anwendungsfällen ausgelegt sind, die Sie im Abschnitt „Häufige Anwendungsfälle“ unten untersuchen können.
Gängige Einsatzmöglichkeiten
Vertex AI Agents ermöglicht die Erstellung natürlich klingender, menschenähnlicher Chatbots. Der Generative AI-Agent ist eine Funktion in Vertex AI Agents, die auf den Funktionen von Dialogflow CX basiert.
Mit dieser Funktion können Sie eine Website-URL und/oder eine beliebige Anzahl von Dokumenten angeben. Der Generative AI-Agent parst dann die Inhalte und erstellt einen virtuellen Agenten, der auf Datenspeichern und LLMs basiert.
Vertex AI Agents ermöglicht die Erstellung natürlich klingender, menschenähnlicher Chatbots. Der Generative AI-Agent ist eine Funktion in Vertex AI Agents, die auf den Funktionen von Dialogflow CX basiert.
Mit dieser Funktion können Sie eine Website-URL und/oder eine beliebige Anzahl von Dokumenten angeben. Der Generative AI-Agent parst dann die Inhalte und erstellt einen virtuellen Agenten, der auf Datenspeichern und LLMs basiert.
Extrahieren Sie wertvolle Informationen aus komplexen Dokumenten und lassen Sie diese mit nur einem Klick zusammenfassen. Mögliche Quellelemente sind 10-K-Formularen, Forschungsarbeiten, Nachrichtendienste Dritter und Finanzberichten. Sehen Sie sich in der Demo auf der rechten Seite an, wie Enterprise Search mit natürlicher Sprache semantische Suchanfragen versteht, zusammengefasste Antworten bietet und Anschlussfragen stellt.
Die Lösung verwendet Vertex AI Agent Builder als Kernkomponente. Mit Vertex AI Agent Builder können selbst Entwicklungsteams in der Anfangsphase in wenigen Minuten Chatbots und Suchanwendungen erstellen und bereitstellen.
Extrahieren Sie wertvolle Informationen aus komplexen Dokumenten und lassen Sie diese mit nur einem Klick zusammenfassen. Mögliche Quellelemente sind 10-K-Formularen, Forschungsarbeiten, Nachrichtendienste Dritter und Finanzberichten. Sehen Sie sich in der Demo auf der rechten Seite an, wie Enterprise Search mit natürlicher Sprache semantische Suchanfragen versteht, zusammengefasste Antworten bietet und Anschlussfragen stellt.
Die Lösung verwendet Vertex AI Agent Builder als Kernkomponente. Mit Vertex AI Agent Builder können selbst Entwicklungsteams in der Anfangsphase in wenigen Minuten Chatbots und Suchanwendungen erstellen und bereitstellen.
Stellen Sie mit Generative AI Document Summarization eine Ein-Klick-Lösung bereit, die Text in RAW-Dateien erkennt und Dokumentzusammenfassungen automatisiert. Die Lösung erstellt eine Pipeline, die die optische Zeichenerkennung (OCR) von Cloud Vision verwendet, um Text aus hochgeladenen PDF-Dokumenten in Cloud Storage zu extrahieren, mit Vertex AI Generative AI Studio eine Zusammenfassung aus dem extrahierten Text zu erstellen und die durchsuchbare Zusammenfassung in einer BigQuery-Datenbank zu speichern.
Stellen Sie mit Generative AI Document Summarization eine Ein-Klick-Lösung bereit, die Text in RAW-Dateien erkennt und Dokumentzusammenfassungen automatisiert. Die Lösung erstellt eine Pipeline, die die optische Zeichenerkennung (OCR) von Cloud Vision verwendet, um Text aus hochgeladenen PDF-Dokumenten in Cloud Storage zu extrahieren, mit Vertex AI Generative AI Studio eine Zusammenfassung aus dem extrahierten Text zu erstellen und die durchsuchbare Zusammenfassung in einer BigQuery-Datenbank zu speichern.
Contact Center AI Platform basiert auf AI-Technologien wie Natural Language Processing, Machine Learning sowie Text- und Spracherkennung und bietet eine CCaaS-Lösung (Contact Center as a Service), mit der ein neues Contact Center von Grund auf aufgebaut werden kann. Es verfügt auch über individuelle Tools, die auf bestimmte Aspekte eines Contact Centers ausgerichtet sind, z. B. Dialogflow CX zum Erstellen eines Chatbots, Agent Assist für Kontakt zu Kundenservicepersonal in Echtzeit und CCAI Insights zur Ermittlung von Gesprächsmotiven und Stimmung.
Contact Center AI Platform basiert auf AI-Technologien wie Natural Language Processing, Machine Learning sowie Text- und Spracherkennung und bietet eine CCaaS-Lösung (Contact Center as a Service), mit der ein neues Contact Center von Grund auf aufgebaut werden kann. Es verfügt auch über individuelle Tools, die auf bestimmte Aspekte eines Contact Centers ausgerichtet sind, z. B. Dialogflow CX zum Erstellen eines Chatbots, Agent Assist für Kontakt zu Kundenservicepersonal in Echtzeit und CCAI Insights zur Ermittlung von Gesprächsmotiven und Stimmung.
Cloud TPUs sind Warehouse-Supercomputer von Google für Machine Learning. Sie sind für Leistung und Skalierbarkeit optimiert, während gleichzeitig die Gesamtbetriebskosten minimiert werden, und eignen sich ideal zum Trainieren von LLMs und generativen KI-Modellen.
Mit den schnellsten Trainingszeiten von fünf MLPerf 2.0-Benchmarks sind Cloud TPU v4-Pods die neueste Generation von Beschleunigern, der weltweit größte öffentlich verfügbare ML-Hub mit bis zu 9 Exaflops in Spitzenleistung.
Cloud TPUs sind Warehouse-Supercomputer von Google für Machine Learning. Sie sind für Leistung und Skalierbarkeit optimiert, während gleichzeitig die Gesamtbetriebskosten minimiert werden, und eignen sich ideal zum Trainieren von LLMs und generativen KI-Modellen.
Mit den schnellsten Trainingszeiten von fünf MLPerf 2.0-Benchmarks sind Cloud TPU v4-Pods die neueste Generation von Beschleunigern, der weltweit größte öffentlich verfügbare ML-Hub mit bis zu 9 Exaflops in Spitzenleistung.