Google Cloud bietet eine Reihe an Produkten und Tools für den gesamten Lebenszyklus der Entwicklung generativer KI-Anwendungen.

Informationen zum Erstellen von Anwendungen mit generativer KI

Generative AI in Vertex AI

Sie können auf die großen generativen KI-Modelle von Google zugreifen, um die Modelle zu testen, zu optimieren und für den Einsatz in Ihren KI-gestützten Anwendungen bereitzustellen.

Gemini-Schnellstart

Hier erfahren Sie, wie Sie über die KI-ML-Plattform Vertex AI von Google Cloud Anfragen an die Gemini API senden.

Infrastruktur für Ihre generative KI-Anwendung auswählen

Wählen Sie die besten Produkte und Tools für Ihren Anwendungsfall aus und greifen Sie auf die Dokumentation zu, die Sie für den Einstieg benötigen.

Explorative Datenanalyse und Hosting des Modells

Google Cloud bietet eine Reihe hochmoderner Foundation Models über Vertex AI, einschließlich Gemini. Sie können ein Drittanbietermodell auch in Vertex AI Model Garden oder Self-Hosting in GKE, Cloud Run oder Compute Engine bereitstellen.

Google-Modelle in Vertex AI (Gemini, Imagen)

ML-Modellbibliothek, mit der Sie Google-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Andere Modelle im Vertex AI Model Garden

ML-Modellbibliothek, mit der Sie ausgewählte OSS-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Textgenerierungsmodelle über Hugging Face

Informationen zum Bereitstellen von HuggingFace-Modellen für die Textgenerierung in Vertex AI oder Google Kubernetes Engine (GKE)

Prompt-Design und -Engineering

Beim Prompt-Design werden Prompt- und Antwortpaare erstellt, um Sprachmodellen zusätzlichen Kontext und Anweisungen zu geben. Nachdem Sie Prompts erstellt haben, geben Sie diese als Prompt-Dataset zum Vortraining an das Modell. Wenn ein Modell Vorhersagen liefert, antwortet es mit Ihren integrierten Anweisungen.

Vertex AI Studio

Entwerfen, testen und passen Sie Ihre an Gemini 2 und PaLM 2-Large Language Models (LLM) von Google gesendeten Prompts an.

Übersicht über Prompt-Strategien

Informationen zum Workflow für die Prompt-Erstellung und zu gängigen Strategien, mit denen Sie die Modellantworten beeinflussen können.
Beispielprompts und ‑antworten für bestimmte Anwendungsfälle ansehen

Erdung und RAG

Bei der Fundierung werden KI-Modelle mit Datenquellen verbunden, um die Genauigkeit der Antworten zu verbessern und Halluzinationen zu reduzieren. Bei der RAG, einer gängigen Methode zur Fundierung, wird nach relevanten Informationen gesucht und diese dem Prompt des Modells hinzugefügt. So wird sichergestellt, dass die Ausgabe auf Fakten und aktuellen Informationen basiert.

Vertex AI-Fundierung

Sie können Vertex AI-Modelle mit der Google Suche oder mit Ihren eigenen Daten fundieren, die in Vertex AI Search gespeichert sind.
Verwenden Sie die Funktion „Mit der Google Suche fundieren“, um das Modell mit dem aktuellen Wissen im Internet zu verknüpfen.

Vektoreinbettungen in AlloyDB

Verwenden Sie AlloyDB, um Vektoreinbettungen zu generieren und zu speichern, und indexieren und fragen Sie die Einbettungen dann mit der pgvector-Erweiterung ab.

Kundenservicemitarbeiter und Funktionsaufrufe

Mithilfe von Agents können Sie ganz einfach eine dialogorientierte Benutzeroberfläche entwerfen und in Ihre mobile App einbinden. Funktionsaufrufe erweitern die Funktionen eines Modells.

Vertex AI Agent Builder

Nutzen Sie die Foundation Models, die Suchexpertise und die Technologien für konversationelle KI von Google für generative KI-Anwendungen in Unternehmen.

Vertex AI-Funktionsaufruf

Fügen Sie Ihrem Modell Funktionsaufrufe hinzu, um Aktionen wie die Buchung einer Reservierung basierend auf extrahierten Kalenderinformationen zu ermöglichen.

Modellanpassung und -training

Spezialisierte Aufgaben, wie das Trainieren eines Sprachmodells mit einer bestimmten Terminologie, erfordern möglicherweise mehr Training, als allein mit dem Prompt-Design oder einer Fundierung möglich ist. In diesem Fall können Sie die Modellabstimmung verwenden, um die Leistung zu verbessern, oder ein eigenes Modell trainieren.

Modelle in Vertex AI bewerten

Bewerten Sie die Leistung von Foundation Models und Ihre abgestimmten generativen KI-Modelle auf Vertex AI.

Vertex AI-Modelle abstimmen

Foundation Models für allgemeine Zwecke können durch eine Abstimmung ihre Leistung bei bestimmten Aufgaben verbessern.

Cloud TPU

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen, z. B. das Training eines LLM.

Gleich mit dem Erstellen loslegen

LangChain ist ein Open-Source-Framework für generative KI-Anwendungen, mit dem Sie Kontext in Ihre Prompts integrieren und basierend auf der Antwort des Modells Maßnahmen ergreifen können.
Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.