Google Cloud bietet eine Reihe an Produkten und Tools für den gesamten Lebenszyklus der Entwicklung generativer KI-Anwendungen.

Informationen zum Erstellen von Anwendungen mit generativer KI

Generative AI in Vertex AI

Sie können auf die großen generativen KI-Modelle von Google zugreifen, um die Modelle zu testen, zu optimieren und für den Einsatz in Ihren KI-gestützten Anwendungen bereitzustellen.

Gemini-Schnellstart

Hier erfahren Sie, wie Sie über die KI-ML-Plattform Vertex AI von Google Cloud Anfragen an die Gemini API senden.

Infrastruktur für Ihre generative KI-Anwendung auswählen

Wählen Sie die besten Produkte und Tools für Ihren Anwendungsfall aus und greifen Sie auf die Dokumentation zu, die Sie für den Einstieg benötigen.

Wann sollte generative KI verwendet werden?

Ermitteln Sie, ob generative KI, herkömmliche KI oder eine Kombination aus beiden zu Ihrem geschäftlichen Anwendungsfall passen könnte.

Generative KI-Anwendung entwickeln

Hier erfahren Sie, wie Sie die Herausforderungen in jeder Phase der Entwicklung einer Anwendung für generative KI bewältigen.

Codebeispiele und Beispielanwendungen

Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.

Explorative Datenanalyse und Hosting des Modells

Google Cloud bietet eine Reihe hochmoderner Foundation Models über Vertex AI, einschließlich Gemini. Sie können ein Drittanbietermodell auch in Vertex AI Model Garden oder Self-Hosting in GKE, Cloud Run oder Compute Engine bereitstellen.

Google-Modelle in Vertex AI (Gemini, Imagen)

ML-Modellbibliothek, mit der Sie Google-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Andere Modelle im Vertex AI Model Garden

ML-Modellbibliothek, mit der Sie ausgewählte OSS-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Textgenerierungsmodelle über Hugging Face

Informationen zum Bereitstellen von HuggingFace-Modellen für die Textgenerierung in Vertex AI oder Google Kubernetes Engine (GKE)

KI‑/ML-Orchestrierung in der GKE

GKE orchestriert KI-/ML-Arbeitslasten effizient und unterstützt GPUs und TPUs für skalierbares Training und Bereitstellen generativer KI.

GPUs in Compute Engine

Hängen Sie GPUs an VM-Instanzen an, um Arbeitslasten für generative KI in der Compute Engine zu beschleunigen.

Prompt-Design und -Engineering

Beim Prompt-Design werden Prompt- und Antwortpaare erstellt, um Sprachmodellen zusätzlichen Kontext und Anweisungen zu geben. Nachdem Sie Prompts erstellt haben, geben Sie diese als Prompt-Dataset zum Vortraining an das Modell. Wenn ein Modell Vorhersagen liefert, antwortet es mit Ihren integrierten Anweisungen.

Vertex AI Studio

Entwerfen, testen und passen Sie Ihre an Gemini 2 und PaLM 2-Large Language Models (LLM) von Google gesendeten Prompts an.

Übersicht über Prompt-Strategien

Informationen zum Workflow für die Prompt-Erstellung und zu gängigen Strategien, mit denen Sie die Modellantworten beeinflussen können.
Beispielprompts und ‑antworten für bestimmte Anwendungsfälle ansehen

Erdung und RAG

Bei der Fundierung werden KI-Modelle mit Datenquellen verbunden, um die Genauigkeit der Antworten zu verbessern und Halluzinationen zu reduzieren. Bei der RAG, einer gängigen Methode zur Fundierung, wird nach relevanten Informationen gesucht und diese dem Prompt des Modells hinzugefügt. So wird sichergestellt, dass die Ausgabe auf Fakten und aktuellen Informationen basiert.

Vertex AI-Fundierung

Sie können Vertex AI-Modelle mit der Google Suche oder mit Ihren eigenen Daten fundieren, die in Vertex AI Search gespeichert sind.
Verwenden Sie die Funktion „Mit der Google Suche fundieren“, um das Modell mit dem aktuellen Wissen im Internet zu verknüpfen.

Vektoreinbettungen in AlloyDB

Verwenden Sie AlloyDB, um Vektoreinbettungen zu generieren und zu speichern, und indexieren und fragen Sie die Einbettungen dann mit der pgvector-Erweiterung ab.

Cloud SQL und pgvector

Speichern Sie Vektoreinbettungen in Postgres SQL und indexieren und fragen Sie sie dann mit der pgvector-Erweiterung ab.

BigQuery-Daten in Ihre LangChain-Anwendung einbinden

Verwenden Sie LangChain, um Daten aus BigQuery zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.

Vektoreinbettungen in Firestore

Erstellen Sie Vektoreinbettungen aus Ihren Firestore-Daten und indexieren und fragen Sie die Einbettungen dann ab.

Vektoreinbettungen in Memorystore (Redis)

Verwenden Sie LangChain, um Daten aus Memorystore zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.

Kundenservicemitarbeiter und Funktionsaufrufe

Mithilfe von Agents können Sie ganz einfach eine dialogorientierte Benutzeroberfläche entwerfen und in Ihre mobile App einbinden. Funktionsaufrufe erweitern die Funktionen eines Modells.

Vertex AI Agent Builder

Nutzen Sie die Foundation Models, die Suchexpertise und die Technologien für konversationelle KI von Google für generative KI-Anwendungen in Unternehmen.

Vertex AI-Funktionsaufruf

Fügen Sie Ihrem Modell Funktionsaufrufe hinzu, um Aktionen wie die Buchung einer Reservierung basierend auf extrahierten Kalenderinformationen zu ermöglichen.

Modellanpassung und -training

Spezialisierte Aufgaben, wie das Trainieren eines Sprachmodells mit einer bestimmten Terminologie, erfordern möglicherweise mehr Training, als allein mit dem Prompt-Design oder einer Fundierung möglich ist. In diesem Fall können Sie die Modellabstimmung verwenden, um die Leistung zu verbessern, oder ein eigenes Modell trainieren.

Modelle in Vertex AI bewerten

Bewerten Sie die Leistung von Foundation Models und Ihre abgestimmten generativen KI-Modelle auf Vertex AI.

Vertex AI-Modelle abstimmen

Foundation Models für allgemeine Zwecke können durch eine Abstimmung ihre Leistung bei bestimmten Aufgaben verbessern.

Cloud TPU

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen, z. B. das Training eines LLM.

Gleich mit dem Erstellen loslegen

LangChain ist ein Open-Source-Framework für generative KI-Anwendungen, mit dem Sie Kontext in Ihre Prompts integrieren und basierend auf der Antwort des Modells Maßnahmen ergreifen können.
Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.