Modelle und Infrastruktur für Ihre generative KI-Anwendung auswählen 

Hier erfahren Sie, welche Produkte, Frameworks und Tools sich am besten für das Erstellen Ihrer generativen KI-Anwendung eignen. Die folgende Abbildung zeigt gängige Komponenten in einer in der Cloud gehosteten generativen KI-Anwendung.
Venn-Diagramm mit den Komponenten eines generativen KI-Systems Venn-Diagramm mit den Komponenten eines generativen KI-Systems
  1. Anwendungshosting: Compute zum Hosten Ihrer Anwendung. Ihre Anwendung kann die Clientbibliotheken und SDKs von Google Cloud verwenden, um mit verschiedenen Cloud-Produkten zu kommunizieren.

  2. Modellhosting: Skalierbares und sicheres Hosting für ein generatives Modell.

  3. Modell: Generatives Modell für Text, Chat, Bilder, Code, Einbettungen und multimodal.

  4. Fundierungslösung: Verankern Sie die Modellausgabe auf überprüfbare, aktualisierte Informationsquellen.

  5. Datenbank: Speichern Sie die Daten Ihrer Anwendung. Sie können Ihre vorhandene Datenbank als Fundierungslösung wiederverwenden, indem Sie Prompts über SQL-Abfrage erweitern und/oder Ihre Daten mit einer Erweiterung wie pgvector als Vektoreinbettungen speichern.

  6. Speicher: Speichern Sie Dateien wie Bilder, Videos oder statische Web-Front-Ends. Sie können den Speicher auch für die grundlegenden Fundierungsdaten verwenden (z. B. PDFs), die später in Einbettungen konvertiert und in einer Vektordatenbank gespeichert werden.

In den folgenden Abschnitten werden diese Komponenten beschrieben, damit Sie die richtigen Google Cloud-Produkte auswählen können.

Infrastruktur für das Anwendungshosting

Wählen Sie ein Produkt zum Hosten und Bereitstellen Ihrer Anwendungsarbeitslast aus, wodurch Aufrufe an das generative Modell gesendet werden.

Sie möchten eine verwaltete serverlose Infrastruktur?

Schließen
check
Cloud Run
Schließen

Kann Ihre Anwendung containerisiert werden?

Schließen
check
Kubernetes Engine
Schließen

Modellhostinginfrastruktur

Google Cloud bietet mehrere Möglichkeiten zum Hosten eines generativen Modells, von der Flagship-Vertex-AI-Plattform bis hin zu anpassbarem und portablem Hosting in Google Kubernetes Engine.

Sie verwenden Gemini und benötigen Unternehmensfunktionen wie Skalierung, Sicherheit, Datenschutz und Observability

check
Schließen
Gemini Developer API
check

Sie benötigen eine vollständig verwaltete Infrastruktur mit erstklassigen Tools und APIs für generative KI?

Schließen
check
Vertex AI
Schließen

Benötigt Ihr Modell einen speziellen Kernel, ein älteres Betriebssystem oder gelten spezielle Lizenzierungsbedingungen?

Schließen
check
Compute Engine
Schließen

Modell

Google Cloud bietet eine Reihe hochmoderner Foundation Models über Vertex AI, einschließlich Gemini. Sie können ein Drittanbietermodell auch in Vertex AI Model Garden oder Self-Hosting in GKE, Cloud Run oder Compute Engine bereitstellen.

Code wird erstellt?

Schließen
check
Codey (Vertex AI)
Schließen

Images werden generiert?

Schließen
check
Imagen (Vertex AI)
Schließen

Sie möchten Einbettungen für die Suche, Klassifizierung oder das Clustering generieren?

Schließen
check
Text-Embedding (Vertex AI)
Schließen

Ok, Sie möchten Text generieren. Möchten Sie Bilder oder Videos in Ihre Textvorschläge aufnehmen? (multimodal)

Schließen
check
Gemini (Vertex AI)
Schließen

Ok, nur Textprompts. Möchten Sie das leistungsstärkste Flaggschiffmodell von Google nutzen?

Schließen
check
Gemini (Vertex AI)
Schließen

Open-Source-Modelle können in folgenden Umgebungen bereitgestellt werden: Vertex AI (Model Garden) GKE (HuggingFace)

Nullniveau

Damit Sie fundierte und präzise Modellantworten erhalten, können Sie Ihre generative KI-Anwendung mit Echtzeitdaten fundieren. Dies wird als Retrieval Augmented Generation (RAG) bezeichnet.

Sie können die Fundierung mit Ihren eigenen Daten in einer Vektordatenbank implementieren, die ein optimales Format für Vorgänge wie die Ähnlichkeitssuche ist. Google Cloud bietet mehrere Lösungen für Vektordatenbanken für verschiedene Anwendungsfälle.

Hinweis: Sie können auch herkömmliche Datenbanken (keine Vektordatenbanken) nutzen, indem Sie einfach eine vorhandene Datenbank wie Cloud SQL oder Firestore abfragen und das Ergebnis in Ihrer Modell-Eingabeaufforderung verwenden.

Sie suchen eine einfache Lösung ohne Zugriff auf die zugrunde liegenden Einbettungen?

Schließen
check
Vertex AI Search & Conversation
Schließen

Benötigen Sie eine Vektorsuche mit niedriger Latenz, eine Bereitstellung im großen Maßstab oder möchten Sie eine spezielle Vektordatenbank verwenden?

Schließen
check
Vertex AI Vector Search
Schließen

Wird programmatisch auf Ihre Daten zugegriffen (OLTP)? Verwenden Sie bereits eine SQL-Datenbank?

Schließen
check

Möchten Sie Google AI-Modelle direkt aus Ihrer Datenbank verwenden? Niedrige Latenz erforderlich?

check
Schließen
Schließen

Haben Sie einen großen Analysedatensatz (OLAP)? Erforderlich ist die Batchverarbeitung und der häufige Zugriff auf SQL-Tabellen durch Nutzer oder Scripts (Datenwissenschaft)?

check
BigQuery

Fundierung mit APIs

Statt (oder zusätzlich dazu) Ihre eigenen Daten für die Fundierung zu verwenden, bieten viele Onlinedienste APIs, mit denen Sie Fundierungsdaten abrufen können, um Ihre Modellaufforderung zu erweitern.
Erstellen Sie Erweiterungen, die Large Language Models mit den APIs externer Systeme verbinden, stellen Sie sie bereit und verwalten Sie sie.
Entdecken Sie zahlreiche Dokumentladeprogramme und API-Integrationen für Ihre generativen KI-Anwendungen, von YouTube bis Google Scholar.
Wenn Sie in Vertex AI gehostete Modelle verwenden, können Sie Modellantworten mit Vertex AI Search, der Google Suche oder Inline-/Infile-Text fundieren.

Gleich mit dem Erstellen loslegen

LangChain ist ein Open-Source-Framework für generative KI-Anwendungen, mit dem Sie Kontext in Ihre Prompts integrieren und basierend auf der Antwort des Modells Maßnahmen ergreifen können.

Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.