Übersicht über die Unterstützung generativer KI für Vertex AI

Mit generativer KI für Vertex AI können Sie produktionsreife Anwendungen erstellen, die auf hochmodernen generativen KI-Modellen basieren, die in der erweiterten, globalen Infrastruktur von Google gehostet werden.

Jetzt loslegen


Enterpriseklasse

Enterpriseklasse

Stellen Sie Ihre generativen KI-Anwendungen im großen Maßstab mit Sicherheit auf Unternehmensniveau, Datenstandort, Access Transparency und niedriger Latenz bereit.

Hochmoderne Funktionen

Hochmoderne Funktionen

Erweitern Sie die Funktionen Ihrer Anwendungen mithilfe des von Gemini 1.5 Pro unterstützten Kontextfensters mit 2.000.000 Tokens.

Offene Plattform

Offene Plattform

Vertex AI bietet Zugriff auf über 100 Modelle von KI-Drittanbietern, darunter Anthropic Claude 3.5 Sonnet, Meta Llama 3 und Mistral AI Mixtral 8x7B.

Hauptfunktionen

  • Multimodale Verarbeitung

    Mehrere Arten von Eingabemedien gleichzeitig verarbeiten, z. B. Bild, Video, Audio und Dokumente.

  • Generierung von Einbettungen

    Generierung von Einbettungen, um Aufgaben wie Suche, Klassifizierung, Clustering und Ausreißererkennung auszuführen.

  • Modellabstimmung

    Passen Sie Modelle an, um bestimmte Aufgaben mit höherer Genauigkeit und Genauigkeit auszuführen.

  • Funktionsaufrufe

    Verbinden Sie Modelle mit externen APIs, um die Funktionen des Modells zu erweitern.

  • Fundierung

    Verbinden Sie Modelle mit externen Datenquellen, um KI-Halluzinationen in Antworten zu reduzieren.

  • Bilderstellung

    Generieren und bearbeiten Sie Bilder mithilfe von Text-Prompts in natürlicher Sprache.


Unterschiede zwischen Vertex AI und Google AI

Mit der Gemini API in Vertex AI und Google AI können Sie die Funktionen von Gemini-Modellen in Ihre Anwendungen einbinden. Welche Plattform für Sie am besten geeignet ist, hängt von Ihren Zielen ab, wie in der folgenden Tabelle beschrieben:

API Entwickelt für Features
Vertex AI Gemini API
  • Skalierte Bereitstellungen
  • Enterprise
  • Technischer Support
  • Modalitätsbasierte Preise
  • Haftungsfreistellung
  • Über 100 Modelle in Model Garden
Google AI Gemini API
  • Experimente
  • Prototyping
  • Nutzerfreundlichkeit
  • Kostenlose Stufe
  • Tokenbasierte Preise

Builds mit Vertex AI SDKs erstellen

Vertex AI stellt SDKs in den folgenden Sprachen bereit:

Python

from vertexai.generative_models import GenerativeModel
model = GenerativeModel(model_name="gemini-1.5-flash")
response = model.generate_content([Part.from_uri(IMAGE_URI, mime_type="image/jpeg"),"What is this?"])

Node.js

const vertexAI = new VertexAI({project: projectId, location: location});
const generativeVisionModel = vertexAI.getGenerativeModel({ model: "gemini-1.5-flash"});

const result = await model.generateContent([
  "What is this?",
  {inlineData: {data: imgDataInBase64, mimeType: 'image/png'}}
]);

Java

public static void main(String[] args) throws Exception {
  try (VertexAI vertexAi = new VertexAI(PROJECT_ID, LOCATION); ) {
    GenerativeModel model = new GenerativeModel("gemini-1.5-flash", vertexAI);
  List<Content> contents = new ArrayList<>();
  contents.add(ContentMaker
                .fromMultiModalData(
                    "What is this?",
                    PartMaker.fromMimeTypeAndData("image/jpeg", IMAGE_URI)));
  GenerateContentResponse response = model.generateContent(contents);
  }
}

Go

model := client.GenerativeModel("gemini-1.5-flash", "us-central1")
img := genai.ImageData("jpeg", image_bytes)
prompt := genai.Text("What is this?")
resp, err := model.GenerateContent(ctx, img, prompt)

C#

var predictionServiceClient = new PredictionServiceClientBuilder {
  Endpoint = $"{location}-aiplatform.googleapis.com"
}.Build();

var generateContentRequest = new GenerateContentRequest {
  Model = $"projects/{projectId}/locations/{location}/publishers/google/models/gemini-1.5-flash",
  Contents = {
    new Content {
      Role = "USER",
      Parts = {
        new Part {Text = "What's in this?"},
        new Part {FileData = new() {MimeType = "image/jpeg", FileUri = fileUri}}
      }
    }
  }
};

GenerateContentResponse response = await predictionServiceClient.GenerateContentAsync(generateContentRequest);

Jetzt starten

Weitere Optionen für den Einstieg