Gemini ist eine Reihe von auf generativer KI basierenden Modellen, die von Google entwickelt wurden und auf multimodale Anwendungsfälle ausgelegt sind. Wenn Sie Gemini-Modelle in Vertex AI noch nicht verwendet haben, lesen Sie die Einführung in generative KI.
Zu den wichtigsten Vorteilen von Gemini gehören:
Höhere Leistung: Die neuesten Large Language Models (LLMs) wie Gemini Flash 1.5 bieten im Vergleich zum AutoML-Textmodell eine bessere Verarbeitung natürlicher Sprache für eine Vielzahl von Aufgaben. Weitere Informationen finden Sie im öffentlich verfügbaren technischen Bericht des Gemini-Teams.
Flexibilität: Gemini ermöglicht sowohl das Prompting (schnelle Anpassung) als auch die Feinabstimmung (tiefgreifende Anpassung) und kann so an unterschiedliche Projektanforderungen angepasst werden. Diese Flexibilität ermöglicht schnelles Prototyping, Testen und Bereitstellen mithilfe von Prompts. Außerdem können Sie die Gemini-Modellgewichte für eine optimale Leistung bei bestimmten Aufgaben feinabstimmen. Vertex AI bietet sowohl konsolenbasiertes Fine-Tuning als auch SDK- und API-Optionen für die programmatische Steuerung.
Mehrzweck- und multimodale Funktionen: Gemini kann Text, Bilder und andere Modalitäten verarbeiten. So kann ein einheitliches Format und Modell für verschiedene Aufgaben verwendet werden. Diese Flexibilität ermöglicht es, den Prozess problemlos an verschiedene Anwendungen anzupassen, wodurch die Entwicklungsarbeit optimiert und beschleunigt wird.
Gemini unterstützt die meisten Funktionen, die in AutoML Text verfügbar sind. Es gibt jedoch Unterschiede und die Clientbibliotheken unterstützen keine Abwärtskompatibilität der Clientintegration. Wenn Sie von den Gemini-Funktionen profitieren möchten, müssen Sie die Migration Ihrer Ressourcen entsprechend planen.
Wenn Sie ein neues Projekt planen, sollten Sie Programmcode, Jobs, Datasets und Modelle mit Gemini erstellen. Sie können so die neuen Features und Dienstverbesserungen nutzen.
Empfohlene Schritte für die Migration zu Gemini
Führen Sie die folgenden empfohlenen Schritte aus, um vorhandenen Code, Jobs, Datasets und Modelle von AutoML-Text auf Gemini zu aktualisieren.
Informationen zu den Hauptunterschieden zwischen Gemini und AutoML Text finden Sie unter Gemini für AutoML-Textnutzer.
Prüfen Sie mögliche Preisänderungen (siehe Preise für die Gemini-Migration).
Ermitteln Sie Ihren Bestand an Google Cloud -Projekten, Programmcode, Jobs, Datasets, Modellen und Nutzern mit Zugriff auf AutoML Text. Bestimmen Sie anhand dieser Informationen, welche Ressourcen migriert werden sollen, und sorgen Sie dafür, dass die richtigen Nutzer Zugriff auf die migrierten Ressourcen haben.
Prüfen Sie alle Änderungen an IAM-Rollen und aktualisieren Sie dann die Dienstkonten und die Authentifizierung für Ihre Ressourcen.
Migrieren Sie Ressourcen mit einer der beiden folgenden Methoden:
Ermitteln Sie die Nutzung von AutoML Text APIs, um festzustellen, welche Anwendungen diese verwenden und um die Methodenaufrufe zu identifizieren, die migriert werden sollen.
Aktualisieren Sie Ihre Anwendungen und Arbeitsabläufe, damit sie Gemini verwenden.
Planen Sie das Monitoring Ihres Anfragekontingents. Weitere Informationen finden Sie unter Kontingente und Einschränkungen.
Preise für die Gemini-Migration
Die Migration ist kostenlos. Nach der Migration stehen Ihre Legacy-Ressourcen weiterhin in AutoML Text zur Verfügung, bis der Dienst im Juni 2025 eingestellt wird. Um unnötige Kosten zu vermeiden, sollten Sie nach der Prüfung, ob Ihre Objekte erfolgreich migriert wurden, Legacy-Ressourcen herunterfahren oder löschen.
Gemini-Preise im Vergleich zu AutoML Text-Preisen
Die Preise für Gemini sind in der Regel niedriger als für entsprechende Aufgaben in AutoML Text. Die Preise für Gemini richten sich danach, ob Sie das Modell nur für das Prompt-Engineering, nur für das Fine-Tuning oder für beides verwenden. Weitere Informationen finden Sie unter AutoML Text-Preise und Gemini-Preise.
Bei Modellen zur Extraktion von Einheiten kann die Ausgabe der Modellbereitstellung höher sein, da die Ausgabe die vollständigen strukturierten Daten umfasst.
Verwendung von AutoML Text APIs ermitteln
Sie können feststellen, welche Ihrer Anwendungen AutoML APIs verwenden und welche Methoden sie nutzen. Anhand dieser Informationen können Sie ermitteln, ob diese API-Aufrufe zu Gemini migriert werden müssen:
Rufen Sie für jedes Ihrer Projekte das Dashboard "APIs & Dienste" auf. Dort finden Sie eine Liste der Produkt-APIs, die vom Projekt verwendet werden. Weitere Informationen finden Sie unter Monitoring der API-Nutzung.
Wenn diese aktiviert sind, können Sie die Audit-Logs prüfen, die von AutoML Text im Rahmen von Cloud-Audit-Logs erstellt werden.
Informationen zur Verwendung bestimmter AutoML Text-Methoden finden Sie auf der Seite AutoML Text-Messwerte.
Änderungen an IAM-Rollen und -Berechtigungen verwalten
Vertex AI bietet die folgenden IAM-Rollen:
aiplatform.admin
aiplatform.user
aiplatform.viewer
Die Verwendung von Vertex AI-Datasets ist nicht mehr erforderlich. Daten für das Feinabstimmen in Gemini können nur in Cloud Storage gespeichert werden.
Weitere Informationen zu IAM-Rollen finden Sie unter Zugriffssteuerung.
Nächste Schritte
Weitere Informationen finden Sie unter Einführung in die Optimierung in Gemini.
Einen Vergleich zwischen Gemini und AutoML Text finden Sie unter Gemini für AutoML-Textnutzer.