Dieses Dokument enthält eine Liste von Notebookanleitungen für Generative AI in Vertex AI. Diese End-to-End-Anleitungen zeigen Ihnen, wie Sie einige der GenAI-LLMs verwenden.
Empfohlene Anleitungen
-
Multimodale Anwendungsfälle mit Gemini
Entdecken Sie verschiedene Anwendungsfälle mit Multimodalitäten mit GEmini.
-
Funktionsaufrufe mit der Vertex AI Gemini API und Python SDK
Verwenden Sie die Vertex AI Gemini API mit dem Vertex AI SDK for Python, um Funktionsaufrufe mit dem Modell Gemini 1.0 Pro (
gemini-1.0-pro
) auszuführen. -
Erste Schritte mit Fundierung mit Gemini in Vertex AI
Verwenden Sie generative Textmodelle, um Inhalte zu generieren, die auf Ihren Dokumenten und Daten basieren.
Liste der Anleitungen
Gemini Multimodal |
Mit Gemini 1.5 Pro können Sie Audiodateien analysieren, Videos verstehen, Informationen aus einem PDF extrahieren und mehrere Medientypen gleichzeitig verarbeiten. |
|
Gemini Multimodal |
Mit diesem Notebook erfahren Sie, wie Sie mit Gemini 1.5 Pro Code generieren, eine Codebasis zusammenfassen, Fehler beheben, Code verbessern und Code bewerten. |
|
Gemini Multimodal |
Erste Schritte mit Gemini (cUrl) Verwenden Sie die Gemini-API, mit der Sie mit REST/curl auf die neuesten Large Language Models von Google zugreifen können. |
|
Gemini Multimodal |
Erste Schritte mit Gemini (Python SDK) Verwenden Sie die Gemini-API, mit der Sie mit dem Vertex AI SDK für Python Zugriff auf die neuesten Large Language Models von Google haben. |
|
Gemini Multimodal |
Multimodale Anwendungsfälle mit Gemini Das Gemini-Modell ist ein bahnbrechendes multimodales Sprachmodell, das von Google AI entwickelt wurde und Informationen aus einer Vielzahl von Datenformaten wie Bildern und Videos extrahieren kann. Dieses Notebook untersucht verschiedene Anwendungsfälle mit multimodalen Prompts. |
|
Gemini-Bewertung |
Erste Schritte mit dem Gen AI-Bewertungsdienst im Vertex AI SDK for Python Verwenden Sie das SDK für den Gen AI-Bewertungsdienst, um das Gemini-Modell mit dem Vertex AI SDK for Python zu bewerten. |
|
Gemini-Bewertung |
Prompt Engineering, -Bewertung und -Vorlagen mit Gemini Verwenden Sie das SDK für den Gen AI-Bewertungsdienst für das Prompt Engineering und die Bewertung mit dem Gemini-Modell mit dem Vertex AI SDK for Python. |
|
Gemini-Bewertung |
Generative Modelle vergleichen und auswählen Verwenden Sie das Gen AI Evaluation Service SDK, um verschiedene generative Modelle für eine bestimmte Bewertungsaufgabe zu vergleichen und zu bewerten, und visualisieren und vergleichen Sie dann die Bewertungsergebnisse für die Aufgabe mit dem Vertex AI SDK for Python. |
|
Gemini-Bewertung |
Einstellungen für die Modellgenerierung bewerten und vergleichen Verwenden Sie das Gen AI Evaluation Service SDK, um die Temperatur und andere Konfigurationen der Modellgenerierung von Gemini zu bewerten und auszuwählen und die Messwertergebnisse verschiedener Generierungseinstellungen mit dem Vertex AI SDK for Python zu vergleichen. |
|
Gemini-Bewertung |
PaLM-Modell mit Gemini-Modell vergleichen und migrieren In diesem Notebook erfahren Sie, wie Sie mit dem Gen AI Evaluation Service SDK PaLM- und Gemini-Basismodelle mit mehreren Bewertungsmesswerten bewerten, um Entscheidungen zur Migration von einem Modell zu einem anderen zu unterstützen. Diese Messwerte werden visualisiert, damit Sie die Stärken und Schwächen der einzelnen Modelle besser nachvollziehen können. So können Sie eine fundierte Entscheidung darüber treffen, welches Modell am besten zu den spezifischen Anforderungen Ihres Anwendungsfalls passt. |
|
Gemini-Bewertung |
Leitfaden zur Migration des Gen AI Evaluation Service SDK von der Vorabversion zur GA-Version In dieser Anleitung erfahren Sie, wie Sie von der Vorabversion zur neuesten GA-Version des Vertex AI Python SDK für den Gen AI Evaluation Service migrieren, um die Retrieval-Augmented Generation (RAG) zu bewerten und zwei Modelle nebeneinander zu vergleichen. |
|
Gemini-Bewertung |
Einstellungen für die Modellgenerierung bewerten und vergleichen Verwenden Sie das Gen AI Evaluation Service SDK, um die Temperatur und andere Konfigurationen der Modellgenerierung von Gemini zu bewerten und auszuwählen und die Messwertergebnisse verschiedener Generierungseinstellungen mit dem Vertex AI SDK for Python zu vergleichen. |
|
Gemini-Bewertung |
Modellbasierte Messwerte für die Bewertung eines generativen KI-Modells anpassen Verwenden Sie das Gen AI Evaluation Service SDK, um die modellbasierten Messwerte anzupassen und ein generatives KI-Modell mit dem Vertex AI SDK for Python anhand Ihrer Kriterien zu bewerten. |
|
Gemini-Bewertung |
Verwenden Sie das Gen AI Evaluation Service SDK, um generative AI-Modelle mit Ihren lokal definierten benutzerdefinierten Messwerten zu bewerten, und verwenden Sie Ihr eigenes Autorater-Modell, um mit dem Vertex AI SDK for Python eine modellbasierte Messwertbewertung durchzuführen. |
|
Gemini-Bewertung |
Verwenden Sie das Gen AI Evaluation Service SDK, um generative KI-Modelle mit Ihren lokal definierten berechnungsbasierten benutzerdefinierten Messwerten mit dem Vertex AI SDK for Python zu bewerten. |
|
Gemini-Bewertung |
Qualität des Funktionsaufrufs für das Gemini 1.0 Pro-Modell bewerten Generieren Sie Funktionsaufrufe mit dem Gemini 1.0 Pro-Modell und verwenden Sie das Gen AI Evaluation Service SDK, um die Qualität der Funktionsaufrufe des Gemini 1.0 Pro-Modells mit dem Vertex AI SDK for Python zu bewerten. |
|
Gemini-Bewertung |
Verwenden Sie das Gen AI Evaluation Service SDK, um mit dem Vertex AI SDK for Python Antworten aus der Retrieval-Augmented Generation (RAG) für eine Question-Answering-Aufgabe (QA) zu bewerten. |
|
Gemini Multimodal Streamlit |
Streamlit-App mit Gemini Pro in Cloud Run bereitstellen Beispielanwendung zum Bereitstellen einer einfachen Chatbot-Anwendung mit Streamlit für Cloud Run mit Gemini Pro. |
|
Gemini Retrieval Augmented Generation |
Dieses Notebook ist eine Erweiterung von RAG, das traditionell über Textdaten durchgeführt wird. Es zeigt, wie Sie RAG über multimodale Daten durchführen können, um Fragen und Antworten in einem wissenschaftlichen Artikel mit Text und Bildern durchzuführen. |
|
Gemini Multimodal |
Gemini im Bildungsbereich verwenden Verwendung des Gemini-Modells in der Bildung, mit verschiedenen Beispielen für Prompts und über verschiedene Modalitäten hinweg, einschließlich Bilder und Videos. |
|
Gemini Multimodal |
Gemini für multimodale Einzelhandelsempfehlungen verwenden In der Welt des Einzelhandels spielen Empfehlungen eine entscheidende Rolle bei der Beeinflussung von Kundenentscheidungen und der Steigerung des Umsatzes. In diesem Notebook erfahren Sie, wie Sie die Leistungsfähigkeit von Multimodalitäten nutzen können, um Empfehlungen für den Einzelhandel durchzuführen und einen Kunden bei der Auswahl des besten Stuhls anhand vier Bildern von Stühlen und einem von seinem Wohnzimmer zu unterstützen. |
|
Multimodale Funktionsaufrufe mit Gemini |
Einführung in Funktionsaufrufe mit Gemini Mit dem Gemini Pro-Modell können Sie:
|
|
Abstimmung |
Basismodelle mit Vertex AI optimieren Anleitung durch die gesamte Einrichtung und Integration. Von der Einrichtung der Umgebung über die Auswahl des Foundation Models bis hin zur Feinabstimmung mit Vertex AI. |
|
Bewertung |
Vertex AI LLM-Bewertungsdienste Vertex AI LLM-Bewertungsdienste in Verbindung mit anderen Vertex AI-Diensten verwenden. |
|
LangChain |
Führen Sie eine LangChain-Kette aus und geben Sie Details dazu aus, was in den einzelnen Schritten der Kette sowie mit optionalen Debugging-Haltepunkten geschieht. |
|
Text |
Erweitertes Training fürs Prompt Engineering Verwenden Sie Chain-of-Thought and ReAct (Reasoning + Acting) zur Entwicklung von Prompts und reduzieren Sie KI-Halluzination. |
|
Einbettungen |
Vertex AI-Einbettungen für multimodale und Vektorsuche verwenden Erstellen Sie Text-zu-Bild-Einbettungen mit dem DiffusionDB-Dataset und den Vertex AI-Einbettungen für multimodale Modelle. Die Einbettungen werden in den Vektorsuchdienst hochgeladen, eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren für große Mengen gefunden werden können. |
|
Einbettungen |
Semantische Suche mit Einbettungen Erstellen Sie eine aus Text generierte Einbettung und führen Sie eine semantische Suche durch. Die Einbettungen werden mithilfe von „Google ScaNN: Efficient Vector Similarity Search“ generiert. |
|
Bewertung |
AutoSxS: LLM in Vertex AI Model Registry anhand des Modells eines Drittanbieters bewerten Verwenden Sie Vertex AI Automatic Side-by-Side (AutoSxS), um die Leistung zwischen einem generativen KI-Modell in der Vertex AI-Modell-Registry und dem Sprachmodell eines Drittanbieters zu bewerten. |
|
Bewertung |
AutoSxS: Abgleich des Autoraters mit einem Dataset mit menschlichen Präferenzen prüfen Verwenden Sie Vertex AI Automatic Side-by-Side (AutoSxS), um zu ermitteln, wie gut das Autoscaling mit den menschlichen Beurteilern übereinstimmt. |
|
Abstimmung |
Bestärkendes Lernen durch menschliches Feedback in Vertex AI LLM Mit Vertex AI RLHF ein Large Language Model (LLM) optimieren. Dieser Workflow verbessert die Accuracy eines Modells, wozu ein Basismodell mit einem Trainings-Dataset optimiert wird. |
|
Abstimmung |
Vertex AI-Batch-Inferenz mit RLHF-abgestimmten Modellen In dieser Anleitung wird gezeigt, wie Sie Inferenzen für RLHF-abgestimmte OSS-LLMs (Large Language Models) mit Vertex AI End-to-End ausführen. |
|
Einbettungen |
Testen Sie die neuen Texteinbettungsmodelle. |
|
Abstimmung |
Vertex AI: PEFT-Modell abstimmen Abstimmung eines PEFT-Large Language Models und Vorhersagen machen. Dieser Workflow verbessert die Accuracy eines Modells, wozu ein Basismodell mit einem Trainings-Dataset optimiert wird. |
|
Text |
Vertex AI SDK mit Large Language Models verwenden Mit dem Vertex AI SDK Large Language Models in Vertex AI ausführen. Generative AI-Sprachmodelle testen, optimieren und bereitstellen Entdecken Sie Beispiele für die Zusammenfassung von Inhalten, die Sentimentanalyse, den Chat, die Einbettung von Texten und die Abstimmung der Eingabe. |
|
Datenspeicher indexiert Search and Conversation |
Statusprüfung für den Vertex AI Search and Conversation-Datenspeicher Vertex AI Search and Conversation Datastore Status Checker ist ein Notebook, das die Cloud Discovery Engine API verwendet, um einen Datenspeicher auf indexierte Dokumente zu prüfen. Der Nutzer kann damit folgende Aufgaben ausführen:
|
|
Spracherkennung mit Chirp |
Erste Schritte mit Chirp in Google Cloud Dieses Notebook ist eine Einführung in Chirp, einen Spracherkennungsdienst, der die hochmoderne Spracherkennungstechnologie von Google verwendet. Er bietet eine einfache und nutzerfreundliche Oberfläche für Entwickler zum Erstellen sprachbasierter Anwendungen. |
|
Metadatensuche filtern |
Vertex AI Search mit Filtern und Metadaten Vertex AI Search ist ein vollständig verwalteter Dienst, mit dem Sie Suchanwendungen in Google Cloud erstellen und bereitstellen können. Dieses Notebook zeigt, wie Sie Filter und Metadaten in Suchanfragen an Vertex AI Search verwenden. |
|
Dokument Question Answering Retrieval Augmented Generation |
Fragen-und-Antworten-Dokument mit Retrieval Augmented Generation Dieses Notebook zeigt, wie Sie mit Retrieval Augmented Generation (RAG) ein Question Answering-System für die Google-Dokumentation erstellen können. Es wird gezeigt, wie RAG verwendet wird, um Text zu generieren, der eine bestimmte Frage beantwortet, und wie Sie damit die Leistung eines Question Answering-Systems verbessern können. |
|
Vertragserstellung Abrufsuche |
Dieses Notebook zeigt, wie Sie mit Retrieval Augmented Generation Vertragstext generieren können. Es nutzt die Modelle Palm2 & LangChain, die mit großen Korpuss in rechtlicher und finanzieller Schrift vortrainiert wurden. |
|
Question Answering Retrieval Augmented Generation Suche LangChain |
Fragen zu Dokumenten beantworten Dieses Notebook zeigt, wie Sie Fragen zu Ihren Daten stellen und beantworten, indem Sie eine Vertex AI Search-Engine mit LLMs kombinieren. Insbesondere konzentrieren wir uns auf die Abfrage „unstrukturierter“ Daten wie PDFs und HTML-Dateien. Um dieses Notebook ausführen zu können, müssen Sie eine unstrukturierte Suchmaschine erstellt und PDF- oder HTML-Dokumente aufgenommen haben. |
|
Suche für Bulk-Question Answering für Vertex AI Search-Question Answering |
Bulk-Question Answering mit Vertex AI Search beantworten Dieses Notebook zeigt, wie Fragen aus einer CSV-Datei mit einem Vertex AI Search-Datenspeicher beantwortet werden. Er kann in Colab oder Vertex AI Workbench ausgeführt werden. |
|
Sprachorchestrierung LangChain PaLM |
Erste Schritte mit LangChain 🦜🔗 + PaLM API Dieses Notebook bietet eine Einführung in LangChain, einem Orchestrierungs-Framework für Sprache. Es wird gezeigt, wie LangChain mit der PaLM API verwendet wird, um ein Text-zu-Text-Generierungsmodell zu erstellen und bereitzustellen. |
|
BigQuery Data Loader LangChain |
So verwenden Sie den LangChain 🦜🔗 BigQuery-Data Loader Dieses Notebook zeigt, wie der LangChain BigQuery Data Loader verwendet wird, um Daten aus BigQuery in ein LangChain-Modell zu laden. Das Notebook bietet Schritt-für-Schritt-Anleitungen zum Einrichten des Daten-Loaders, zum Laden von Daten in das Modell und zum Trainieren des Modells. |
|
Code für Code-Generierung für Retrieval Augmented Generation Codey |
Retrieval Augmented Generation (RAG) mit Codey APIs verwenden Dieses Notebook zeigt, wie Retrieval Augmented Generation (RAG) mit Codey APIs verwendet wird. RAG ist eine Technik, die den Codeabruf mit der Codegenerierung kombiniert, um genauere und informativere Vorschläge zur Codevervollständigung zu erhalten. |
|
Codey Code-Generierung für Sprache |
Erste Schritte mit den Vertex AI Codey APIs – Codegenerierung Dieses Notebook bietet eine Einführung in die Vertex AI Codey APIs für die Codegenerierung. Es werden die Grundlagen der Verwendung der APIs erläutert, darunter das Erstellen und Bereitstellen von Modellen zur Codegenerierung und das Generieren von Code. |
|
Codey Codegenerierung für Code-Vervollständigung |
Erste Schritte mit den Vertex AI Codey APIs – Codevervollständigung Dieses Notebook zeigt, wie Sie die Vertex AI Codey APIs verwenden, um Vorschläge zur Codevervollständigung für Python-Code zu erhalten. Außerdem erfahren Sie, wie Sie mit den APIs Code-Snippets generieren und in einer Remoteumgebung ausführen. |
|
Codey Codechat Chat Code-Generierung für Textgenerierung |
Erste Schritte mit den Vertex AI Codey APIs – Codechat Dieses Notebook ist eine Einführung in die Vertex AI Codey APIs. Es werden die Grundlagen der Verwendung der APIs erläutert, darunter die Erstellung und Bereitstellung von Modellen sowie die Interaktion mit ihnen über die Codey-Befehlszeile. |
|
Sprache: PaLM Python SDK |
Erste Schritte mit der PaLM API und Python SDK Dieses Notebook bietet eine Einführung in die PaLM API und das Python SDK. Es werden die Grundlagen der Nutzung der API erläutert. Unter anderem erfahren Sie, wie Modelle erstellt und bereitgestellt werden. Außerdem erfahren Sie, wie Sie mit der API Text generieren, Sprachen übersetzen und verschiedene Arten von kreativen Inhalten schreiben können. |
|
Sprach-Prompts |
Prompt-Design – Best Practices Dieses Notebook bietet eine Einführung in das Prompt-Design für textbasierte Sprachmodelle. Es werden die Grundlagen der Prompts erläutert, einschließlich ihrer Funktionsweise und ihrer Erstellung. Das Notebook enthält auch Tipps zur Verbesserung Ihrer Prompts und zur Vermeidung häufiger Probleme. |
|
Textextraktion |
Textextraktion mit generativen Modellen in Vertex AI Dieses Notebook zeigt, wie Sie mithilfe von generativen Modellen Text aus Bildern extrahieren. Dabei wird das Text-zu-Bild-Modell aus der generative AI-Bibliothek von Vertex AI und das Text-Extraktionsmodell aus der Vertex AI-Textextraktionsbibliothek verwendet. |
|
Textklassifizierung |
Textklassifizierung mit generativen Modellen in Vertex AI Dieses Notebook zeigt, wie Sie generative Modelle verwenden, um eine Textklassifizierung in Vertex AI durchzuführen. Dabei werden die folgenden Themen behandelt: * Daten vorbereiten * Modell trainieren * Modell bereitstellen * Modell zur Klassifizierung von Text verwenden |
|
Chain-of-Thought: ReAct |
Dieses Notebook führt Chain-of-Thought und ReAct ein, zwei Tools, mit denen die Leistung des Algorithmus des Reinforcement Learning verbessert werden kann. Die Chain-of-Thought ist eine Technik, mit der die Effizienz der Wertiteration verbessert werden kann, während ReAct eine Technik ist, die verwendet werden kann, um die Stabilität nutzerkritischer Algorithmen zu verbessern. |
|
Sprache regt Ideenfindung an |
Ideenfindung mit generativen Modellen in Vertex AI Dieses Notebook zeigt, wie Sie mit generativen Modellen Text, Bilder und Code generieren. Außerdem erfahren Sie, wie Vertex AI zum Bereitstellen und Verwalten generativer Modelle verwendet wird. |
|
Zusammenfassung |
Textzusammenfassung mit generativen Modellen in Vertex AI Dieses Notebook zeigt, wie Sie mit Vertex AI ein Textzusammenfassungsmodell trainieren und bereitstellen. Dabei wird das BART-Modell verwendet, ein Large Language Model, das mit einem riesigen Text-Dataset vortrainiert wurde. Das Modell wird dann anhand eines Datasets von Textzusammenfassungen optimiert und kann dann zum Generieren von Zusammenfassungen für neuen Text verwendet werden. |
|
Question Answering |
Question Answering mit generativen Modellen in Vertex AI Dieses Notebook zeigt, wie generative Modelle verwendet werden, um Open-Domain-Fragen zu beantworten. Dabei wird das Vertex AI Transformer-Modell verwendet, um Text basierend auf einer bestimmten Frage zu generieren. |
|
Bereitstellung des Abstimmungs des Text-Generation-Modells |
Grundlagenmodell abstimmen und bereitstellen Dieses Notebook zeigt, wie Sie ein Foundation Model mit Vertex AI optimieren. Außerdem wird gezeigt, wie das feinabgestimmte Modell auf einem Vertex AI-Endpunkt bereitgestellt wird. |
|
Dokumentzusammenfassung Zusammenfassung |
Textzusammenfassung großer Dokumente Dieses Notebook zeigt, wie Sie mit dem großen t5-Modell große Dokumente zusammenfassen. Das Modell wird mit einem riesigen Text- und Code-Dataset trainiert und kann Zusammenfassungen generieren, die genau und prägnant sind. |
|
Dokumentzusammenfassung LangChain-Zusammenfassung |
Textzusammenfassung von großen Dokumenten mit LangChain 🦜🔗 Dieses Notebook zeigt, wie das LangChain-Modell zum Zusammenfassen großer Dokumente verwendet wird. LangChain ist ein Large Language Model, mit dem Text generiert, Sprachen übersetzt, verschiedene Arten von kreativen Inhalten geschrieben und Fragen auf informative Weise beantwortet werden können. |
|
Dokumentzusammenfassung Document AI-Sprachmodellzusammenfassung Textzusammenfassung |
Zusammenfassung mit großen Dokumenten unter Verwendung von Document AI und PaLM APIs Dieses Notebook zeigt, wie Sie mit Document AI und PaLM APIs große Dokumente zusammenfassen. Außerdem erfahren Sie, wie Sie mit der Document AI API Entitäten und Schlüsselformulierungen aus einem Dokument extrahieren. |
|
Chatbot-Textgenerierung |
GroceryBot, ein Beispielassistent für Lebensmittel und Rezepte – RAG und ReAct Dieses Notebook bezieht sich auf einen Beispielassistenten für Lebensmittel und Rezepte, der RAG und ReAct verwendet. Mit ihm können Sie Rezepte suchen, Einkaufslisten erstellen und Antworten auf Fragen zu Lebensmitteln finden. |
|
Question Answering Dokument-QA LangChain |
Question Answering mit großen Dokumenten mithilfe von LangChain 🦜🔗 Dieses Notebook zeigt, wie das LangChain-Modell zum Erstellen eines Question Answering-Systems verwendet wird, das Fragen zu langen Dokumenten beantworten kann. Das Modell wird mit einem großen Textkorpus trainiert und kann zur Beantwortung von Fragen zu jedem Thema verwendet werden. |
|
Question Answering Dokument-QA LangChain Vektorsuche |
Question Answering mit Dokumenten mithilfe von LangChain 🦜🔗 und Vertex AI Vektorsuche Dieses Notebook zeigt, wie LangChain und Vertex AI Vektorsuche (ehemals Matching Engine) zum Erstellen eines Question Answering-Systems für Dokumente verwendet werden. Das System kann Fragen zu Elementen, Datumsangaben und Zahlen in Dokumenten beantworten. |
|
Document AI Question Answering-PLM |
Question Answering mit Dokumenten, Document AI, Pandas und PaLM beantworten Dieses Notebook zeigt, wie Sie mit Document AI, Pandas und PaLM ein Question Answering-System erstellen. Zuerst wird Document AI verwendet, um strukturierte Daten aus einem Dokument zu extrahieren. Anschließend wird mit Pandas ein DataFrame aus den extrahierten Daten erstellt. Schließlich wird PaLM verwendet, um Antworten auf Fragen zu den Daten zu generieren. |
|
Question Answering Dokument-QA |
Question Answering mit großen Dokumenten Dieses Notebook zeigt, wie Sie mit dem Vertex AI-Question Answering- Dienst eineQuestion Answering-Modell erstellen, das Fragen aus großen Dokumenten beantworten kann. Das Modell wird mit einem Datensatz von Wikipedia-Artikeln trainiert und kann Fragen zu einer Vielzahl von Themen beantworten. |
|
Bilderstellung |
Produktbeschreibungsgenerator aus Bild Dieses Notebook zeigt, wie Sie mithilfe eines Text-zu-Bild-Modells Produktbeschreibungen aus Bildern generieren. Das Modell wird mit einem Dataset von Produktbildern und den zugehörigen Beschreibungen trainiert. |
|
Generation Einzelhandel LangChain |
DescriptionGen: SEO-optimierte Produktbeschreibung für den Einzelhandel mit LangChain 🦜🔗 Dieses Notebook zeigt, wie das LangChain-Modell verwendet wird, um SEO-optimierte Produktbeschreibungen für den Einzelhandel zu generieren. Das Modell verwendet als Eingabe eine Liste von Produktattributen und gibt eine kurze Beschreibung aus, die die wichtigsten Features des Produkts hervorhebt. |
|
BigQuery DataFrames Textgenerierung |
BigQuery DataFrames ML: Generierung von Arzneimittelnamen Dieses Notebook zeigt, wie Sie mit BigQuery DataFrames ML Arzneimittelnamen generieren. Es wird ein vortrainiertes Sprachmodell verwendet, um Text zu generieren. Anschließend werden die Ergebnisse gefiltert, um bereits verwendete Arzneimittel zu entfernen. |
|
BigQuery DataFrames Codegenerierung |
BigQuery DataFrames mit Generative AI für die Codegenerierung verwenden Dieses Notebook zeigt, wie Sie BigQuery DataFrames mit generativer KI für die Codegenerierung verwenden. Sie erfahren, wie Sie mit einem vortrainierten Sprachmodell Code generieren, der eine BigQuery-Tabelle in einen Pandas DataFrame transformiert. |
|
BigQuery-Sprachmodell |
Vertex AI LLMs mit Daten in BigQuery verwenden Dieses Notebook zeigt, wie Vertex AI LLMs mit Daten in BigQuery verwendet werden. Sie erfahren, wie Sie Daten aus BigQuery laden, ein LLM-Modell erstellen und dann mit dem Modell Text anhand der Daten generieren. |
|
Visualisierung der Einbettungsähnlichkeit |
Einbettungsähnlichkeit aus Textdokumenten mithilfe von t-SNE-Diagrammen visualisieren Dieses Notebook zeigt, wie Sie die Einbettungsähnlichkeit von Textdokumenten mithilfe von t-SNE-Diagrammen visualisieren. Dabei wird ein Dataset mit Filmrezensionen aus dem [IMDB-Dataset](https://datasets.imdbws.com/) verwendet. |
|
Vektorsuche für Texteinbettungen |
Erste Schritte mit Texteinbettungen und Vertex AI-Vektorsuche Dieses Notebook bietet eine Einführung in Texteinbettungen und deren Verwendung mit Vertex AI Vektorsuche. Es werden die Grundlagen von Texteinbettungen erläutert, wie Sie sie trainieren und wie Sie sie für die Vektorsuche verwenden. |
|
Vektorsuche für Einbettungen |
Vertex AI Vektorsuche: Kurzanleitung Dieses Notebook ist eine Kurzanleitung zur Verwendung von Vertex AI Vektorsuche. Es werden die Grundlagen der Vektorsuche erläutert, einschließlich der Erstellung eines Vektorindex, des Hochladens von Daten in den Index und der Durchführung von Vektorsuchanfragen. |
|
Imagen 3-Bildgenerierung |
Bildgenerierung mit Imagen in Vertex AI In diesem Notebook machen Sie sich mit den Features zur Bildgenerierung von Imagen mit dem Vertex AI SDK for Python und den Standard- und Low-Latency-Modellen von Imagen 3 vertraut. Weitere Informationen zu Imagens Feature zur Bildgenerierung. |
|
Imagen 2-Bildgenerierung |
Bildgenerierung mit Imagen in Vertex AI In diesem Notebook sehen Sie sich die Features zur Bildgenerierung von Imagen mit dem Vertex AI SDK für Python an. Weitere Informationen zum Feature Bildgenerierung von Imagen |
|
Bildgenerierung von Imagen 3 |
Mit Imagen 3 und Gemini 1.5 Pro qualitativ hochwertige visuelle Assets erstellen In diesem Notebook erstellen Sie mit Imagen 3 und Gemini 1.5 Pro hochwertige visuelle Assets für eine Restaurantkarte. Weitere Informationen zu Bildgenerierung und multimodalen Modellen. |
|
Imagen 2: Bildbearbeitung |
In diesem Notebook lernen Sie die Bildbearbeitungsfeatures von Imagen mit dem Vertex AI SDK für Python kennen. |
|
Imagen-Bild: Visual Question Answering (VQA) |
VQA (Visual Question Answering) mit Imagen in Vertex AI Dieses Notebook zeigt, wie Sie mit Imagen Bilder generieren, die bestimmte Fragen beantworten. Außerdem wird gezeigt, wie Sie ein Modell in Vertex AI bereitstellen und damit Bilder als Antwort auf von Nutzern bereitgestellte Fragen generieren. |
|
Bildunterschriften für Imagen |
Visuelle Untertitel mit Imagen in Vertex AI Dieses Notebook zeigt, wie Sie mit Imagen, einem Large Language Model für die Bildgenerierung, Untertitel für Bilder generieren. Außerdem wird gezeigt, wie das Modell in Vertex AI bereitgestellt wird. |
Nächste Schritte
- Informationen zu LLM-, Vertex AI- und PaLM-Modellen mit Notebook-Anleitungen.
- Weitere Ressourcen finden Sie im GitHub-Repository für generative KI.
- Weitere Anleitungen zu Vertex AI-Notebooks finden Sie in der Übersicht über Anleitungen.