Vertex AI: Notebook-Anleitungen für generative KI

Dieses Dokument enthält eine Liste von Notebookanleitungen für Generative AI in Vertex AI. Diese End-to-End-Anleitungen zeigen Ihnen, wie Sie einige der GenAI-LLMs verwenden.

  • Multimodale Anwendungsfälle mit Gemini

    Entdecken Sie verschiedene Anwendungsfälle mit Multimodalitäten mit GEmini.
    Colab | GitHub

  • Funktionsaufrufe mit der Vertex AI Gemini API und Python SDK

    Verwenden Sie die Vertex AI Gemini API mit dem Vertex AI SDK für Python, um Funktionsaufrufe mit dem Modell Gemini 1.0 Pro (gemini-1.0-pro) auszuführen.
    Colab | GitHub

  • Erste Schritte mit Fundierung mit Gemini in Vertex AI

    Verwenden Sie generative Textmodelle, um Inhalte zu generieren, die auf Ihren Dokumenten und Daten basieren.

    Colab | GitHub

Liste der Anleitungen

Filtern nach:
Gemini Multimodal

Einführung in Gemini 1.5 Pro (Vorschau)

Mit Gemini 1.5 Pro (Vorschau) können Sie Audiodateien analysieren, Videos verstehen, Informationen aus einer PDF-Datei extrahieren und mehrere Medientypen gleichzeitig verarbeiten.

Auf GitHub ansehen

Gemini Multimodal

Erste Schritte mit Gemini (cUrl)

Verwenden Sie die Gemini-API, mit der Sie mit REST/curl auf die neuesten Large Language Models von Google zugreifen können.

In Colab öffnen
Auf GitHub ansehen

Gemini Multimodal

Erste Schritte mit Gemini (Python SDK)

Verwenden Sie die Gemini-API, mit der Sie mit dem Vertex AI SDK für Python Zugriff auf die neuesten Large Language Models von Google haben.

In Colab öffnen
Auf GitHub ansehen

Gemini Multimodal

Multimodale Anwendungsfälle mit Gemini

Das Gemini-Modell ist ein bahnbrechendes multimodales Sprachmodell, das von Google AI entwickelt wurde und Informationen aus einer Vielzahl von Datenformaten wie Bildern und Videos extrahieren kann. Dieses Notebook untersucht verschiedene Anwendungsfälle mit multimodalen Prompts.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Erste Schritte mit schneller Bewertung im Vertex AI SDK für Python

Verwenden Sie die schnelle Bewertung, um das Gemini-Modell mit dem Vertex AI SDK für Python zu bewerten.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Prompt Engineering, Bewertung und Prompt-Vorlagen mit Gemini

Verwenden Sie eine schnelle Bewertung für das Prompt Engineering und die Bewertung mit dem Gemini-Modell und die Prompt-Vorlage für das Prompt-Design mit dem Vertex AI SDK für Python.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Generative Modelle bewerten und auswählen

Verwenden Sie die schnelle Bewertung, um verschiedene generative Modelle für eine bestimmte Bewertungsaufgabe zu bewerten und zu bewerten, und visualisieren und vergleichen Sie dann die Bewertungsergebnisse für die Aufgabe mit dem Vertex AI SDK für Python.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Gemini-Einstellungen für die Modellgenerierung bewerten und auswählen

Mit dem Vertex AI SDK für Python können Sie die schnelle Bewertung verwenden, um Temperatur- und andere Modellgenerierungskonfigurationen von Gemini zu bewerten und auszuwählen sowie die Messwertergebnisse verschiedener Generationseinstellungen in Bezug auf Qualität, Flüssigkeit, Sicherheit und Ausführlichkeit zu vergleichen.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Bewertungsmesswerte mit Gemini definieren

Verwenden Sie die schnelle Bewertung, um mit benutzerdefinierten Bewertungsmesswerten mit dem Vertex AI SDK für Python zu bewerten.

In Colab öffnen
Auf GitHub ansehen

Gemini-Bewertung

Qualität des Funktionsaufrufs des Gemini 1.0 Pro-Modells bewerten

Generieren Sie Funktionsaufrufe mit dem Gemini 1.0 Pro-Modell und verwenden Sie eine schnelle Bewertung, um die Funktionsaufrufqualität des Gemini 1.0 Pro-Modells mit dem Vertex AI SDK für Python zu bewerten.

In Colab öffnen
Auf GitHub ansehen

Gemini Multimodal Streamlit

Streamlit-App mit Gemini Pro in Cloud Run bereitstellen

Beispielanwendung zum Bereitstellen einer einfachen Chatbot-Anwendung mit Streamlit für Cloud Run mit Gemini Pro.

Auf GitHub ansehen

Gemini Retrieval Augmented Generation

Multimodale RAG

Dieses Notebook ist eine Erweiterung von RAG, das traditionell über Textdaten durchgeführt wird. Es zeigt, wie Sie RAG über multimodale Daten durchführen können, um Fragen und Antworten in einem wissenschaftlichen Artikel mit Text und Bildern durchzuführen.

In Colab öffnen
Auf GitHub ansehen

Gemini Multimodal

Gemini im Bildungsbereich verwenden

Verwendung des Gemini-Modells in der Bildung, mit verschiedenen Beispielen für Prompts und über verschiedene Modalitäten hinweg, einschließlich Bilder und Videos.

In Colab öffnen
Auf GitHub ansehen

Gemini Multimodal

Gemini für multimodale Einzelhandelsempfehlungen verwenden

In der Welt des Einzelhandels spielen Empfehlungen eine entscheidende Rolle bei der Beeinflussung von Kundenentscheidungen und der Steigerung des Umsatzes. In diesem Notebook erfahren Sie, wie Sie die Leistungsfähigkeit von Multimodalitäten nutzen können, um Empfehlungen für den Einzelhandel durchzuführen und einen Kunden bei der Auswahl des besten Stuhls anhand vier Bildern von Stühlen und einem von seinem Wohnzimmer zu unterstützen.

In Colab öffnen
Auf GitHub ansehen

Multimodale Funktionsaufrufe mit Gemini

Einführung in Funktionsaufrufe mit Gemini

Mit dem Gemini Pro-Modell können Sie:

  • Funktionsaufrufe über einen Textprompt generieren, um das Wetter für einen bestimmten Standort zu erhalten
  • Funktionsaufrufe über einen Textprompt generieren und eine externe API aufrufen, um Adressen zu geocodieren
  • Funktionsaufrufe über einen Chatprompt generieren, um Einzelhandelsnutzern zu helfen

In Colab öffnen
Auf GitHub ansehen

Abstimmung

Basismodelle mit Vertex AI optimieren

Anleitung durch die gesamte Einrichtung und Integration. Von der Einrichtung der Umgebung über die Auswahl des Foundation Models bis hin zur Feinabstimmung mit Vertex AI.

In Colab öffnen
Auf GitHub ansehen

Bewertung

Vertex AI LLM-Bewertungsdienste

Vertex AI LLM-Bewertungsdienste in Verbindung mit anderen Vertex AI-Diensten verwenden.

Auf GitHub ansehen

LangChain

LangChain-Kette ausführen

Führen Sie eine LangChain-Kette aus und geben Sie Details dazu aus, was in den einzelnen Schritten der Kette sowie mit optionalen Debugging-Haltepunkten geschieht.

In Colab öffnen
Auf GitHub ansehen

Text

Erweitertes Training fürs Prompt Engineering

Verwenden Sie Chain-of-Thought and ReAct (Reasoning + Acting) zur Entwicklung von Prompts und reduzieren Sie KI-Halluzination.

In Colab öffnen
Auf GitHub ansehen

Einbettungen

Vertex AI-Einbettungen für multimodale und Vektorsuche verwenden

Erstellen Sie Text-zu-Bild-Einbettungen mit dem DiffusionDB-Dataset und den Vertex AI-Einbettungen für multimodale Modelle. Die Einbettungen werden in den Vektorsuchdienst hochgeladen, eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren für große Mengen gefunden werden können.

In Colab öffnen
Auf GitHub ansehen

Einbettungen

Semantische Suche mit Einbettungen

Erstellen Sie eine aus Text generierte Einbettung und führen Sie eine semantische Suche durch. Die Einbettungen werden mithilfe von „Google ScaNN: Efficient Vector Similarity Search“ generiert.

In Colab öffnen
Auf GitHub ansehen

Bewertung

AutoSxS: LLM in Vertex AI Model Registry anhand eines Drittanbietermodells bewerten

Verwenden Sie Vertex AI Automatic Side-by-Side (AutoSxS), um die Leistung zwischen einem generativen KI-Modell in der Vertex AI-Modell-Registry und dem Sprachmodell eines Drittanbieters zu bewerten.

In Colab öffnen
Auf GitHub ansehen

Bewertung

AutoSxS: Abgleich des Autoscalings mit einem Dataset der menschlichen Präferenz prüfen

Verwenden Sie Vertex AI Automatic Side-by-Side (AutoSxS), um zu ermitteln, wie gut das Autoscaling mit den menschlichen Beurteilern übereinstimmt.

In Colab öffnen
Auf GitHub ansehen

Abstimmung

Bestärkendes Lernen durch menschliches Feedback in Vertex AI LLM

Mit Vertex AI RLHF ein Large Language Model (LLM) optimieren. Dieser Workflow verbessert die Accuracy eines Modells, wozu ein Basismodell mit einem Trainings-Dataset optimiert wird.

In Colab öffnen
Auf GitHub ansehen

Abstimmung

Vertex AI-Batch-Inferenz mit RLHF-optimierten Modellen

In dieser Anleitung wird gezeigt, wie Inferenz für RLHF-abgestimmte OSS-Large Language Models (LLMs) mit Vertex AI End-to-End durchgeführt wird.

In Colab öffnen
Auf GitHub ansehen

Einbettungen

Text Embedding API

Testen Sie die neuen Texteinbettungsmodelle.

In Colab öffnen
Auf GitHub ansehen

Abstimmung

Vertex AI: PEFT-Modell abstimmen

Abstimmung eines PEFT-Large Language Models und Vorhersagen machen. Dieser Workflow verbessert die Accuracy eines Modells, wozu ein Basismodell mit einem Trainings-Dataset optimiert wird.

In Colab öffnen
Auf GitHub ansehen

Text

Vertex AI SDK mit Large Language Models verwenden

Mit dem Vertex AI SDK Large Language Models in Vertex AI ausführen. Generative AI-Sprachmodelle testen, optimieren und bereitstellen Entdecken Sie Beispiele für die Zusammenfassung von Inhalten, die Sentimentanalyse, den Chat, die Einbettung von Texten und die Abstimmung der Eingabe.

In Colab öffnen
Auf GitHub ansehen

Datenspeicher indexiert Search and Conversation

Statusprüfung für den Vertex AI Search and Conversation-Datenspeicher

Vertex AI Search and Conversation Datastore Status Checker ist ein Notebook, das die Cloud Discovery Engine API verwendet, um einen Datenspeicher auf indexierte Dokumente zu prüfen. Der Nutzer kann damit folgende Aufgaben ausführen:

  • Prüfen Sie den Indexierungsstatus einer angegebenen Datenspeicher-ID.
  • Listen Sie alle Dokumente in einer bestimmten Datenspeicher-ID auf.
  • Listen Sie alle indexierten URLs für eine bestimmte Datenspeicher-ID auf.
  • In allen indexierten URLs nach einer bestimmten URL innerhalb einer bestimmten Datenspeicher-ID suchen.

In Colab öffnen
In GitHub öffnen

Spracherkennung mit Chirp

Erste Schritte mit Chirp in Google Cloud

Dieses Notebook ist eine Einführung in Chirp, einen Spracherkennungsdienst, der die hochmoderne Spracherkennungstechnologie von Google verwendet. Er bietet eine einfache und nutzerfreundliche Oberfläche für Entwickler zum Erstellen sprachbasierter Anwendungen.

In Colab öffnen
In GitHub öffnen

Metadatensuche filtern

Vertex AI Search mit Filtern und Metadaten

Vertex AI Search ist ein vollständig verwalteter Dienst, mit dem Sie Suchanwendungen in Google Cloud erstellen und bereitstellen können. Dieses Notebook zeigt, wie Sie Filter und Metadaten in Suchanfragen an Vertex AI Search verwenden.

In Colab öffnen
In GitHub öffnen

Dokument Question Answering Retrieval Augmented Generation

Fragen-und-Antworten-Dokument mit Retrieval Augmented Generation

Dieses Notebook zeigt, wie Sie mit Retrieval Augmented Generation (RAG) ein Question Answering-System für die Google-Dokumentation erstellen können. Es wird gezeigt, wie RAG verwendet wird, um Text zu generieren, der eine bestimmte Frage beantwortet, und wie Sie damit die Leistung eines Question Answering-Systems verbessern können.

In Colab öffnen
In GitHub öffnen

Vertragserstellung Abrufsuche

Retrieval Augmented Generation (Open Source-Vektorspeicher verwenden) – Procurement Contract Analyst – Palm2 & LangChain

Dieses Notebook zeigt, wie Sie mit Retrieval Augmented Generation Vertragstext generieren können. Es nutzt die Modelle Palm2 & LangChain, die mit großen Korpuss in rechtlicher und finanzieller Schrift vortrainiert wurden.

In Colab öffnen
In GitHub öffnen

Question Answering Retrieval Augmented Generation Suche LangChain

Fragen zu Dokumenten beantworten

Dieses Notebook zeigt, wie Sie Fragen zu Ihren Daten stellen und beantworten, indem Sie eine Vertex AI Search-Engine mit LLMs kombinieren. Insbesondere konzentrieren wir uns auf die Abfrage „unstrukturierter“ Daten wie PDFs und HTML-Dateien. Um dieses Notebook ausführen zu können, müssen Sie eine unstrukturierte Suchmaschine erstellt und PDF- oder HTML-Dokumente aufgenommen haben.

In Colab öffnen
In GitHub öffnen

Suche für Bulk-Question Answering für Vertex AI Search-Question Answering

Bulk-Question Answering mit Vertex AI Search beantworten

Dieses Notebook zeigt, wie Fragen aus einer CSV-Datei mit einem Vertex AI Search-Datenspeicher beantwortet werden. Er kann in Colab oder Vertex AI Workbench ausgeführt werden.

In Colab öffnen
In GitHub öffnen

Sprachorchestrierung LangChain PaLM

Erste Schritte mit LangChain 🦜🔗 + PaLM API

Dieses Notebook bietet eine Einführung in LangChain, einem Orchestrierungs-Framework für Sprache. Es wird gezeigt, wie LangChain mit der PaLM API verwendet wird, um ein Text-zu-Text-Generierungsmodell zu erstellen und bereitzustellen.

In Colab öffnen
In GitHub öffnen

BigQuery Data Loader LangChain

So verwenden Sie den LangChain 🦜🔗 BigQuery-Data Loader

Dieses Notebook zeigt, wie der LangChain BigQuery Data Loader verwendet wird, um Daten aus BigQuery in ein LangChain-Modell zu laden. Das Notebook bietet Schritt-für-Schritt-Anleitungen zum Einrichten des Daten-Loaders, zum Laden von Daten in das Modell und zum Trainieren des Modells.

In Colab öffnen
In GitHub öffnen

Code für Code-Generierung für Retrieval Augmented Generation Codey

Retrieval Augmented Generation (RAG) mit Codey APIs verwenden

Dieses Notebook zeigt, wie Retrieval Augmented Generation (RAG) mit Codey APIs verwendet wird. RAG ist eine Technik, die den Codeabruf mit der Codegenerierung kombiniert, um genauere und informativere Vorschläge zur Codevervollständigung zu erhalten.

In Colab öffnen
In GitHub öffnen

Codey Code-Generierung für Sprache

Erste Schritte mit den Vertex AI Codey APIs – Codegenerierung

Dieses Notebook bietet eine Einführung in die Vertex AI Codey APIs für die Codegenerierung. Es werden die Grundlagen der Verwendung der APIs erläutert, darunter das Erstellen und Bereitstellen von Modellen zur Codegenerierung und das Generieren von Code.

In Colab öffnen
In GitHub öffnen

Codey Codegenerierung für Code-Vervollständigung

Erste Schritte mit den Vertex AI Codey APIs – Codevervollständigung

Dieses Notebook zeigt, wie Sie die Vertex AI Codey APIs verwenden, um Vorschläge zur Codevervollständigung für Python-Code zu erhalten. Außerdem erfahren Sie, wie Sie mit den APIs Code-Snippets generieren und in einer Remoteumgebung ausführen.

In Colab öffnen
In GitHub öffnen

Codey Codechat Chat Code-Generierung für Textgenerierung

Erste Schritte mit den Vertex AI Codey APIs – Codechat

Dieses Notebook ist eine Einführung in die Vertex AI Codey APIs. Es werden die Grundlagen der Verwendung der APIs erläutert, darunter die Erstellung und Bereitstellung von Modellen sowie die Interaktion mit ihnen über die Codey-Befehlszeile.

In Colab öffnen
In GitHub öffnen

Sprache: PaLM Python SDK

Erste Schritte mit der PaLM API und Python SDK

Dieses Notebook bietet eine Einführung in die PaLM API und das Python SDK. Es werden die Grundlagen der Nutzung der API erläutert. Unter anderem erfahren Sie, wie Modelle erstellt und bereitgestellt werden. Außerdem erfahren Sie, wie Sie mit der API Text generieren, Sprachen übersetzen und verschiedene Arten von kreativen Inhalten schreiben können.

In Colab öffnen
In GitHub öffnen

Sprach-Prompts

Prompt-Design – Best Practices

Dieses Notebook bietet eine Einführung in das Prompt-Design für textbasierte Sprachmodelle. Es werden die Grundlagen der Prompts erläutert, einschließlich ihrer Funktionsweise und ihrer Erstellung. Das Notebook enthält auch Tipps zur Verbesserung Ihrer Prompts und zur Vermeidung häufiger Probleme.

In Colab öffnen
In GitHub öffnen

Textextraktion

Textextraktion mit generativen Modellen in Vertex AI

Dieses Notebook zeigt, wie Sie mithilfe von generativen Modellen Text aus Bildern extrahieren. Dabei wird das Text-zu-Bild-Modell aus der generative AI-Bibliothek von Vertex AI und das Text-Extraktionsmodell aus der Vertex AI-Textextraktionsbibliothek verwendet.

In Colab öffnen
In GitHub öffnen

Textklassifizierung

Textklassifizierung mit generativen Modellen in Vertex AI

Dieses Notebook zeigt, wie Sie generative Modelle verwenden, um eine Textklassifizierung in Vertex AI durchzuführen. Dabei werden die folgenden Themen behandelt: * Daten vorbereiten * Modell trainieren * Modell bereitstellen * Modell zur Klassifizierung von Text verwenden

In Colab öffnen
In GitHub öffnen

Chain-of-Thought: ReAct

Chain-of-Thought und ReAct

Dieses Notebook führt Chain-of-Thought und ReAct ein, zwei Tools, mit denen die Leistung des Algorithmus des Reinforcement Learning verbessert werden kann. Die Chain-of-Thought ist eine Technik, mit der die Effizienz der Wertiteration verbessert werden kann, während ReAct eine Technik ist, die verwendet werden kann, um die Stabilität nutzerkritischer Algorithmen zu verbessern.

In Colab öffnen
In GitHub öffnen

Sprache regt Ideenfindung an

Ideenfindung mit generativen Modellen in Vertex AI

Dieses Notebook zeigt, wie Sie mit generativen Modellen Text, Bilder und Code generieren. Außerdem erfahren Sie, wie Vertex AI zum Bereitstellen und Verwalten generativer Modelle verwendet wird.

In Colab öffnen
In GitHub öffnen

Zusammenfassung

Textzusammenfassung mit generativen Modellen in Vertex AI

Dieses Notebook zeigt, wie Sie mit Vertex AI ein Textzusammenfassungsmodell trainieren und bereitstellen. Dabei wird das BART-Modell verwendet, ein Large Language Model, das mit einem riesigen Text-Dataset vortrainiert wurde. Das Modell wird dann anhand eines Datasets von Textzusammenfassungen optimiert und kann dann zum Generieren von Zusammenfassungen für neuen Text verwendet werden.

In Colab öffnen
In GitHub öffnen

Question Answering

Question Answering mit generativen Modellen in Vertex AI

Dieses Notebook zeigt, wie generative Modelle verwendet werden, um Open-Domain-Fragen zu beantworten. Dabei wird das Vertex AI Transformer-Modell verwendet, um Text basierend auf einer bestimmten Frage zu generieren.

In Colab öffnen
In GitHub öffnen

Bereitstellung des Abstimmungs des Text-Generation-Modells

Grundlagenmodell abstimmen und bereitstellen

Dieses Notebook zeigt, wie Sie ein Foundation Model mit Vertex AI optimieren. Außerdem wird gezeigt, wie das feinabgestimmte Modell auf einem Vertex AI-Endpunkt bereitgestellt wird.

In Colab öffnen
In GitHub öffnen

Dokumentzusammenfassung Zusammenfassung

Textzusammenfassung großer Dokumente

Dieses Notebook zeigt, wie Sie mit dem großen t5-Modell große Dokumente zusammenfassen. Das Modell wird mit einem riesigen Text- und Code-Dataset trainiert und kann Zusammenfassungen generieren, die genau und prägnant sind.

In Colab öffnen
In GitHub öffnen

Dokumentzusammenfassung LangChain-Zusammenfassung

Textzusammenfassung von großen Dokumenten mit LangChain 🦜🔗

Dieses Notebook zeigt, wie das LangChain-Modell zum Zusammenfassen großer Dokumente verwendet wird. LangChain ist ein Large Language Model, mit dem Text generiert, Sprachen übersetzt, verschiedene Arten von kreativen Inhalten geschrieben und Fragen auf informative Weise beantwortet werden können.

In Colab öffnen
In GitHub öffnen

Dokumentzusammenfassung Document AI-Sprachmodellzusammenfassung Textzusammenfassung

Zusammenfassung mit großen Dokumenten unter Verwendung von Document AI und PaLM APIs

Dieses Notebook zeigt, wie Sie mit Document AI und PaLM APIs große Dokumente zusammenfassen. Außerdem erfahren Sie, wie Sie mit der Document AI API Entitäten und Schlüsselformulierungen aus einem Dokument extrahieren.

In Colab öffnen
In GitHub öffnen

Chatbot-Textgenerierung

GroceryBot, ein Beispielassistent für Lebensmittel und Rezepte – RAG und ReAct

Dieses Notebook bezieht sich auf einen Beispielassistenten für Lebensmittel und Rezepte, der RAG und ReAct verwendet. Mit ihm können Sie Rezepte suchen, Einkaufslisten erstellen und Antworten auf Fragen zu Lebensmitteln finden.

In Colab öffnen
In GitHub öffnen

Question Answering Dokument-QA LangChain

Question Answering mit großen Dokumenten mithilfe von LangChain 🦜🔗

Dieses Notebook zeigt, wie das LangChain-Modell zum Erstellen eines Question Answering-Systems verwendet wird, das Fragen zu langen Dokumenten beantworten kann. Das Modell wird mit einem großen Textkorpus trainiert und kann zur Beantwortung von Fragen zu jedem Thema verwendet werden.

In Colab öffnen
In GitHub öffnen

Question Answering Dokument-QA LangChain Vektorsuche

Question Answering mit Dokumenten mithilfe von LangChain 🦜🔗 und Vertex AI Vektorsuche

Dieses Notebook zeigt, wie LangChain und Vertex AI Vektorsuche (ehemals Matching Engine) zum Erstellen eines Question Answering-Systems für Dokumente verwendet werden. Das System kann Fragen zu Elementen, Datumsangaben und Zahlen in Dokumenten beantworten.

In Colab öffnen
In GitHub öffnen

Document AI Question Answering-PLM

Question Answering mit Dokumenten, Document AI, Pandas und PaLM beantworten

Dieses Notebook zeigt, wie Sie mit Document AI, Pandas und PaLM ein Question Answering-System erstellen. Zuerst wird Document AI verwendet, um strukturierte Daten aus einem Dokument zu extrahieren. Anschließend wird mit Pandas ein DataFrame aus den extrahierten Daten erstellt. Schließlich wird PaLM verwendet, um Antworten auf Fragen zu den Daten zu generieren.

In Colab öffnen
In GitHub öffnen

Question Answering Dokument-QA

Question Answering mit großen Dokumenten

Dieses Notebook zeigt, wie Sie mit dem Vertex AI-Question Answering- Dienst eineQuestion Answering-Modell erstellen, das Fragen aus großen Dokumenten beantworten kann. Das Modell wird mit einem Datensatz von Wikipedia-Artikeln trainiert und kann Fragen zu einer Vielzahl von Themen beantworten.

In Colab öffnen
In GitHub öffnen

Bilderstellung

Produktbeschreibungsgenerator aus Bild

Dieses Notebook zeigt, wie Sie mithilfe eines Text-zu-Bild-Modells Produktbeschreibungen aus Bildern generieren. Das Modell wird mit einem Dataset von Produktbildern und den zugehörigen Beschreibungen trainiert.

In Colab öffnen
In GitHub öffnen

Generation Einzelhandel LangChain

DescriptionGen: SEO-optimierte Produktbeschreibung für den Einzelhandel mit LangChain 🦜🔗

Dieses Notebook zeigt, wie das LangChain-Modell verwendet wird, um SEO-optimierte Produktbeschreibungen für den Einzelhandel zu generieren. Das Modell verwendet als Eingabe eine Liste von Produktattributen und gibt eine kurze Beschreibung aus, die die wichtigsten Features des Produkts hervorhebt.

In Colab öffnen
In GitHub öffnen

BigQuery DataFrames Textgenerierung

BigQuery DataFrames ML: Generierung von Arzneimittelnamen

Dieses Notebook zeigt, wie Sie mit BigQuery DataFrames ML Arzneimittelnamen generieren. Es wird ein vortrainiertes Sprachmodell verwendet, um Text zu generieren. Anschließend werden die Ergebnisse gefiltert, um bereits verwendete Arzneimittel zu entfernen.

In Colab öffnen
In GitHub öffnen

BigQuery DataFrames Codegenerierung

BigQuery DataFrames mit Generative AI für die Codegenerierung verwenden

Dieses Notebook zeigt, wie Sie BigQuery DataFrames mit generativer KI für die Codegenerierung verwenden. Sie erfahren, wie Sie mit einem vortrainierten Sprachmodell Code generieren, der eine BigQuery-Tabelle in einen Pandas DataFrame transformiert.

In Colab öffnen
In GitHub öffnen

BigQuery-Sprachmodell

Vertex AI LLMs mit Daten in BigQuery verwenden

Dieses Notebook zeigt, wie Vertex AI LLMs mit Daten in BigQuery verwendet werden. Sie erfahren, wie Sie Daten aus BigQuery laden, ein LLM-Modell erstellen und dann mit dem Modell Text anhand der Daten generieren.

In Colab öffnen
In GitHub öffnen

Visualisierung der Einbettungsähnlichkeit

Einbettungsähnlichkeit aus Textdokumenten mithilfe von t-SNE-Diagrammen visualisieren

Dieses Notebook zeigt, wie Sie die Einbettungsähnlichkeit von Textdokumenten mithilfe von t-SNE-Diagrammen visualisieren. Dabei wird ein Dataset mit Filmrezensionen aus dem [IMDB-Dataset](https://datasets.imdbws.com/) verwendet.

In Colab öffnen
In GitHub öffnen

Vektorsuche für Texteinbettungen

Erste Schritte mit Texteinbettungen und Vertex AI-Vektorsuche

Dieses Notebook bietet eine Einführung in Texteinbettungen und deren Verwendung mit Vertex AI Vektorsuche. Es werden die Grundlagen von Texteinbettungen erläutert, wie Sie sie trainieren und wie Sie sie für die Vektorsuche verwenden.

In Colab öffnen
In GitHub öffnen

Vektorsuche für Einbettungen

Vertex AI Vektorsuche: Kurzanleitung

Dieses Notebook ist eine Kurzanleitung zur Verwendung von Vertex AI Vektorsuche. Es werden die Grundlagen der Vektorsuche erläutert, einschließlich der Erstellung eines Vektorindex, des Hochladens von Daten in den Index und der Durchführung von Vektorsuchanfragen.

In Colab öffnen
In GitHub öffnen

Imagen 2-Bildgenerierung

Bildgenerierung mit Imagen in Vertex AI

In diesem Notebook sehen Sie sich die Features zur Bildgenerierung von Imagen mit dem Vertex AI SDK für Python an. Weitere Informationen zum Feature Bildgenerierung von Imagen

In Colab öffnen
In GitHub öffnen

Imagen 2-Bildgenerierung

Gemini 1.0 Pro-Textgenerierung

Gemini 1.0 Pro-Ausgabetextformatierung

Mit Imagen und Gemini 1.0 Pro qualitativ hochwertige visuelle Assets erstellen

In diesem Notebook erstellen Sie mit Imagen und Gemini 1.0 Pro hochwertige visuelle Assets für eine Restaurantkarte. Weitere Informationen zur Bildgenerierung und zu multimodalen Modellen

In Colab öffnen
In GitHub öffnen

Imagen 2: Bildbearbeitung

Mit der Bearbeitung von Imagen 2 und automatisch generierten Maskenbereichen hochwertige visuelle Assets erstellen

In diesem Notebook lernen Sie die Bildbearbeitungsfeatures von Imagen mit dem Vertex AI SDK für Python kennen.

In Colab öffnen
In GitHub öffnen

Imagen-Bild: VQA (Visual Question Answering)

VQA (Visual Question Answering) mit Imagen in Vertex AI

Dieses Notebook zeigt, wie Sie mit Imagen Bilder generieren, die bestimmte Fragen beantworten. Außerdem wird gezeigt, wie Sie ein Modell in Vertex AI bereitstellen und damit Bilder als Antwort auf von Nutzern bereitgestellte Fragen generieren.

In Colab öffnen
In GitHub öffnen

Imagen-Bilduntertitelung

Visuelle Untertitel mit Imagen in Vertex AI

Dieses Notebook zeigt, wie Sie mit Imagen, einem Large Language Model für die Bildgenerierung, Untertitel für Bilder generieren. Außerdem wird gezeigt, wie das Modell in Vertex AI bereitgestellt wird.

In Colab öffnen
In GitHub öffnen

Nächste Schritte