Informationen zu LLMs, Gemini-Modellen und Vertex AI

Large Language Models (LLM) sind Deep-Learning-Modelle, die mit riesigen Textdaten trainiert wurden. LLMs können Sprache übersetzen, Texte zusammenfassen, Objekte und Text in Bildern erkennen und Suchmaschinen und Empfehlungssysteme ergänzen.

Google bietet die Gemini-Familie von generativen KI-Modellen an, die für multimodale Anwendungsfälle entwickelt wurden und Informationen aus verschiedenen Modalitäten verarbeiten können, darunter Bilder, Videos und Text.

Weitere Lernressourcen finden Sie im GitHub-Repository für generative KI. Diese Inhalte werden von Google-Datenwissenschaftlern, Entwicklern und Developer Advocates verwaltet.

Jetzt starten

Hier sind einige Notebooks, Anleitungen und andere Beispiele, die Ihnen den Einstieg erleichtern. Vertex AI bietet Anleitungen für die Google Cloud Console und Jupyter-Notebook-Anleitungen, die das Vertex AI SDK für Python verwenden. Sie können eine Notebook-Anleitung in Colab öffnen oder das Notebook in Ihre bevorzugte Umgebung herunterladen.

Erste Schritte mit Gemini

Erste Schritte mit Gemini

Das Gemini-Modell ist ein bahnbrechendes multimodales Sprachmodell, das von Google AI entwickelt wurde und Informationen aus einer Vielzahl von Datenformaten wie Bildern und Videos extrahieren kann. Dieses Notebook untersucht verschiedene Anwendungsfälle mit multimodalen Prompts.

Jupyter-Notebook: Sie können diese Anleitung als Jupyter-Notebook ausführen.
In Colab ausführen | Auf GitHub ansehen

Erste Schritte mit Vertex AI Studio

Logo von GenAI Studio

Vertex AI Studio über die Google Cloud Console verwenden, ohne die API oder das Vertex AI SDK für Python

Auf GitHub ansehen

Best Practices für den Entwurf von Prompts

Logo von Model Garden

Sie erfahren, wie Sie Prompts entwerfen, mit denen Sie die Qualität Ihrer Antworten vom Modell verbessern. In dieser Anleitung werden die Grundlagen des Prompt Engineering beschrieben, einschließlich einiger Best Practices.

Jupyter-Notebook: Sie können diese Anleitung als Jupyter-Notebook ausführen.
In Colab ausführen | Auf GitHub ansehen

LangChain 🦜️🔗

LangChain ist ein Framework für die Entwicklung von Anwendungen, die auf LLMs wie den Gemini-Modellen basieren. Mit LangChain können Sie externe Daten wie Ihre Dateien, andere Anwendungen und API-Daten in Ihre LLMs einbinden.

Weitere Informationen zu LangChain und zur Funktionsweise mit Vertex AI finden Sie in der offiziellen Dokumentation zu LangChain und Vertex AI.

Multimodale Retrieval Augmented Generation (RAG) mit Gemini, Vektorsuche und LangChain

Multimodale Retrieval Augmented Generation (RAG) mit Gemini, Vektorsuche und LangChain

Retrieval Augmented Generation (RAG) ist mittlerweile eine beliebte Methode, LLMs Zugriff auf externe Daten zu ermöglichen, sowie ein Mechanismus für deren Fundierung, um Halluzinationen zu minimieren.

Hier erfahren Sie, wie Sie eine multimodale RAG ausführen, um Fragen zu einem Finanzdokument zu beantworten, das sowohl Text als auch Bilder enthält.

Jupyter-Notebook: Sie können diese Anleitung als Jupyter-Notebook ausführen.
In Colab ausführen | Auf GitHub ansehen

Generierung von Fragen und Antworten mithilfe von LangChain 🦜️🔗 und BigQuery-Vektorsuche ergänzen

Generierung von Fragen und Antworten mithilfe von LangChain 🦜️🔗 und BigQuery-Vektorsuche ergänzen

Hier erfahren Sie, wie Sie ein Question Answering-System (QA) implementieren, um die Antwort eines LLM zu verbessern, indem Sie das Wissen des LLM mit externen Datenquellen wie Dokumenten ergänzen. In diesem Beispiel werden Vertex AI Gemini 1.0 Pro für Text, die Embeddings for Text API, die BigQuery Vector Search und LangChain verwendet.

Jupyter-Notebook: Sie können diese Anleitung als Jupyter-Notebook ausführen.
In Colab ausführen | Auf GitHub ansehen

Nächste Schritte