Glossar zu generativer KI

  • agent
    • Im Kontext der generativen KI ist ein Agent eine Software, die eine Reihe von Aktionen zur Erreichung eines Ziels eigenständig plant und ausführt, möglicherweise in neuen Situationen. Agenten können in verschiedenen Anwendungen eingesetzt werden, z. B. in der Verarbeitung natürlicher Sprache, im maschinellen Lernen und in der Robotik. Ein LLM-Agent verwendet beispielsweise ein Sprachmodell, um die Umgebung zu bewerten und eine Aktion auszuwählen, mit der er sein Ziel erreichen kann. LLM-Agenten können verwendet werden, um Text zu generieren, Sprachen zu übersetzen und Fragen zu beantworten.
  • API-Endpunkte
    • API-Endpunkte sind ein Dienstkonfigurationsaspekt, mit dem die Netzwerkadressen, auch Dienstendpunkte, angegeben werden (z. B. aiplatform.googleapis.com).
  • Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC)
    • Mit Standardanmeldedaten für Anwendungen können Sie ganz einfach Autorisierungsanmeldedaten für den Aufruf von Google APIs abrufen. Sie eignen sich am besten für Fälle, in denen der Aufruf unabhängig vom Nutzer dieselbe Identität und Autorisierungsstufe für die Anwendung haben muss. Dies ist die empfohlene Methode, um Aufrufe von Google Cloud APIs zu autorisieren, insbesondere wenn Sie eine Anwendung erstellen, die auf virtuellen Maschinen der Google App Engine (GAE) oder der Compute Engine bereitgestellt wird. Weitere Informationen finden Sie unter Funktionsweise von Standardanmeldedaten für Anwendungen.
  • Annäherung an den nächsten Nachbarn (ANN)
    • Der ANN-Dienst (Approximate Nearest Neighbor) ist eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren (oder genauer gesagt „Einbettungen“) für einen großen Korpus gefunden werden können. Weitere Informationen finden Sie unter Vektorsuche für semantisches Matching verwenden.
  • artifact
    • Ein Artefakt ist eine einzelne Entität oder ein Datenelement, das von einem ML-Workflow erzeugt und genutzt wird. Beispiele für Artefakte sind Datasets, Modelle, Eingabedateien und Trainingslogs.
  • Artifact Registry
    • Artifact Registry ist ein universeller Artefaktverwaltungsdienst. Dies ist der empfohlene Dienst zum Verwalten von Containern und anderen Artefakten in Google Cloud. Weitere Informationen finden Sie unter Artifact Registry.
  • Künstliche Intelligenz (KI)
    • Künstliche Intelligenz (KI) ist die Erforschung und Entwicklung von Maschinen, die „intelligent“ erscheinen, d. h. die menschliche oder intellektuelle Funktionen wie mechanische Bewegung, Vernunft oder Problemlösung nachahmen. Eines der beliebtesten Teilgebiete der KI ist maschinelles Lernen, bei dem ein statistischer und datengestützter Ansatz zur Erstellung von KI verwendet wird. Einige Personen verwenden diese beiden Begriffe jedoch synonym.
  • Augmented Reality (AR)
    • Das Mischen von gerenderten digitalen Inhalten mit realen Inhalten, entweder über ein Display wie in einem Smartphone oder als Overlay auf die Welt, die durch Optiken wie Brillen gesehen wird. Die digitalen Inhalte sollten der Bewegung der Kamera oder der Brille folgen (je nachdem, wie die Szene gerendert wird), damit es so aussieht, als wären sie Teil der realen Welt.
  • authentication
    • Der Prozess der Überprüfung der Identität eines Clients (z. B. eines Nutzers oder eines anderen Prozesses), um auf ein gesichertes System zuzugreifen. Ein Client, der seine Identität nachgewiesen hat, wird als authentifiziert bezeichnet. Weitere Informationen finden Sie unter Authentifizierungsmethoden bei Google.
  • Automatic Side-by-Side (AutoSxS)
    • Automatic Side-by-Side (AutoSxS) ist ein modellgestütztes Bewertungstool, mit dem zwei Large Language Models (LLMs) nebeneinander verglichen werden. Mit AutoSxS kann die Leistung von generativen KI-Modellen in der Vertex AI Model Registry oder vorab generierten Vorhersagen bewertet werden. AutoSxS verwendet einen Autorater, um zu entscheiden, welches Modell die bessere Antwort auf einen Prompt liefert. AutoSxS ist auf Anfrage verfügbar und bewertet Sprachmodelle mit einer Leistung, die mit der von menschlichen Beurteilern vergleichbar ist.
  • Automatische Spracherkennung (ASR,Speech to Text)
    • Automatische Transkription gesprochener Sprache in Text.
  • AutoML
    • Algorithmen für maschinelles Lernen, die durch Black-Box-Optimierung „lernen, zu lernen“. Weitere Informationen finden Sie im Glossar zu KI.
  • autorater
    • Ein Autorater ist ein Sprachmodell, das die Qualität der Modellantworten anhand eines ursprünglichen Inferenz-Prompts bewertet. Sie wird in der AutoSxS-Pipeline verwendet, um die Vorhersagen von zwei Modellen zu vergleichen und festzustellen, welches Modell die beste Leistung erzielt hat. Weitere Informationen finden Sie unter Der automatische Rater.
  • baseline
    • Ein Modell, das als Referenzpunkt verwendet wird, um die Leistung eines anderen Modells (in der Regel eines komplexeren) zu vergleichen. Ein logistisches Regressionsmodell kann beispielsweise als gute Baseline für ein Deep-Learning-Modell dienen. Für ein bestimmtes Problem hilft die Baseline den Modellentwicklern, die minimale erwartete Leistung zu quantifizieren, die ein neues Modell erreichen muss, damit es nützlich ist. Weitere Informationen finden Sie unter Baseline- und Ziel-Datasets.
  • batch
    • Die Beispiele, die in einer Trainingsiteration verwendet werden. Die Batchgröße bestimmt die Anzahl der Beispiele in einem Batch.
  • Batchgröße
    • Die Anzahl der Beispiele in einem Batch. Die Batchgröße von SGD beträgt beispielsweise 1, während die Batchgröße eines Mini-Batches in der Regel zwischen 10 und 1.000 liegt. Die Batchgröße ist beim Training und bei der Inferenz in der Regel festgelegt. In TensorFlow sind jedoch dynamische Batchgrößen zulässig.
  • Batchvorhersage
    • Die Batchvorhersage gibt für eine Gruppe von Vorhersageanfragen und -ausgaben die Ergebnisse in einer einzelnen Datei aus. Weitere Informationen finden Sie unter Batchvorhersagen abrufen.
  • Voreingenommenheit
    • 1. Stereotypisierung, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erhebung und Interpretation von Daten, das Design eines Systems und die Interaktion der Nutzer mit einem System auswirken. 2. Systematischer Fehler, der durch Stichprobenerhebung oder Berichterstellung verursacht wird.
  • bidiretional
    • Ein Begriff, der ein System beschreibt, das den Text vor und nach einem Zieltextabschnitt auswertet. Ein einseitiges System hingegen wertet nur den Text aus, der einem Zieltextabschnitt vorausgeht.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT ist eine Methode zur Sprachdarstellung vor dem Training. Das bedeutet, dass wir ein allgemeines Modell für das „Verstehen natürlicher Sprache“ mit einem großen Textkorpus (z. B. Wikipedia) trainieren und dann dieses Modell für wichtige nachfolgende NLP-Aufgaben (z. B. Fragebeantwortung) verwenden. BERT übertrifft bisherige Methoden, da es das erste unüberwachte, tiefe bidirektionale System für das Vortraining von NLP ist.
  • Bilingual Evaluation Understudy (BLEU)
    • Ein beliebter Messwert zur Bewertung der Qualität eines Algorithmus für die maschinelle Übersetzung, bei dem die Ausgabe mit einer oder mehreren menschlichen Übersetzungen verglichen wird.
  • Steigerung
    • Beim Modelltraining: Boosting kann sich auf Methoden zur Datenerweiterung beziehen, mit denen die Größe und Vielfalt von Trainingsdatensätzen erhöht wird. Dazu werden vorhandene Beispiele transformiert, um zusätzliche, vielfältige Beispiele zu erstellen. Dies kann die Modellleistung verbessern, insbesondere wenn der ursprüngliche Datensatz begrenzt ist.
  • Begrenzungsrahmen
    • Ein Begrenzungsrahmen für ein Objekt im Videoframe kann auf zwei Arten angegeben werden (i) Mithilfe von zwei Eckpunkten, die aus einer Reihe von x- und y-Koordinaten bestehen, wenn sie diagonale gegenüberliegende Punkte des Rechtecks sind. Beispiel: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Mithilfe aller vier Eckpunkte. Weitere Informationen finden Sie unter Videodaten vorbereiten.
  • Bucket
    • Ordner der obersten Ebene für Cloud Storage. Bucket-Namen müssen für alle Cloud Storage-Nutzer eindeutig sein. Buckets enthalten Dateien. Weitere Informationen finden Sie unter Produktübersicht von Cloud Storage.
  • Chain-of-Thought
    • Bei der generativen KI ist die Gedankenkette (Chain of Thought, CoT) eine Prompt-Technik, die das Large Language Model (LLM) dazu anregt, seinen Denkprozess explizit zu beschreiben, bevor es zu einer Schlussfolgerung kommt. Dabei wird das Modell aufgefordert, die Zwischenschritte zur Lösung eines Problems aufzuzeigen, anstatt nur die endgültige Antwort zu liefern. Mit dieser Methode lässt sich die Leistung des LLM bei komplexen Inferenzaufgaben erheblich verbessern.
  • chat
    • Der Inhalt eines Dialogs mit einem ML-System, in der Regel einem Large Language Model. Die vorherige Interaktion in einem Chat (was Sie eingegeben haben und wie das Large Language Model geantwortet hat) wird zum Kontext für nachfolgende Teile des Chats. Ein Chatbot ist eine Anwendung eines Large Language Models.
  • Kontrollpunkt
    • Daten, die den Status der Parameter eines Modells entweder während des Trainings oder nach Abschluss des Trainings erfassen. Sie können beispielsweise während des Trainings Folgendes tun: 1. Das Training wird beendet, möglicherweise absichtlich oder aufgrund bestimmter Fehler. 2. Erfassen Sie den Prüfpunkt. 3. Laden Sie den Checkpoint später wieder, möglicherweise auf einer anderen Hardware. 4. Starten Sie das Training neu. In Gemini bezieht sich ein Checkpoint auf eine bestimmte Version eines Gemini-Modells, das auf einem bestimmten Datensatz trainiert wurde.
  • Klassifizierungsmodell
    • Ein Modell, dessen Vorhersage eine Klasse ist. Beispiele für Klassifizierungsmodelle: Ein Modell, das die Sprache eines Eingabesatzes vorhersagt (Französisch? Spanisch? Italienisch?). Ein Modell, das Baumarten vorhersagt (Ahorn? Eiche? Baobab?). Ein Modell, das die positive oder negative Klasse für eine bestimmte Erkrankung vorhersagt.
  • Klassifizierungsmesswerte
    • Unterstützte Klassifizierungsmesswerte im Vertex AI SDK für Python sind Wahrheitsmatrix und ROC-Kurve.
  • Cloud TPU
    • Ein spezieller Hardwarebeschleuniger, der Arbeitslasten für maschinelles Lernen in Google Cloud beschleunigt.
  • Clustering
    • Im Kontext der generativen KI ist Clustering eine unüberwachte Methode des maschinellen Lernens, mit der ähnliche Datenpunkte basierend auf ihren Merkmalen gruppiert werden. Dazu wird ein Ähnlichkeitsmaß (oder -messwert) zum Vergleichen von Datenpunkten definiert und die Datenpunkte mit hoher Ähnlichkeit in denselben Cluster gruppiert. Bei Anwendungen mit generativer KI kann dies das Clustern von Einbettungen (numerische Darstellungen von Text, Bildern oder anderen Daten) umfassen, um Aufgaben wie Suche, Klassifizierung oder Ausreißererkennung auszuführen. So kann beispielsweise eine Kundensegmentierung durch Clustering von Kundendaten erfolgen, um Gruppen mit ähnlichen Verhaltensweisen oder Merkmalen zu identifizieren. Weitere Informationen finden Sie unter Was ist Clustering?
  • Container-Image
    • Ein Container-Image ist ein Paket, das den ausführbaren Code der Komponente und eine Definition der Umgebung enthält, in der der Code ausgeführt wird. Weitere Informationen finden Sie unter Benutzerdefiniertes Training.
  • context
    • Mit einem Kontext werden Artefakte und Ausführungen in einer einzigen, abfragbaren und typisierten Kategorie zusammengefasst. Kontexte können zur Darstellung von Metadaten verwendet werden. Ein Beispiel für einen Kontext wäre die Ausführung einer Pipeline für maschinelles Lernen.
  • Kontext-Cache
    • Ein Kontext-Cache in Vertex AI ist eine große Datenmenge, die in mehreren Anfragen an ein Gemini-Modell verwendet werden kann. Die im Cache gespeicherten Inhalte werden in der Region gespeichert, in der die Anfrage zum Erstellen des Caches erfolgt. Es kann sich um beliebige MIME-Typen handeln, die von multimodalen Gemini-Modellen unterstützt werden, z. B. Text, Audio oder Video. Weitere Informationen finden Sie unter Kontext-Caching – Übersicht.
  • context window
    • Die Anzahl der Tokens, die ein Modell in einem bestimmten Prompt verarbeiten kann. Je größer das Kontextfenster ist, desto mehr Informationen kann das Modell verwenden, um kohärente und konsistente Antworten auf den Prompt zu geben.
  • Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer Managed Encryption Keys, CMEK)
    • Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) sind Integrationen, mit denen Kunden Daten in vorhandenen Google-Diensten mit einem Schlüssel verschlüsseln können, den sie in Cloud KMS (alias Storky) verwalten. Der Schlüssel in Cloud KMS ist der Schlüsselverschlüsselungsschlüssel, der seine Daten schützt. Weitere Informationen finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK).
  • Datenanalyse
    • Daten durch Stichproben, Messungen und Visualisierungen besser verstehen Die Datenanalyse kann besonders nützlich sein, wenn ein Datensatz zum ersten Mal empfangen wird, bevor das erste Modell erstellt wird. Außerdem ist es wichtig, um Tests zu verstehen und Probleme mit dem System zu beheben.
  • Datenergänzung
    • Die Bandbreite und Anzahl der Trainingsbeispiele wird künstlich erhöht, indem vorhandene Beispiele umgewandelt werden, um zusätzliche Beispiele zu erstellen. Angenommen, Bilder sind eine Ihrer Funktionen, Ihr Dataset enthält aber nicht genügend Bildbeispiele, damit das Modell nützliche Verknüpfungen lernen kann. Idealerweise fügen Sie Ihrem Datensatz genügend mit Labels versehene Bilder hinzu, damit Ihr Modell richtig trainiert werden kann. Ist das nicht möglich, können Sie mithilfe der Datenaugmentation jedes Bild drehen, strecken und spiegeln, um viele Varianten des Originalbilds zu erstellen. So erhalten Sie möglicherweise genügend beschriftete Daten, um ein hervorragendes Training zu ermöglichen.
  • DataFrame
    • Ein beliebter Pandas-Datentyp zur Darstellung von Datasets im Arbeitsspeicher. Ein DataFrame ist analog zu einer Tabelle oder einer Tabellenkalkulation. Jede Spalte eines DataFrames hat einen Namen (eine Überschrift) und jede Zeile wird durch eine eindeutige Nummer identifiziert.Jede Spalte in einem DataFrame ist wie ein 2D-Array strukturiert, mit der Ausnahme, dass jeder Spalte ein eigener Datentyp zugewiesen werden kann.
  • Datenindexierung
    • Im Kontext der generativen KI bezeichnet die Datenindexierung das Strukturieren und Organisieren einer Wissensdatenbank, um die Suche und den Abruf zu optimieren. Dazu wird ein Index erstellt, der oft als Corpus bezeichnet wird und eine effiziente Suche in den Daten ermöglicht. Dieser Vorgang ist unabhängig von der Erstellung des Korpus. Die indexierten Daten können verwendet werden, um den Kontext von Large Language Models (LLMs) zu bereichern, Halluzinationen zu reduzieren und die Genauigkeit der Antworten zu verbessern. Im Kontext einer Website kann die Datenindexierung beispielsweise das Hinzufügen von Metadaten wie „Datum der Veröffentlichung“ und „Datum der Änderung“ zur Verbesserung der Suchfunktion beinhalten. Es gibt verschiedene Methoden zum Indexieren von Daten, einschließlich der Verwendung der Vektorsuche für die Ähnlichkeitssuche in Anwendungen wie dem Abrufen relevanter Informationen für LLMs bei der Abfrage. Weitere Informationen finden Sie unter RAG Engine-Übersicht .
  • Datenaufnahme
    • Bei der Datenaufnahme werden Daten aus verschiedenen Quellen extrahiert und an einem zentralen Ort für die weitere Verarbeitung und Analyse zusammengeführt. Im Kontext der generativen KI umfasst die Datenaufnahme das Extrahieren von Informationen aus verschiedenen Datenquellen wie klinischen Formularen, Patientenakten oder unstrukturiertem Text, um generative KI-Modelle zu trainieren und zu optimieren. Die aufgenommenen Daten werden in der Regel verarbeitet und transformiert, um ihre Qualität und Konsistenz zu gewährleisten, bevor sie zum Trainieren der generativen KI-Modelle verwendet werden. Dieser Prozess kann die Datenbereinigung, das Feature Engineering und die Datenerweiterung umfassen, um die Leistung und Generalisierungsfähigkeiten des Modells zu verbessern. Weitere Informationen finden Sie unter Generative AI zur Auslastungsverwaltung verwenden.
  • Datenparallelität
    • Eine Methode zum Skalieren von Training oder Inferenz, bei der ein vollständiges Modell auf mehreren Geräten repliziert und dann jeweils ein Teil der Eingabedaten an jedes Gerät übergeben wird. Mit Datenparallelität können Sie Modelle mit sehr großen Batchgrößen trainieren und darauf basierende Vorhersagen treffen. Voraussetzung dafür ist jedoch, dass das Modell klein genug ist, um auf allen Geräten zu laufen. Datenparallelität beschleunigt in der Regel das Training und die Inferenz.
  • Dataset (Datensatz)
    • Ein Dataset ist allgemein als eine Sammlung strukturierter oder unstrukturierter Datensätze definiert. Eine Sammlung von Rohdaten, die in der Regel (aber nicht ausschließlich) in einem der folgenden Formate organisiert ist: Tabelle oder Datei im CSV-Format (Comma Separated Values). Weitere Informationen finden Sie unter Dataset erstellen.
  • Datentransformation
    • Im Kontext der Retrieval-Augmented Generation (RAG) bezieht sich die Datentransformation auf die Umwandlung von Daten in ein Format, das für die Indexierung und Verarbeitung durch ein LLM geeignet ist. Dazu müssen die Daten oft in kleinere Blöcke aufgeteilt werden, damit sie für das Einbetten und Indexieren überschaubar sind. Andere Transformationen können Bereinigungs- und Validierungsschritte zur Gewährleistung der Datenqualität umfassen. Weitere Informationen finden Sie unter RAG Engine-Übersicht.
  • Decoder
    • Im Allgemeinen jedes ML-System, das von einer verarbeiteten, dichten oder internen Darstellung in eine eher rohe, spärliche oder externe Darstellung konvertiert. Decoder sind oft Teil eines größeren Modells, in dem sie häufig mit einem Encoder kombiniert werden. Bei Sequenz-zu-Sequenz-Aufgaben beginnt ein Decoder mit dem vom Encoder generierten internen Status, um die nächste Sequenz vorherzusagen.
  • Deep Neural Network (DNN)
    • Ein neuronales Netzwerk mit mehreren verborgenen Schichten, das in der Regel mit Deep-Learning-Techniken programmiert wird.
  • depth
    • Die Summe der folgenden Elemente in einem neuronalen Netzwerk: 1. Anzahl der verborgenen Schichten, 2. Anzahl der Ausgabeschichten (in der Regel eine) und 3. Anzahl der Einbettungsschichten. Ein neuronales Netzwerk mit fünf verborgenen Schichten und einer Ausgabeschicht hat beispielsweise eine Tiefe von 6. Die Eingabeebene hat keine Auswirkungen auf die Tiefe.
  • DevOps
    • DevOps ist eine Suite von Google Cloud-Produkten, z. B. Artifact Registry und Cloud Deploy.
  • vorzeitiges Beenden
    • Eine Methode zur Regularisierung, bei der das Training beendet wird, bevor der Trainingsverlust vollständig abnimmt. Beim vorzeitigen Beenden wird das Training des Modells absichtlich beendet, wenn der Verlust in einem Validierungsdatensatz zunimmt, d. h. wenn sich die Generalisierungsleistung verschlechtert.
  • Einbettung
    • Numerische Darstellungen von Wörtern oder Textabschnitten. Diese Zahlen erfassen die semantische Bedeutung und den Kontext des Texts. Ähnliche oder verwandte Wörter oder Text haben in der Regel ähnliche Einbettungen. Das bedeutet, dass sie im hochdimensionalen Vektorbereich näher beieinander liegen.
  • Embedding Space (Latent Space)
    • Bei der generativen KI bezieht sich der Einbettungsraum auf eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Modelle für maschinelles Lernen, insbesondere generative KI-Modelle, sind gut darin, diese Embeddings zu erstellen, indem sie Muster in großen Datensätzen erkennen. Anwendungen können Einbettungen verwenden, um Sprache zu verarbeiten und zu generieren, wobei komplexe Bedeutungen und semantische Beziehungen erkannt werden, die für die Inhalte spezifisch sind.
  • Embedding-Vektor
    • Eine dichte, oft niedrigdimensionale Vektordarstellung eines Elements. Wenn also zwei Elemente semantisch ähnlich sind, befinden sich ihre jeweiligen Einbettungen im Einbettungsvektorbereich nahe beieinander.
  • Encoder
    • Im Allgemeinen jedes ML-System, das von einer Roh-, spärlichen oder externen Darstellung in eine stärker verarbeitete, dichtere oder internere Darstellung konvertiert. Encoder sind oft Teil eines größeren Modells, in dem sie häufig mit einem Decoder kombiniert werden. Einige Transformatoren kombinieren Encoder mit Decodern, andere verwenden nur den Encoder oder nur den Decoder. Bei einigen Systemen wird die Ausgabe des Encoders als Eingabe für ein Klassifizierungs- oder Regressionsnetzwerk verwendet. Bei Sequenz-zu-Sequenz-Aufgaben nimmt ein Encoder eine Eingabesequenz und gibt einen internen Status (einen Vektor) zurück. Der Decoder verwendet dann diesen internen Status, um die nächste Sequenz vorherzusagen.
  • Ensemble
    • Eine Sammlung unabhängig trainierter Modelle, deren Vorhersagen gemittelt oder aggregiert werden. In vielen Fällen liefert ein Ensemble bessere Vorhersagen als ein einzelnes Modell. Ein Random Forest ist beispielsweise ein Ensemble, das aus mehreren Entscheidungsbäumen besteht. Hinweis: Nicht alle Entscheidungsbäume sind Ensembles.
  • Umgebung
    • Bei der Verstärkungslernen ist das die Welt, die den Agenten enthält und es ihm ermöglicht, den Zustand dieser Welt zu beobachten. Die dargestellte Welt kann beispielsweise ein Spiel wie Schach oder eine physische Welt wie ein Labyrinth sein. Wenn der Agent eine Aktion auf die Umgebung anwendet, wechselt die Umgebung zwischen den Status.
  • evaluation (eval)
    • Eine Bewertung (Eval, kurz für „Evaluation“) ist eine Art von Test, bei dem protokollierte oder synthetische Suchanfragen über zwei Suchstacks gesendet werden: einen experimentellen Stack mit Ihrer Änderung und einen Basisstack ohne Ihre Änderung. Bewertungen liefern Unterschiede und Messwerte, mit denen Sie die Auswirkungen, Qualität und andere Effekte Ihrer Änderung auf die Suchergebnisse und andere Teile der Google-Nutzererfahrung bewerten können. Bewertungen werden bei der Optimierung oder Iteration Ihrer Änderung verwendet. Sie werden auch verwendet, wenn eine Änderung am Traffic von echten Nutzern eingeführt wird.
  • Ausführung
    • Eine Ausführung ist ein Datensatz eines einzelnen Workflows für maschinelles Lernen, der normalerweise mit seinen Laufzeitparametern annotiert ist. Beispiele für Ausführungen sind Datenaufnahme, Datenvalidierung, Modelltraining, Modellbewertung und Modellbereitstellung.
  • F1-Wert
    • Der F1-Wert ist ein Messwert, mit dem die Genauigkeit der Ausgabe eines Modells bewertet wird. Er eignet sich besonders gut zur Beurteilung der Leistung von Modellen bei Aufgaben, bei denen sowohl Precision als auch Recall wichtig sind, z. B. bei der Informationsextraktion. Bei Modellen für generative KI kann der F1-Wert verwendet werden, um die Vorhersagen des Modells mit Ground-Truth-Daten zu vergleichen und so die Genauigkeit des Modells zu bestimmen. Für generative Aufgaben wie Zusammenfassung und Textgenerierung sind jedoch andere Messwerte wie der Rough-L-Wert möglicherweise besser geeignet.
  • Feature
    • Beim maschinellen Lernen (ML) ist ein Feature ein Merkmal oder Attribut einer Instanz oder Entität, das als Eingabe zum Trainieren eines ML-Modells oder für Vorhersagen verwendet wird.
  • Merkmale extrahieren
    • Im Kontext der generativen KI bezieht sich die Feature-Extraktion auf den Prozess, relevante Features aus Eingabedaten zu identifizieren und auszuwählen, die für das Modelltraining verwendet werden sollen. Anhand dieser Merkmale werden dann neue Daten generiert, die der ursprünglichen Eingabe ähneln. Bei der Bildgenerierung kann die Merkmalsextraktion beispielsweise das Erkennen von Kanten, Texturen und Farben umfassen. Bei der Verarbeitung natürlicher Sprache kann es sich um das Extrahieren von Keywords, Wortgruppen und grammatischen Strukturen handeln. Die extrahierten Merkmale werden dann vom generativen Modell verwendet, um neue Inhalte zu erstellen.
  • Bereitstellung von Features
    • Das Bereitstellen von Features ist der Export oder Abruf von Featurewerten für Training oder Inferenz. In Vertex AI gibt es zwei Arten der Bereitstellung von Features: Onlinebereitstellung und Offlinebereitstellung. Bei der Onlinebereitstellung werden die neuesten Featurewerte einer Teilmenge der Feature-Datenquelle für Onlinevorhersagen abgerufen. Bei der Offline- oder Batchbereitstellung werden große Mengen von Featuredaten – einschließlich Verlaufsdaten – für die Offlineverarbeitung exportiert, z. B. für das ML-Modelltraining.
  • Featureansicht
    • Eine Featureansicht ist eine logische Sammlung von Features, die aus einer BigQuery-Datenquelle in eine Onlinespeicher-Instanz materialisiert werden. In einer Featureansicht werden die Feature-Daten des Kunden gespeichert und regelmäßig aus der BigQuery-Quelle aktualisiert. Eine Featureansicht ist dem Featuredatenspeicher entweder direkt oder über Verknüpfungen zu Feature Registry-Ressourcen zugeordnet.
  • Few-Shot-Prompt (Few-Shot)
    • In der generativen KI bezieht sich „Few-Shot“ auf eine Art von Prompt, der eine kleine Anzahl von Beispielen enthält, um die Antwort des Modells zu steuern. Anhand dieser Beispiele kann das Modell das gewünschte Ausgabeformat, die Formulierung, den Geltungsbereich oder das allgemeine Muster der Antwort verstehen. Few-Shot-Prompts werden häufig verwendet, um die Ausgabe von Sprachmodellen zu regulieren und dafür zu sorgen, dass sie Antworten generieren, die korrekt, hochwertig und den Erwartungen der Nutzer entsprechen. Durch die Bereitstellung einiger relevanter Beispiele kann der Nutzer das Verhalten des Modells beeinflussen und zufriedenstellendere Ergebnisse erzielen. Weitere Informationen finden Sie unter Few-Shot-Beispielen einfügen.
  • Grundlagenmodell (FM)
    • Modelle, die mit einer breiten Datenbasis trainiert werden, sodass sie an eine Vielzahl von Downstream-Aufgaben angepasst werden können (z. B. optimiert werden).
  • Foundation Model Operations (FMOPs)
    • FMOps erweitert die Funktionen von MLOps und konzentriert sich auf die effiziente Produktionsumstellung von vortrainierten (von Grund auf trainierten) oder benutzerdefinierten (optimierten) FMs.
  • Gemini
    • Gemini ist eine Reihe von großen sequenzbasierten multimodalen Modellen von Google. Das bedeutet, dass sie Eingaben akzeptieren und Ausgaben in mehreren Medien gleichzeitig generieren können, einschließlich Text, Audio und visueller Medien. Sie sind für die Einbindung in Bots konzipiert, die verschiedene Aufgaben ausführen können. Weitere Informationen finden Sie unter Google-Modelle.
  • Generalisierung
    • Die Fähigkeit eines Modells, korrekte Vorhersagen für neue, bisher nicht gesehene Daten zu treffen. Ein Modell, das generalisieren kann, ist das Gegenteil eines Modells, das überangepasst ist.
  • Generation
    • Im Kontext der generativen KI bezieht sich „Generierung“ auf den Prozess, mit dem neue Daten oder Inhalte aus vorhandenen Daten oder Informationen erstellt werden. Modelle für generative KI werden anhand großer Datensätze trainiert und können Muster und Beziehungen in den Daten lernen. Anhand dieses Wissens können sie dann neue und einzigartige Inhalte generieren, die den Trainingsdaten ähneln, aber keine exakte Kopie sind. Weitere Informationen finden Sie unter https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
  • generatives Modell
    • Eine Art von Modell für maschinelles Lernen, das anhand seiner Trainingsdaten neue Ergebnisse erstellen kann. Im einfachsten Fall generiert das Modell neue Daten, die einer bestimmten Gruppe von Kategorien ähneln, mit denen es trainiert wurde. In der Regel werden damit Large Language Models bezeichnet, aber auch andere Arten von Modellen können generative Modelle sein.
  • Google Embedded Modem System (GEMS)
    • GEMS ist ein eingebettetes Software-Framework für Modems und eine zugehörige Reihe von Entwicklungsabläufen und ‑infrastrukturen. Das Hauptziel von GEMS ist es, hochwertigen Modemsystemcode mit hoher Wiederverwendbarkeit für viele Google-Geräte mit Modems bereitzustellen. Um dieses umfassende Ziel zu erreichen, bietet GEMS eine umfassende Umgebung für Entwickler, die aus den unten dargestellten Hauptbausteinen besteht.
  • Gradient
    • Der Vektor der partiellen Ableitungen in Bezug auf alle unabhängigen Variablen. Beim maschinellen Lernen ist der Gradient der Vektor der partiellen Ableitungen der Modellfunktion. Die Steigung zeigt in Richtung des steilsten Anstiegs.
  • Diagramm
    • Im Kontext der generativen KI bezieht sich ein Graph auf eine strukturierte Darstellung von Informationen, die Daten als Netzwerk von Knoten und Kanten organisiert und verbindet. Diese Graphen werden häufig verwendet, um Wissen und Beziehungen zwischen Entitäten darzustellen. Sie sind daher besonders nützlich für generative KI-Systeme, die ein tiefes Verständnis des Kontexts und der Beziehungen innerhalb von Daten erfordern. GenAI-Systeme, die Knowledge Graphs nutzen, können diese zur Verbesserung der Leistung von Abrufmodellen verwenden. Durch die Einbindung von Knowledge Graphs in das System kann die generative KI auf kontextreiche Daten zugreifen und den Graphen durchsuchen, um anhand von Nutzeranfragen relevante Teilgraphen abzurufen. So kann das System genauere und informativere Antworten liefern, indem es kontextbezogene Inhalte generiert.
  • Ground Truth (GT)
    • Ground Truth ist ein Begriff, der in verschiedenen Bereichen verwendet wird, um sich auf die absolute Wahrheit eines Entscheidung- oder Messproblems zu beziehen, im Gegensatz zur Schätzung eines Systems. Im Bereich maschinelles Lernen bezieht sich der Begriff „Ground Truth“ auf den Trainingssatz für Techniken des überwachten Lernens.
  • Halluzination
    • Eine Halluzination bei generativer KI ist eine selbstbewusste Antwort einer KI, die nicht durch ihre Trainingsdaten gerechtfertigt werden kann. Die Inhalte sind sachlich falsch. Im Kontext der Textgenerierung sind das plausible, zufällige Falschinformationen im generierten Textinhalt.
  • Heuristiken
    • Eine einfache und schnell implementierte Lösung für ein Problem. Beispiel: „Mit einer Heuristik haben wir eine Genauigkeit von 86% erreicht. Nach der Umstellung auf ein Deep-Learning-Netzwerk stieg die Genauigkeit auf 98 %.“
  • versteckte Schicht
    • Eine Schicht in einem neuronalen Netzwerk zwischen der Eingabeschicht (den Features) und der Ausgabeschicht (der Vorhersage). Jede versteckte Schicht besteht aus einem oder mehreren Neuronen. Ein Deep-Learning-Netzwerk enthält mehr als eine verborgene Schicht.
  • histogram
    • Eine grafische Darstellung der Variation in einem Satz von Daten mithilfe von Balken. Ein Histogramm visualisiert Muster, die in einer einfachen Zahlentabelle schwer zu erkennen sind.
  • Hyperparameter
    • Ein Hyperparameter ist eine Variable, die den Trainingsprozess eines Modells für maschinelles Lernen steuert. Zu diesen Variablen können Lernraten, Momentum-Werte im Optimierer und die Anzahl der Einheiten in der letzten verborgenen Schicht eines Modells gehören. Bei der Hyperparameter-Abstimmung in Vertex AI werden mehrere Tests einer Trainingsanwendung mit unterschiedlichen Werten für die ausgewählten Hyperparameter innerhalb der angegebenen Limits ausgeführt. Ziel ist es, die Hyperparametereinstellungen zu optimieren, um die Vorhersagegenauigkeit des Modells zu maximieren. Weitere Informationen finden Sie unter Übersicht zur Hyperparameter-Abstimmung.
  • Bilder
    • Imagen ist ein generativer KI-Dienst für die Text-zu-Bild-Generierung, der über die Vertex AI-Plattform verfügbar ist. Nutzer können damit neue Bilder erstellen, Bilder bearbeiten, Stil- oder Motivmodelle optimieren, Bilder mit Untertiteln versehen oder Antworten auf Fragen zu Bildinhalten erhalten. Weitere Informationen finden Sie in der Übersicht zu Imagen in Vertex AI.
  • Bilderkennung
    • Bei der Bilderkennung werden Objekte, Muster oder Konzepte in einem Bild klassifiziert. Sie wird auch als Bildklassifizierung bezeichnet. Die Bilderkennung ist ein Teilgebiet des maschinellen Lernens und der Computer Vision.
  • index
    • Eine Sammlung von Vektoren, die gemeinsam für die Ähnlichkeitssuche bereitgestellt werden. Vektoren können einem Index hinzugefügt oder aus einem Index entfernt werden. Ähnlichkeitssuchanfragen werden für einen bestimmten Index ausgegeben und suchen über die Vektoren in diesem Index.
  • Inferenz
    • Im Kontext der Vertex AI-Plattform bezieht sich die Inferenz auf den Prozess, bei dem Datenpunkte einem Modell für maschinelles Lernen zugeführt werden, um eine Ausgabe zu berechnen, z. B. einen einzelnen numerischen Wert. Dieser Vorgang wird auch als „Operationalisieren eines ML-Modells“ oder „Überführen eines ML-Modells in die Produktion“ bezeichnet. Die Inferenz ist ein wichtiger Schritt im Workflow für maschinelles Lernen, da mithilfe von Modellen Vorhersagen für neue Daten getroffen werden können. In Vertex AI können Inferenzen auf verschiedene Arten durchgeführt werden, z. B. mit Batch- und Onlinevorhersagen. Bei der Batchvorhersage werden eine Gruppe von Vorhersageanfragen ausgeführt und die Ergebnisse in einer Datei ausgegeben. Bei der Onlinevorhersage sind Echtzeitvorhersagen für einzelne Datenpunkte möglich.
  • Information Retrieval (IR)
    • Die Informationsgewinnung ist eine wichtige Komponente von Vertex AI Search. Dabei werden relevante Informationen aus einer großen Datenmenge gefunden und abgerufen. Im Kontext von Vertex AI werden mithilfe der IR Dokumente aus einem Korpus basierend auf der Suchanfrage eines Nutzers abgerufen. Vertex AI bietet eine Reihe von APIs, mit denen Sie eigene Retrieval Augmented Generation (RAG)-Anwendungen oder Suchmaschinen erstellen können. Weitere Informationen finden Sie unter Vertex AI Search als Abruf-Backend mit RAG-Engine verwenden.
  • Lernrate (Schrittweite)
    • Die Lernrate ist ein Hyperparameter, mit dem der Optimierungsprozess eines Modells für maschinelles Lernen angepasst wird. Sie bestimmt die Schrittgröße, mit der das Modell seine Gewichtungen während des Trainings aktualisiert. Eine höhere Lernrate kann zu einer schnelleren Konvergenz führen, aber auch zu Instabilität oder Überanpassung. Umgekehrt kann eine niedrigere Lernrate zu einer langsameren Konvergenz führen, aber Überanpassung verhindern. Weitere Informationen finden Sie in der Übersicht zur Hyperparameter-Abstimmung.
  • Verlust (Kosten)
    • Während des Trainings eines überwachten Modells gibt dieser Wert an, wie weit die Vorhersage eines Modells von seinem Label entfernt ist. Mit einer Verlustfunktion wird der Verlust berechnet.
  • Verwaltetes Dataset
    • Ein Dataset-Objekt, das von Vertex AI erstellt und gehostet wird.
  • model
    • Alle Modelle, vortrainiert oder nicht. Im Allgemeinen jedes mathematische Konstrukt, das Eingabedaten verarbeitet und eine Ausgabe zurückgibt. Mit anderen Worten: Ein Modell ist die Kombination aus Parametern und Struktur, die ein System für Vorhersagen benötigt.
  • Modelldestillation (Wissensdestillation, Lehrer-Schüler-Modelle)
    • Die Modelldestillation ist ein Verfahren, mit dem ein kleineres Schülermodell von einem größeren Lehrermodell lernen kann. Das Schülermodell wird darauf trainiert, die Ausgabe des Lehrermodells nachzuahmen. Es kann dann verwendet werden, um neue Daten zu generieren oder Vorhersagen zu treffen. Die Modelldestillation wird häufig verwendet, um große Modelle effizienter zu machen oder sie für Geräte mit begrenzten Ressourcen zugänglicher zu machen. Außerdem kann es verwendet werden, um die Generalisierung von Modellen zu verbessern, indem Überanpassungen reduziert werden.
  • Modellressourcenname
    • Der Ressourcenname für eine model ist: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Sie finden die Modell-ID in der Cloud Console auf der Seite „Modell-Registry“.
  • Network File System (NFS)
    • Ein Client/Server-System, mit dem Nutzer über ein Netzwerk auf Dateien zugreifen und sie so behandeln können, als befänden sie sich in einem lokalen Dateiverzeichnis.
  • One-Hot-Codierung
  • One-Shot-Prompt
    • Ein Prompt mit einem Beispiel, das zeigt, wie das Large Language Model reagieren soll. Weitere Informationen finden Sie unter One-Shot-Prompt.
  • parameter
    • Parameter sind Schlüsseleingabewerte, die eine Ausführung konfigurieren, das Verhalten der Ausführung steuern und die Ergebnisse der Ausführung beeinflussen. Beispiele sind die Lernrate, die Abbruchrate und die Anzahl der Trainingsschritte.
  • Verwirrung
    • Die Perplexität ist ein Messwert, mit dem die Leistung von Sprachmodellen bewertet wird. Sie misst, wie wahrscheinlich es ist, dass das Modell eine bestimmte Textsequenz generiert, basierend auf der Verteilung des Texts, mit dem es trainiert wurde. Die Perplexität ist ein häufig verwendeter Messwert zur Bewertung von Sprachmodellen. Sie wird oft verwendet, um die Leistung verschiedener Modelle zu vergleichen oder den Fortschritt eines Modells während des Trainings zu verfolgen.
  • Pipeline
  • Pipelinejob
    • Ein Pipelinejob oder eine Pipelineausführung entspricht der PipelineJob-Ressource in der Vertex AI API. Es ist eine Ausführungs-Instanz Ihrer ML-Pipeline-Definition, die als Reihe von ML-Aufgaben definiert ist, die durch Eingabe-/Ausgabeabhängigkeiten miteinander verbunden sind.
  • Pipelineausführung
    • Ein oder mehrere Vertex PipelineJobs können mit einem Test verknüpft werden, wobei jeder PipelineJob als einzelne Ausführung dargestellt wird. In diesem Kontext werden die Parameter der Ausführung von den Parametern des PipelineJobs abgeleitet. Die Messwerte werden aus den von diesem PipelineJob generierten system.Metric-Artefakten abgeleitet. Die Artefakte der Ausführung werden aus Artefakten abgeleitet, die von diesem PipelineJob erstellt werden.
  • Zugriff auf private Dienste
    • Der Zugriff auf private Dienste ist eine private Verbindung zwischen Ihrem Virtual Private Cloud-Netzwerk (VPC) und Netzwerken von Google oder Drittanbietern. So können VM-Instanzen in Ihrem VPC-Netzwerk mit diesen Diensten über interne IP-Adressen kommunizieren, ohne dass sie dem öffentlichen Internet ausgesetzt werden. Weitere Informationen finden Sie unter Zugriff auf private Dienste.
  • prompt
    • Ein Prompt ist eine Anfrage in natürlicher Sprache, die an ein Sprachmodell gesendet wird, um eine Antwort zu erhalten. Prompts können Fragen, Anleitungen, Kontextinformationen, Beispiele und Teileingaben für das Modell enthalten, die abgeschlossen oder fortgesetzt werden sollen. Nachdem das Modell einen Prompt erhalten hat, kann es je nach verwendetem Modelltext Einbettungen, Code, Bilder, Videos, Musik und mehr erzeugen. Weitere Informationen finden Sie unter Übersicht über Prompt-Strategien.
  • Prompt-Design
    • Beim Prompt-Design in der generativen KI werden effektive Prompts erstellt, um die gewünschten Ergebnisse von Large Language Models (LLMs) zu erzielen. Es ist ein iterativer, testgetriebener Prozess, der sich darauf konzentriert, Eingaben zu optimieren, um bestimmte Ergebnisse zu erzielen. Dabei müssen sowohl der Inhalt als auch die Struktur des Prompts berücksichtigt werden, um präzise und hochwertige Antworten zu erhalten. Effektives Prompt-Engineering ist für komplexe Aufgaben unerlässlich, auch wenn es bei einfacheren Aufgaben möglicherweise nicht erforderlich ist. Das Ziel besteht darin, schnell Prototypen für LLM-basierte Anwendungen zu erstellen. Weitere Informationen finden Sie unter Einführung in das Prompt-Design.
  • Schnelleinstellung
    • Die Prompt-Abstimmung ist eine parametereffiziente Methode zur Feinabstimmung, mit der die Leistung eines generativen KI-Modells für eine bestimmte Aufgabe verbessert werden kann. Dabei wird ein „Präfix“ gelernt, das dem eigentlichen Prompt vorangestellt wird, manchmal auf jeder Ebene. Dieser Ansatz gilt als kostengünstiger und schneller als andere Tuning-Methoden und führt häufig zu guten Ergebnissen. Die Prompt-Optimierung ist besonders effektiv, wenn Sie eine bestimmte Aufgabe haben und möchten, dass das Modell sie auf eine bestimmte Weise ausführt. Es wird auch als Prompt-Lernen oder parametereffiziente (Fein-)Abstimmung bezeichnet. Weitere Informationen finden Sie unter Einführung in das Prompt-Design.
  • Bereitgestellter Durchsatz (PT)
    • Der bereitgestellte Durchsatz (Provisioned Throughput, PT) ist ein Premiumdienst für die generativen KI-Modelle von Vertex AI, der durch Kapazitätssicherung und vorhersehbare Preise eine garantierte Leistung bietet. Im Gegensatz zur Option „Pay-as-you-go“ (On-Demand) können Kunden mit PT ein bestimmtes Kontingent erwerben, damit ihre Anfragen nicht mit denen anderer Nutzer um die Modellkapazität konkurrieren. Der bereitgestellte Durchsatz ist ein monatliches oder wöchentliches Abo mit fester Gebühr, mit dem der Durchsatz für bestimmte Modelle und Standorte reserviert wird. Weitere Informationen finden Sie unter Bereitstellter Durchsatz – Übersicht.
  • Quantisierung
    • Die Quantisierung ist eine Modelloptimierungstechnik, mit der die Genauigkeit der Zahlen reduziert wird, die zur Darstellung der Parameter eines Modells verwendet werden. Dies kann zu kleineren Modellen, geringerem Energieverbrauch und reduzierter Inferenzlatenz führen.
  • Random Forest
    • Random Forest ist ein Algorithmus für maschinelles Lernen, der sowohl für die Klassifizierung als auch für die Regression verwendet wird. Es ist kein direktes generatives KI-Modell, sondern eine Komponente, die in einem größeren generativen KI-System verwendet werden kann. Ein Random Forest besteht aus mehreren Entscheidungsbäumen und seine Vorhersage ist eine Aggregation der Vorhersagen dieser einzelnen Bäume. Bei einer Klassifizierungsaufgabe „stimmt“ beispielsweise jeder Baum für eine Klasse und die endgültige Vorhersage ist die Klasse mit den meisten Stimmen. Weitere Informationen finden Sie unter Entscheidungswald.
  • Ray-Cluster in Vertex AI
    • Ein Ray-Cluster in Vertex AI ist ein verwalteter Cluster von Compute-Knoten, mit dem verteilte ML- und Python-Anwendungen ausgeführt werden können. Er bietet die Infrastruktur für verteiltes Computing und parallele Verarbeitung für Ihren ML-Workflow. Ray-Cluster sind in Vertex AI integriert, um die Kapazitätsverfügbarkeit für kritische ML-Arbeitslasten oder während Spitzenzeiten zu gewährleisten. Im Gegensatz zu benutzerdefinierten Jobs, bei denen der Trainingsdienst die Ressource nach Abschluss des Jobs freigibt, bleiben Ray-Cluster bis zum Löschen verfügbar. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
  • Ray on Vertex AI (RoV)
    • Ray on Vertex AI wurde so entwickelt, dass Sie denselben Open-Source-Ray-Code zum Schreiben von Programmen und Entwickeln von Anwendungen in Vertex AI mit minimalen Änderungen verwenden können. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
  • Ray on Vertex AI SDK für Python
    • Das hier verwendete Ray on Vertex AI SDK für Python ist eine Version des Vertex AI SDK für Python, die die Funktionen von Ray Client, Ray BigQuery Connector, der Ray-Clusterverwaltung in Vertex AI und Vorhersagen in Vertex AI umfasst. Weitere Informationen finden Sie unter Einführung in das Vertex AI SDK für Python.
  • Recall
    • Der Prozentsatz der echten nächsten Nachbarn, die vom Index zurückgegeben werden. Wenn z. B. eine Abfrage nach 20 nächsten Nachbarn 19 der „grundlegend echten“ nächsten Nachbarn zurückgibt, beträgt der Recall 19/20x100 = 95 %.
  • Empfehlungssystem
    • Ein Empfehlungssystem ist ein maschinelles Lernsystem, das Nutzern dabei hilft, ansprechende Inhalte in einem großen Datenbestand zu finden. Es generiert eine kleinere Teilmenge von Kandidaten aus einem potenziell riesigen Korpus, bewertet und sortiert die Kandidaten und erstellt eine neue Rangfolge, um zusätzliche Einschränkungen zu berücksichtigen. Weitere Informationen finden Sie in der Übersicht über Empfehlungssysteme.
  • Regularisierung
    • Die Regularisierung ist eine Methode, mit der eine Überanpassung bei Modellen für maschinelles Lernen verhindert wird. Eine Überanpassung tritt auf, wenn ein Modell die Trainingsdaten zu gut lernt, was zu einer schlechten Leistung bei unbekannten Daten führt. Eine bestimmte Art der Regularisierung, die erwähnt wird, ist das vorzeitige Beenden. Dabei wird das Training angehalten, bevor sich der Verlust in einem Validierungs-Dataset zu erhöhen beginnt, was auf einen Rückgang der Generalisierungsleistung hinweist. Weitere Informationen finden Sie unter Überanpassung: L2-Regularisierung.
  • Dienstkonto
    • In der Google Cloud ist ein Dienstkonto ein spezieller Kontotyp, der nicht von einer Person, sondern von einer Anwendung oder einer VM-Instanz verwendet wird. Anwendungen verwenden Dienstkonten für autorisierte API-Aufrufe.
  • service agemt
    • Ein Dienst-Agent bezieht sich auf ein von Google verwaltetes Dienstkonto. Sie wird verwendet, wenn ein Dienst Zugriff auf Ressourcen benötigt, die von einem anderen Dienst erstellt wurden. Das ist beispielsweise der Fall, wenn Dataflow- oder Dataproc-Dienste während der Laufzeit Instanzen erstellen müssen oder wenn eine Cloud-Funktion den Key Management Service (KMS) zum Schutz der Cloud-Funktion verwenden soll. Dienst-Agents werden von Google Cloud automatisch erstellt, wenn sie für einen Dienst erforderlich sind. Sie werden in der Regel verwendet, um den Zugriff auf Ressourcen zu verwalten und verschiedene Aufgaben im Namen des Dienstes auszuführen. Weitere Informationen finden Sie unter Dienst-Agents.
  • Zusammenfassende Messwerte
    • Zusammenfassende Messwerte sind ein einzelner Wert für jeden Messwertschlüssel in einer Testausführung. Beispiel: Die Testgenauigkeit eines Tests ist die Genauigkeit, die anhand eines Test-Datasets am Ende des Trainings berechnet wird und als einzelner zusammenfassender Messwert erfasst werden kann.
  • TensorBoard
    • TensorBoard ist eine Suite von Webanwendungen zum Visualisieren und Verstehen von TensorFlow-Ausführungen und ‑Modellen. Weitere Informationen finden Sie unter TensorBoard.
  • TensorBoard-Instanz
    • Eine TensorBoard-Instanz ist eine regionalisierte Ressource, in der Vertex AI TensorBoard-Tests gespeichert werden, die mit einem Projekt verknüpft sind. Sie können in einem Projekt mehrere TensorBoard-Instanzen erstellen, wenn Sie beispielsweise mehrere CMEK-fähige Instanzen benötigen. Dieser Wert entspricht der TensorBoard-Ressource in der API.
  • TensorBoard-Ressourcenname
    • Mit einem TensorBoard-Ressourcennamen wird eine Vertex AI TensorBoard-Instanz vollständig identifiziert. Das Format lautet: projects/PROJEKT-ID_ODER_-NUMBER/locations/REGION/tensorboards/TENSORBOARD-INSTANZ-ID.
  • zeitlicher Versatz, Zeitstempel
    • Der zeitliche Versatz bezieht sich auf den Beginn eines Videos.
  • Zeitachsenmesswerte
    • Zeitachsenmesswerte sind Längengradmesswerte, wobei jeder Wert einen Schritt im Teil der Trainingsroutine einer Ausführung darstellt. Zeitachsenmesswerte werden in Vertex AI TensorBoard gespeichert. Vertex AI Experiments speichert einen Verweis auf die Vertex TensorBoard-Ressource.
  • Token
    • Ein Token in einem Sprachmodell ist die atomare Einheit, die das Modell trainiert und Vorhersagen für Wörter, Morpheme und Zeichen trifft. In anderen Bereichen als Sprachmodellen können Tokens auch andere Arten von atomaren Einheiten darstellen. Beim maschinellen Sehen kann ein Token beispielsweise ein Teil eines Bildes sein. Weitere Informationen finden Sie unter Tokens auflisten und zählen.
  • Kurve
    • Ein „Pfad“ bezieht sich auf eine Abfolge von Schritten oder Aktionen, die von einem Kundenservicemitarbeiter oder Modell ausgeführt werden. Sie wird häufig bei der Bewertung generativer Modelle verwendet, bei denen die Fähigkeit des Modells zur Generierung von Text, Code oder anderen Inhalten bewertet wird. Es gibt verschiedene Arten von Trajektorienmesswerten, mit denen generative Modelle bewertet werden können, darunter die genaue Übereinstimmung, die sequentielle Übereinstimmung, die beliebige Übereinstimmung und die Genauigkeit der Trajektorie. Mit diesen Messwerten wird die Ähnlichkeit zwischen der Ausgabe des Modells und einer Reihe von von Menschen erstellten Referenzausgaben gemessen.
  • Transformer
    • Ein „Transformer“ ist eine neuronale Netzwerkarchitektur, die den meisten modernen generativen Modellen zugrunde liegt. Sie wird in verschiedenen Sprachmodellanwendungen verwendet, einschließlich Übersetzung. Transformer bestehen aus einem Encoder und einem Decoder. Der Encoder wandelt den Eingabetext in eine Zwischendarstellung um und der Decoder wandelt diese in eine nützliche Ausgabe um. Sie nutzen einen Self-Attention-Mechanismus, um Kontext aus den Wörtern um das verarbeitete Wort herum zu erfassen. Das Training eines Transformers erfordert zwar erhebliche Ressourcen, die Feinabstimmung eines vortrainierten Transformers für bestimmte Anwendungen ist jedoch effizienter.
  • Transformer-Bestärkendes Lernen
    • Transformer Reinforcement Learning (TRL) bezieht sich auf die Anwendung von Reinforcement-Learning-Techniken (RL) zum Trainieren von Transformer-basierten Modellen für generative Aufgaben. Mit diesem Ansatz werden die Einschränkungen herkömmlicher generativer Modelle angegangen, die oft auf der Vorhersage des nächsten Tokens trainiert werden, ohne explizite Optimierung für wünschenswerte Eigenschaften wie Kohärenz, Sicherheit und Sensibilität. Bei der TRL-Methode wird das Sprachmodell direkt anhand komplexer Zielvorhaben optimiert. Dabei wird häufig menschliches Feedback (RLHF) verwendet, um den Lernprozess zu steuern. Beispiele hierfür sind die Optimierung von Modellen mithilfe von Belohnungsmodellen, um weniger toxische Inhalte zu generieren, und die Optimierung von Gemma, einem generativen Modell, mithilfe von TRL. Weitere Informationen finden Sie unter Hugging Face DLCs: Gemma mit Transformer Reinforcement Learning (TRL) in Vertex AI optimieren.
  • True Positive
    • Ein „wahrer Positivwert“ bezieht sich auf eine Vorhersage, bei der das Modell eine positive Klasse richtig identifiziert. Wenn ein Modell beispielsweise darauf trainiert ist, Kunden zu identifizieren, die eine Jacke kaufen werden, wäre ein True Positive eine korrekte Vorhersage, dass ein Kunde einen solchen Kauf tätigt.
  • Validierung
    • Bei der Validierung wird die Qualität der Vorhersagen eines Modells anhand des Validierungs-Datasets überprüft. Dazu müssen Messwerte definiert werden, mit denen die Qualität, Geschwindigkeit, Einhaltung der Anleitung und Sicherheit der generierten Inhalte gemessen werden. Bei der Validierung werden häufig beschriftete Daten (Eingabevorschläge und erwartete Ausgaben) verwendet, um die Vorhersagen des Modells mit der Ground Truth zu vergleichen. Dazu können Messwerte wie der F1-Wert (für die Klassifizierung) und der ROUGE-L-Wert (für die Zusammenfassung) verwendet werden. Der Prozess umfasst auch Tests von Grenzfällen und ungewöhnlichen Szenarien, um für Robustheit zu sorgen. Bei bereitgestellten Modellen tragen kontinuierliche Überwachung und Erfassung gängiger Datenpunkte und Grenzfälle dazu bei, zukünftige Validierungsbemühungen zu verbessern.
  • vector
    • Ein Vektor bezieht sich auf eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Machine-Learning-Modelle eignen sich zum Erstellen von Einbettungen, da sie Muster in großen Datensätzen erkennen können. Anwendungen können Einbettungen verwenden, um Sprache zu verarbeiten und zu erzeugen, und dabei komplexe Bedeutungen und semantische Beziehungen erkennen, die für die Inhalte spezifisch sind. Weitere Informationen finden Sie in der Übersicht über Einbettungen-APIs.
  • Vertex AI Experiments
    • Mit Vertex AI Experiments können Nutzer Folgendes erfassen: 1. Schritte einer Testausführung (z. B. Vorverarbeitung und Training) 2. Eingaben (z. B. Algorithmus, Parameter und Datensätze) 3. Ausgaben dieser Schritte (z. B. Modelle, Prüfpunkte und Messwerte).
  • Vertex AI Model Registry
    • Vertex AI Model Registry ist ein zentrales Repository, in dem Sie den Lebenszyklus Ihrer ML-Modelle verwalten können. Vertex AI Model Registry bietet eine Übersicht über Ihre Modelle, sodass Sie neue Versionen besser organisieren, verfolgen und trainieren können. Wenn Sie eine Modellversion haben, die Sie bereitstellen möchten, können Sie sie einem Endpunkt direkt aus der Registry zuweisen oder Modelle mithilfe von Aliassen auf einem Endpunkt bereitstellen. Weitere Informationen finden Sie unter Einführung in die Vertex AI Model Registry.
  • Videosegment
    • Ein Videosegment wird durch den zeitlichen Versatz am Beginn und Ende eines Videos identifiziert.
  • Virtual Private Cloud (VPC)
    • Eine Virtual Private Cloud ist ein on-demand verfügbarer, konfigurierbarer Pool gemeinsam genutzter Computing-Ressourcen, der in einer öffentlichen Cloud-Umgebung zugewiesen wird und eine gewisse Isolation zwischen verschiedenen Organisationen bietet, die diese Ressourcen nutzen.
  • Wort-Embedding
    • Worteinbettungen sind eine Möglichkeit, Wörter als dichte Vektoren von Gleitkommawerten darzustellen. So können ähnliche Wörter ähnliche Codierungen haben. Wort-Embeddings werden häufig in der generativen KI verwendet, um die Beziehungen zwischen Wörtern zu erfassen und neuen Text oder Code zu generieren, ohne Quellen. Bei der generativen KI können Wort-Embeddings verwendet werden, um Modelle zu trainieren, die neuen Text oder Code generieren können. Durch das Verständnis der Beziehungen zwischen Wörtern können generative KI-Modelle neue Inhalte erstellen, die sowohl kohärent als auch relevant sind.
  • Zero-Shot-Prompt (direkte Aufforderung)
    • Bei der generativen KI ist ein Zero-Shot-Prompt ein Prompt, mit dem ein Large Language Model (LLM) eine Aufgabe ohne zusätzliches Training oder Beispiele ausführen kann. Das steht im Gegensatz zu Methoden wie Few-Shot-Prompts, bei denen dem Modell Beispieleingaben und ‑ausgaben zur Verfügung gestellt werden. Bei einem Zero-Shot-Prompt wird ausschließlich das vorhandene Wissen des Modells verwendet, um eine Antwort zu generieren. Weitere Informationen finden Sie unter Zero-Shot-Prompt.