Gemini für Google Cloud und Responsible AI

In diesem Dokument wird beschrieben, wie Gemini im Hinblick auf die Funktionen, Einschränkungen und Risiken entwickelt wurde, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen. Beispiele:

  • Sprache übersetzen.
  • Text zusammenfassen.
  • Generieren Sie Code und erstellen Sie kreatives Schreiben.
  • Nutze Chatbots und virtuelle Assistenten.
  • Ergänzung von Suchmaschinen und Empfehlungssystemen

Gleichzeitig entsteht durch die sich weiterentwickelnden technischen Funktionen von LLMs das Potenzial für Fehlanwendung, Missbrauch und unbeabsichtigte oder unvorhergesehene Folgen.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der anstößig, unsensibel oder sachlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Art von unbeabsichtigten oder unvorhergesehenen Ausgaben sie produzieren könnten.

Angesichts dieser Risiken und Komplexitäten wurde Gemini für Google Cloud unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini für Google Cloud kennen, damit sie sicher und verantwortungsvoll arbeiten können.

Gemini für Google Cloud-Einschränkungen

Zu den Einschränkungen, die bei der Verwendung von Gemini für Google Cloud auftreten können, gehören unter anderem:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut repräsentiert sind. Diese Fälle können zu Einschränkungen in der Ausgabe von Gemini führen, z. B. zu hoher Modellüberzeugung, falscher Interpretation des Kontexts oder unangemessenen Ausgaben.

  • Halluzinationen, Fundamente und Fakten. Gemini für Google Cloud fehlt möglicherweise an soliden und faktenbasierten Erkenntnissen in der realen Welt, an physischen Eigenschaften oder an einem genauen Verständnis. Diese Einschränkung kann zu Modell-Halluzinationen führen, bei denen Gemini Ausgaben generieren kann, die plausibel klingen, aber sachlich falsch, irrelevant, unangemessen oder unverständlich sind. KI-Halluzinationen können auch die Erstellung von Links zu Webseiten umfassen, die es noch nie gegeben hat. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und Feinabstimmung Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini eingegeben werden, kann einen erheblichen Einfluss auf die Leistung haben. Wenn Nutzende ungenaue oder falsche Prompts eingeben, gibt Gemini suboptimale oder falsche Antworten zurück.

  • Verstärkung von Verzerrungen Language Models können unbeabsichtigt vorhandene Voreingenommenheiten in ihren Trainingsdaten verstärken, was zu Ausgaben führt, die gesellschaftliche Vorurteile und eine ungleiche Behandlung bestimmter Gruppen weiter verstärken können.

  • Sprachqualität: Obwohl Gemini hinsichtlich der Benchmarks, die wir ausgewertet haben, beeindruckende mehrsprachige Funktionen bietet, wird der Großteil unserer Benchmarks (einschließlich aller Fairness-Bewertungen) auf amerikanisches Englisch verfasst.

    Language Models bieten möglicherweise eine inkonsistente Dienstqualität für verschiedene Nutzer. Die Textgenerierung ist beispielsweise für einige Dialekte oder Sprachvarianten möglicherweise nicht so effektiv, da sie in den Trainingsdaten unterrepräsentiert sind. Die Leistung kann sich bei nicht-englischsprachigen oder englischsprachigen Varianten mit geringerer Repräsentation verschlechtern.

  • Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen von Google Research zu Gemini enthalten keine umfassende Aufstellung der verschiedenen potenziellen Risiken. Wir konzentrieren uns beispielsweise auf Voreingenommenheiten in Bezug auf Geschlecht, ethnische Herkunft, Ethnizität und Religion, führen die Analyse jedoch nur mit Daten und Modellausgaben im amerikanischen Englisch durch.

  • Eingeschränkte Fachkenntnisse. Gemini wurde in der Google Cloud-Technologie geschult, es fehlt jedoch möglicherweise das Wissen, das erforderlich ist, um genaue und detaillierte Antworten zu hoch spezialisierten oder technischen Themen zu liefern, was zu oberflächlichen oder falschen Informationen führt.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, erkennt Gemini die spezifische Umgebung nicht und kann daher keine Fragen wie „Wann war das letzte Mal eine VM erstellt?“ beantworten.

    In einigen Fällen sendet Gemini ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextspezifische Antwort zu erhalten, z. B. wenn Sie auf der Error Reporting-Dienstseite auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.

Gemini-Filter für Sicherheits- und unangemessene Äußerungen

Gemini für Google Cloud-Aufforderungen und -Antworten werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für jeden Anwendungsfall anwendbar sind. Diese Sicherheitsattribute zielen darauf ab, Inhalte herauszufiltern, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte