Gemini für Google Cloud und Responsible AI

In diesem Dokument wird beschrieben, wie Gemini for Google Cloud im Hinblick auf die Funktionen, Einschränkungen und Risiken entwickelt wird, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben wie die folgenden ausführen:

  • Sprache übersetzen.
  • Fasse Text zusammen.
  • Code generieren und Creatives schreiben
  • Power Chatbots und virtuelle Assistenten
  • Ergänzung von Suchmaschinen und Empfehlungssystemen

Gleichzeitig bergen die sich entwickelnden technischen Fähigkeiten von LLMs das Risiko einer falschen Anwendung, eines Missbrauchs und unbeabsichtigten oder unvorhergesehenen Folgen.

LLMs können Ergebnisse generieren, die Sie nicht erwarten, einschließlich Text, der anstößig, unsensibel oder sachlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Arten unbeabsichtigter oder unvorhergesehener Ausgaben sie erzeugen könnten.

Angesichts dieser Risiken und der Komplexität wurde Gemini für Google Cloud unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini für Google Cloud verstehen, um sicher und verantwortungsvoll arbeiten zu können.

Einschränkungen von Gemini für Google Cloud

Zu den Einschränkungen, die bei der Verwendung von Gemini für Google Cloud auftreten können, gehören unter anderem die folgenden:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Dies kann zu Einschränkungen bei der Ausgabe von Gemini-Modellen wie Modellüberkonfidenz, Fehlinterpretation des Kontexts oder unangemessenen Ausgaben führen.

  • Vorbildliche KI-Halluzinationen, Fundierung und Fakten. Gemini-Modellen mangelt es möglicherweise an Fundierung und Fakten in Bezug auf reales Wissen, physische Eigenschaften oder genaues Verständnis. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini für Google Cloud Ausgaben generiert, die plausibel klingen, aber sachlich falsch, irrelevant, unangemessen oder unsinnig sind. KI-Halluzinationen können auch das Erstellen von Links zu Webseiten umfassen, die es nicht oder nie gegeben hat. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und -optimierung: Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini für Google Cloud-Produkte eingegeben werden, kann einen erheblichen Einfluss auf die Leistung haben. Wenn Nutzer falsche oder falsche Prompts eingeben, gibt Gemini für Google Cloud möglicherweise suboptimale oder falsche Antworten zurück.

  • Voreingenommenheitsverstärkung Language Models können unbeabsichtigt vorhandene Voreingenommenheiten in ihren Trainingsdaten verstärken, was zu Ausgaben führt, die soziale Vorurteile und eine ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Gemini für Google Cloud liefert in den von uns bewerteten Benchmarks beeindruckende mehrsprachige Funktionen. Der Großteil unserer Benchmarks (einschließlich aller Fairness-Bewertungen) ist jedoch auf amerikanisches Englisch.

    Language Models können verschiedenen Nutzern eine inkonsistente Dienstqualität bieten. Beispielsweise ist die Textgenerierung bei einigen Dialekten oder Sprachvarianten möglicherweise nicht so effektiv, weil sie in den Trainingsdaten unterrepräsentiert sind. Bei nicht englischen Sprachen oder englischen Sprachvarianten mit geringerer Darstellung ist die Leistung möglicherweise schlechter.

  • Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen von Gemini-Modellen durch das Google Research-Team liefern keine vollständige Beschreibung der verschiedenen potenziellen Risiken. Wir konzentrieren uns beispielsweise auf Verzerrungen in Bezug auf Geschlecht, ethnische Herkunft, ethnische Herkunft und Religion, führen die Analyse jedoch nur mit den Daten und Modellausgaben in amerikanischer Sprache durch.

  • Eingeschränkte Fachkenntnisse. Gemini-Modelle wurden zwar mit Google Cloud-Technologie trainiert, es fehlt jedoch möglicherweise das nötige Wissen, um genaue und detaillierte Antworten zu hochspezialisierten oder technischen Themen zu liefern, was zu oberflächlichen oder falschen Informationen führt.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, erkennt Gemini Ihre spezifische Umgebung nicht. Daher kann Gemini keine Fragen wie „Wann habe ich zuletzt eine VM erstellt?“ beantworten können.

    In einigen Fällen sendet Gemini für Google Cloud ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextspezifische Antwort zu erhalten, z. B. wenn Sie auf der Seite des Error Reporting-Dienstes auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.

Gemini-Filter für Sicherheit und Toxizität

Prompts und Antworten von Gemini für Google Cloud werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für jeden Anwendungsfall relevant sind. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte