Gemini für Google Cloud und Responsible AI

In diesem Dokument wird beschrieben, wie Gemini für Google Cloud im Hinblick auf die Funktionen, Einschränkungen und Risiken konzipiert wurde, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:

  • Sprache übersetzen.
  • Fasse Text zusammen.
  • Code generieren und Creatives schreiben
  • Power Chatbots und virtuelle Assistenten
  • Ergänzung von Suchmaschinen und Empfehlungssystemen

Gleichzeitig sorgen die sich entwickelnden technischen Fähigkeiten von LLMs dafür, potenziellen Missbrauch und unbeabsichtigte oder unvorhergesehene Folgen.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist. Da LLMs unglaublich vielseitig sind, lässt sich nur schwer vorhersagen, Ausgaben, die sie produzieren könnten.

Angesichts dieser Risiken und der Komplexität wurde Gemini für Google Cloud mit Die KI-Grundsätze von Google in denken. Es ist jedoch wichtig, dass die Nutzenden einige der Einschränkungen Gemini für Google Cloud sicher und verantwortungsvoll arbeiten.

Einschränkungen von Gemini für Google Cloud

Einige Einschränkungen, die bei der Verwendung von Gemini auftreten können für Google Cloud umfassen unter anderem Folgendes:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen. die in den Trainingsdaten nicht gut repräsentiert sind. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen, z. B. Modell Überkonfidenz, Falschinterpretation des Kontexts oder unangemessene Ergebnisse.

  • Vorbildliche KI-Halluzinationen, Fundierung und Fakten. Gemini Modellen mangelt es an Fakten und Fakten in der Praxis, oder ein genaues Verständnis. Diese Einschränkung kann zu einem Modell KI-Halluzinationen, bei denen Gemini für Google Cloud Ausgaben generieren, die zwar plausibel klingen, aber faktisch falsch sind, irrelevant, unangemessen oder unsinnig. Halluzinationen können auch die Fälschung von Links zu Webseiten, die gar nicht existieren. Für finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und -optimierung: Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini for Google Cloud-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Eingabeaufforderungen eingeben, gibt Gemini für Google Cloud möglicherweise suboptimale oder falsche Antworten zurück.

  • Voreingenommenheitsverstärkung Language Models können unbeabsichtigt bestehende Verzerrungen in ihren Trainingsdaten, was zu Ausgaben führt, die gesellschaftliche Vorurteile und die Ungleichbehandlung bestimmter Gruppen.

  • Sprachqualität: Während Gemini für Google Cloud liefert beeindruckende mehrsprachige Funktionen für die Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Bewertungen) sind in amerikanischem Englisch.

    Language Models können verschiedenen Nutzern eine inkonsistente Dienstqualität bieten. Beispielsweise ist die Textgenerierung bei einigen Dialekten oder Sprachvarietäten, da sie in den Trainingsdaten unterrepräsentiert sind. Bei anderen Sprachen als Englisch oder Englisch ist die Leistung möglicherweise schlechter. weniger repräsentativ sind.

  • Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen des Google Research-Teams Gemini-Modelle bieten keine vollständige Beschreibung der verschiedenen potenzieller Risiken. Wir konzentrieren uns beispielsweise auf Voreingenommenheiten in Bezug auf Geschlecht, ethnische Herkunft, Achsen zu ethnischer Herkunft und Religion an, sondern führen Sie die Analyse nur an den amerikanischen Englische Sprachdaten und Modellausgaben.

  • Geringes Fachwissen. Gemini-Modelle wurden mit Google Cloud-Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, Gemini erkennt Ihre spezifische Umgebung nicht, daher Es kann keine Fragen wie „Wann habe ich zuletzt eine VM erstellt?“ beantworten.

    In einigen Fällen sendet Gemini für Google Cloud Segment Ihres Kontexts an das Modell an, um ein kontextspezifisches Antwort, z. B. wenn Sie auf die Vorschläge zur Fehlerbehebung klicken auf der Seite des Error Reporting-Dienstes.

Gemini-Filter für Sicherheit und Toxizität

Prompts und Antworten von Gemini für Google Cloud werden geprüft gegen eine umfassende Liste von Sicherheitsattributen, die für die jeweilige Verwendung gelten Fall. Diese Sicherheitsattribute zielen darauf ab, Inhalte herauszufiltern, die gegen unsere Richtlinien zur Fairen Nutzung Wenn eine Ausgabe als schädlich eingestuft ist, wird die Antwort blockiert.

Nächste Schritte