Gemini für Google Cloud und Responsible AI

In diesem Dokument wird beschrieben, wie Gemini for Google Cloud im Hinblick auf die Einschränkungen und Risiken, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B. Folgendes:

  • Sprache übersetzen.
  • Fasse Text zusammen.
  • Code generieren und Creatives schreiben
  • Power Chatbots und virtuelle Assistenten
  • Ergänzung von Suchmaschinen und Empfehlungssystemen

Gleichzeitig sorgen die sich entwickelnden technischen Fähigkeiten von LLMs dafür, potenziellen Missbrauch und unbeabsichtigte oder unvorhergesehene Folgen.

LLMs können erwartungsgemäße Ausgaben generieren, einschließlich anstößiger, unsensibel oder faktisch falsch sind. Da LLMs unglaublich vielseitig sind, lässt sich nur schwer vorhersagen, Ausgaben, die sie produzieren könnten.

Angesichts dieser Risiken und der Komplexität wurde Gemini für Google Cloud mit Die KI-Grundsätze von Google in denken. Es ist jedoch wichtig, dass die Nutzenden einige der Einschränkungen Gemini für Google Cloud sicher und verantwortungsvoll arbeiten.

Einschränkungen von Gemini für Google Cloud

Einige Einschränkungen, die bei der Verwendung von Gemini auftreten können für Google Cloud umfassen unter anderem Folgendes:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen. die in den Trainingsdaten nicht gut repräsentiert sind. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen, z. B. Modell Überkonfidenz, Falschinterpretation des Kontexts oder unangemessene Ergebnisse.

  • Vorbildliche KI-Halluzinationen, Fundierung und Fakten. Zwillinge Modellen mangelt es an Fakten und Fakten in der Praxis, oder ein genaues Verständnis. Diese Einschränkung kann zu einem Modell KI-Halluzinationen, bei denen Gemini für Google Cloud Ausgaben generieren, die zwar plausibel klingen, aber faktisch falsch sind, irrelevant, unangemessen oder unsinnig. Halluzinationen können auch die Fälschung von Links zu Webseiten, die gar nicht existieren. Für finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und -optimierung: Die Qualität, Genauigkeit und Verzerrung des Prompts Daten, die in Gemini für Google Cloud eingegeben werden Produkte einen erheblichen Einfluss auf ihre Leistung haben. Wenn Nutzer Falsche oder falsche Prompts, Gemini für Google Cloud suboptimale oder falsche Antworten zurückgeben.

  • Voreingenommenheitsverstärkung Language Models können unbeabsichtigt bestehende Verzerrungen in ihren Trainingsdaten, was zu Ausgaben führt, die gesellschaftliche Vorurteile und die Ungleichbehandlung bestimmter Gruppen.

  • Sprachqualität: Während Gemini für Google Cloud liefert beeindruckende mehrsprachige Funktionen für die Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Bewertungen) sind in amerikanischem Englisch.

    Language Models können verschiedenen Nutzern eine inkonsistente Dienstqualität bieten. Beispielsweise ist die Textgenerierung bei einigen Dialekten oder Sprachvarietäten, da sie in den Trainingsdaten unterrepräsentiert sind. Bei anderen Sprachen als Englisch oder Englisch ist die Leistung möglicherweise schlechter. weniger repräsentativ sind.

  • Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen des Google Research-Teams Gemini-Modelle bieten keine vollständige Beschreibung der verschiedenen potenzieller Risiken. Wir konzentrieren uns beispielsweise auf Voreingenommenheiten in Bezug auf Geschlecht, ethnische Herkunft, Achsen zu ethnischer Herkunft und Religion an, sondern führen Sie die Analyse nur am amerikanischen Englische Sprachdaten und Modellausgaben.

  • Eingeschränkte Fachkenntnisse. Gemini-Modelle wurden trainiert zur Google Cloud-Technologie, aber vielleicht fehlt es die erforderlich ist, um genaue und detaillierte Antworten spezialisierte oder technische Themen, die zu oberflächlichen oder falschen Informationen.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, Gemini erkennt Ihre spezifische Umgebung nicht, daher Es kann keine Fragen wie „Wann habe ich zuletzt eine VM erstellt?“ beantworten.

    In einigen Fällen sendet Gemini für Google Cloud Segment Ihres Kontexts an das Modell an, um ein kontextspezifisches Antwort, z. B. wenn Sie auf die Vorschläge zur Fehlerbehebung klicken auf der Seite des Error Reporting-Dienstes.

Gemini-Filter für Sicherheit und Toxizität

Prompts und Antworten von Gemini für Google Cloud werden geprüft gegen eine umfassende Liste von Sicherheitsattributen, die für die jeweilige Verwendung gelten Fall. Diese Sicherheitsattribute zielen darauf ab, Inhalte herauszufiltern, die gegen unsere Richtlinien zur Fairen Nutzung Wenn eine Ausgabe als schädlich eingestuft ist, wird die Antwort blockiert.

Nächste Schritte