Verantwortungsbewusste KI

Große Sprachmodelle (LLMs, Large Language Models) können Sprache übersetzen, Texte zusammenfassen, kreative Werke schreiben, Code generieren, Powerbots und virtuelle Assistenten generieren und Suchmaschinen und Empfehlungssysteme ergänzen. Gleichzeitig bedingen die sich entwickelnden Fähigkeiten und die Anwendungen einer Technologie in ihrer frühen Phase die Gefahr von Fehlanwendungen, Missbrauch und unbeabsichtigte oder unvorhergesehene Effekten. Große Sprachmodelle können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist.

Außerdem ist es durch die unglaubliche Vielseitigkeit von LLMs schwierig, vorherzusagen, welche Art unbeabsichtigten oder unvorhergesehenen Ausgaben sie erzeugen könnten. Angesichts dieser Risiken und Komplexität wurden generative KI-APIs von Vertex AI gemäß der KI-Prinzipien von Google entwickelt. Es ist jedoch wichtig, dass Entwickler ihre Modelle verstehen und testen, um sie sicher und verantwortungsvoll bereitstellen zu können. Zur Unterstützung von Entwicklern verfügt Vertex AI Studio über eine integrierte Inhaltsfilterung. Unsere generativen KI APIs haben Sicherheitsattributbewertungen, mit denen Kunden die Sicherheitsfilter von Google testen und Konfidenzwerte definieren können, die für ihren Anwendungsfall und ihr Geschäft geeignet sind. Weitere Informationen finden Sie im Abschnitt Sicherheitsfilter und -attribute.

Wenn unsere generativen APIs in Ihren Anwendungsfall und Ihren Kontext eingebunden werden, müssen möglicherweise zusätzliche Überlegungen und Einschränkungen für die verantwortungsbewusste Anwendung von KI berücksichtigt werden. Wir empfehlen unseren Kunden, empfohlene Vorgehensweisen in Sachen Fairness, Interpretierbarkeit, Datenschutz und Sicherheit zu fördern.

Sicherheitsfilter und -attribute

Mehr über die Verwendung von Sicherheitsfiltern und -attributen für eine API finden Sie auf den folgenden Seiten:

Zitat-Metadaten

Unsere Funktionen zu generativem Code sind zum Erstellen von Originalinhalten und nicht für eine umfassende Replizierung bereits bestehender Inhalte vorgesehen. Wir haben unsere Systeme so konzipiert, dass die Wahrscheinlichkeit eines solchen Auftretens begrenzt wird und die Funktionen dieser Systeme kontinuierlich verbessert werden. Wenn diese Funktionen eine bestimmte Webseite dennoch umfassend zitieren, wird diese Webseite als Verweis angegeben.

Manchmal sind dieselben Inhalte auf mehreren Webseiten zu finden. Wir werden dann versuchen, eine beliebte Quelle anzugeben. Bei Zitaten von Code-Repositories kann auch auf eine gültige Open-Source-Lizenz verwiesen werden. Es liegt in Ihrer Verantwortung, die Lizenzanforderungen einzuhalten.

Beispiel: Zitat-Metadaten

{
  "predictions": [
    {
      "safetyAttributes": {
        "scores": [],
        "categories": [],
        "blocked": false
      },
      "content": "Shall I compare thee to a summer's day?\nThou art more lovely and more temperate.\nRough winds do shake the darling buds of May,\nAnd summer's lease hath all too short a date.\n\nSometime too hot the eye of heaven shines,\nAnd often is his gold complexion dimm'd;\nAnd every fair from fair sometime declines,\nBy chance or nature's changing course, untrimm'd.\n\nBut thy eternal summer shall not fade,\nNor lose possession of that fair thou ow'st,\nNor shall death brag thou wanderest in his shade,\nWhen in eternal lines to time thou grow'st.\n\nSo long as men can breathe or eyes can see,\nSo long lives this and this gives life to thee.",
      "citationMetadata": {
        "citations": [
          {
            "endIndex": 262,
            "publicationDate": "1800",
            "startIndex": 0,
            "title": ""The" Royal Shakespeare"
          },
          {
            "title": "Sabrinae corolla in hortulis regiae scholae Salopiensis contextuerunt tres viri floribus legendis ...",
            "publicationDate": "1801",
            "startIndex": 140,
            "endIndex": 417
          },
          {
            "startIndex": 302,
            "publicationDate": "1800",
            "title": ""The" Royal Shakespeere",
            "endIndex": 429
          },
          {
            "startIndex": 473,
            "publicationDate": "1847",
            "title": "The Poems of William Shakespeare",
            "endIndex": 618
          }
        ]
      }
    }
  ]
}

Metadatenbeschreibung

In folgender Tabelle werden die Zitat-Metadaten beschrieben.

Metadaten Beschreibung

startIndex

Gibt in der Antwort an, wo das Zitat beginnt (einschließlich). Muss größer oder gleich 0 und kleiner als der Wert von endIndex sein.

endIndex

Gibt in der Vorhersageausgabe an, wo das Zitat endet (exklusiv). Muss größer als startIndex und kleiner als die Antwort sein.

url

Mit diesem Zitat verknüpfte URL. Sofern vorhanden, verweist diese URL auf die Quellwebseite dieses Zitats.

title

Titel, der mit diesem Zitat verknüpft ist. Wenn vorhanden, bezieht er sich auf den Titel der Quelle des Zitats.

license

Mit diesem Zitat verknüpfte Lizenz. Falls vorhanden, bezieht sie sich auf die automatisch erkannte Lizenz der Quelle dieses Zitats. Mögliche Lizenzen sind Open-Source-Lizenzen.

publicationDate

Veröffentlichungsdatum, das mit dem Zitat verknüpft ist. Falls vorhanden, bezieht sich dies auf das Datum, an dem die Quelle des Zitats veröffentlicht wurde. Mögliche Formate sind JJJJ, JJJJ-MM und JJJJ-MM-TT.

Modelleinschränkungen

Bei der Verwendung von generativen KI-Modellen können Sie unter anderem die folgenden Einschränkungen sehen:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Leistung des Modells führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.

  • Modellhalluzinationen, Fundierung und Fakten: Generative KI-Modelle können an Fakten der realen Welt, den physischen Eigenschaften oder dem treffsicheren Verständnis mangeln. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Ausgaben generiert werden, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Um diese Wahrscheinlichkeit zu verringern, können Sie die Modelle auf Ihren spezifischen Daten fundieren. Weitere Informationen zur Fundierung in Vertex AI finden Sie im Fundierungs-Überblick.

  • Datenqualität und Abstimmung: Die Qualität, Genauigkeit und Verzerrung der Eingabeaufforderung oder Dateneingabe in ein Modell können erhebliche Auswirkungen auf seine Leistung haben. Wenn Nutzer ungenaue oder falsche Daten oder Eingabeaufforderungen eingeben, kann die Modell eine suboptimale Leistung oder falsche Modellausgaben liefern.

  • Vorurteile: Generative KI-Modelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Die Modelle liefern zwar beeindruckende mehrsprachige Fähigkeiten in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Auswertungen) sind jedoch in der englischen Sprache. eine Weitere Informationen finden Sie im Google Research-Team-Blog.

    • Generative KI-Modelle können verschiedenen Nutzern eine inkonsistente Dienstqualität bieten. Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv. Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.
  • Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen des Google Research-Teams für unsere generativen KI-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben. Weitere Informationen finden Sie im Google Research-Team-Blog.

  • Eingeschränkte Fachkenntnisse: Generative KI-Modelle haben vielleicht nicht die erforderlichen Kenntnisse, um hochspezialisierte oder technische Themen mit genauen und detaillierten Antworten zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen. Bei spezialisierten, komplexen Anwendungsfällen sollte die Modelle auf domainspezifische Daten abgestimmt sein und eine sinnvolle menschliche Überwachung im Zusammenhang mit der Möglichkeit haben, die Rechte von Einzelnen wesentlich zu beeinflussen.

  • Länge und Struktur der Ein- und Ausgaben: Generative KI-Modelle haben eine maximale Anzahl von Eingabe- und Ausgabetokens. Wenn die Ein- oder Ausgabe diesen Grenzwert überschreitet, werden unsere Sicherheitsklassifikatoren nicht angewendet. Dies kann zu einer geringeren Modellleistung führen. Unsere Modelle sind zwar für eine Vielzahl an Textformaten ausgelegt, ihre Leistung kann jedoch beeinträchtigt werden, wenn die Eingabedaten eine ungewöhnliche oder komplexe Struktur haben.

Um diese Technologie sicher und verantwortungsvoll zu nutzen, ist es wichtig, neben den integrierten technischen Sicherheitsmaßnahmen weitere Risiken zu berücksichtigen, die für Anwendungsfall, Nutzer und Geschäftskontext spezifisch sind.

Wir empfehlen Folgendes:

  1. Bewerten Sie die Sicherheitsrisiken Ihrer Anwendung.
  2. Passen Sie Anpassungen an, um Sicherheitsrisiken zu minimieren.
  3. Führen Sie für Ihren Anwendungsfall geeignete Sicherheitstests durch.
  4. Holen Sie Nutzerfeedback ein und überwachen Sie Inhalte.

Verstöße melden

Sie können einen mutmaßlichen Missbrauch des Dienstes oder eine generierte Ausgabe mit unangemessenen oder ungenauen Informationen über das folgende Formular melden: Einen mutmaßlichen Missbrauch in der Google Cloud Platform melden.

Weitere Ressourcen