Große Sprachmodelle (LLMs, Large Language Models) können Sprache übersetzen, Texte zusammenfassen, kreative Werke schreiben, Code generieren, Powerbots und virtuelle Assistenten generieren und Suchmaschinen und Empfehlungssysteme ergänzen. Gleichzeitig bedingen die sich entwickelnden Fähigkeiten und die Anwendungen einer Technologie in ihrer frühen Phase die Gefahr von Fehlanwendungen, Missbrauch und unbeabsichtigte oder unvorhergesehene Effekten. Große Sprachmodelle können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist.
Außerdem ist es durch die unglaubliche Vielseitigkeit von LLMs schwierig, vorherzusagen, welche Art unbeabsichtigten oder unvorhergesehenen Ausgaben sie erzeugen könnten. Angesichts dieser Risiken und Komplexität wurden generative KI-APIs von Vertex AI gemäß der KI-Prinzipien von Google entwickelt. Es ist jedoch wichtig, dass Entwickler ihre Modelle verstehen und testen, um sie sicher und verantwortungsvoll bereitstellen zu können. Zur Unterstützung von Entwicklern verfügt Vertex AI Studio über eine integrierte Inhaltsfilterung. Unsere generativen KI APIs haben Sicherheitsattributbewertungen, mit denen Kunden die Sicherheitsfilter von Google testen und Konfidenzwerte definieren können, die für ihren Anwendungsfall und ihr Geschäft geeignet sind. Weitere Informationen finden Sie im Abschnitt Sicherheitsfilter und -attribute.
Wenn unsere generativen APIs in Ihren Anwendungsfall und Ihren Kontext eingebunden werden, müssen möglicherweise zusätzliche Überlegungen und Einschränkungen für die verantwortungsbewusste Anwendung von KI berücksichtigt werden. Wir empfehlen unseren Kunden, empfohlene Vorgehensweisen in Sachen Fairness, Interpretierbarkeit, Datenschutz und Sicherheit zu fördern.
Sicherheitsfilter und ‑attribute
Informationen zur Verwendung von Sicherheitsfiltern und ‑attributen für eine API finden Sie auf den folgenden Seiten:
Modelleinschränkungen
Bei der Verwendung von generativen KI-Modellen können Sie unter anderem die folgenden Einschränkungen sehen:
Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Leistung des Modells führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.
Modellhalluzinationen, Fundierung und Fakten: Generative KI-Modelle können an Fakten der realen Welt, den physischen Eigenschaften oder dem treffsicheren Verständnis mangeln. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Ausgaben generiert werden, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Um diese Wahrscheinlichkeit zu verringern, können Sie die Modelle auf Ihren spezifischen Daten fundieren. Weitere Informationen zur Fundierung in Vertex AI finden Sie im Fundierungs-Überblick.
Datenqualität und Abstimmung: Die Qualität, Genauigkeit und Verzerrung der Eingabeaufforderung oder Dateneingabe in ein Modell können erhebliche Auswirkungen auf seine Leistung haben. Wenn Nutzer ungenaue oder falsche Daten oder Eingabeaufforderungen eingeben, kann die Modell eine suboptimale Leistung oder falsche Modellausgaben liefern.
Vorurteile: Generative KI-Modelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.
Sprachqualität: Die Modelle liefern zwar beeindruckende mehrsprachige Fähigkeiten in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Auswertungen) sind jedoch in der englischen Sprache. eine Weitere Informationen finden Sie im Google Research-Team-Blog.
- Die von generativen KI-Modellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich. Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv. Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.
Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen des Google Research-Teams für unsere generativen KI-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben. Weitere Informationen finden Sie im Google Research-Team-Blog.
Eingeschränkte Fachkenntnisse: Generative KI-Modelle haben vielleicht nicht die erforderlichen Kenntnisse, um hochspezialisierte oder technische Themen mit genauen und detaillierten Antworten zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen. Bei spezialisierten, komplexen Anwendungsfällen sollte die Modelle auf domainspezifische Daten abgestimmt sein und eine sinnvolle menschliche Überwachung im Zusammenhang mit der Möglichkeit haben, die Rechte von Einzelnen wesentlich zu beeinflussen.
Länge und Struktur der Ein- und Ausgaben: Modelle für generative KI haben eine maximale Eingabe- und Ausgabetokengrenze. Wenn die Ein- oder Ausgabe diesen Grenzwert überschreitet, werden unsere Sicherheitsklassifikatoren nicht angewendet. Dies kann zu einer geringeren Modellleistung führen. Unsere Modelle sind für eine Vielzahl an Textformaten ausgelegt. Ihre Leistung kann jedoch beeinträchtigt werden, wenn die Eingabedaten eine ungewöhnliche oder komplexe Struktur haben.
Empfohlene Vorgehensweisen
Um diese Technologie sicher und verantwortungsvoll zu nutzen, ist es wichtig, neben den integrierten technischen Sicherheitsmaßnahmen weitere Risiken zu berücksichtigen, die für Anwendungsfall, Nutzer und Geschäftskontext spezifisch sind.
Wir empfehlen Folgendes:
- Bewerten Sie die Sicherheitsrisiken Ihrer Anwendung.
- Führen Sie für Ihren Anwendungsfall geeignete Sicherheitstests durch.
- Konfigurieren Sie bei Bedarf Sicherheitsfilter.
- Holen Sie Nutzerfeedback ein und überwachen Sie Inhalte.
Missbrauch melden
Sie können einen mutmaßlichen Missbrauch des Dienstes oder eine generierte Ausgabe mit unangemessenen oder ungenauen Informationen über das folgende Formular melden: Einen mutmaßlichen Missbrauch in Google Cloud melden.
Zusätzliche Ressourcen
- Weitere Informationen zum Monitoring von Missbrauch
- Weitere Informationen zu den Empfehlungen von Google für die verantwortungsbewusste Anwendung von KI.
- Lesen Sie unseren Blog Ein gemeinsamer Plan für verantwortungsbewussten Fortschritt in Sachen KI