Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
OpenAI gpt-oss 120B ist ein Sprachmodell mit 120 Milliarden Parametern, das unter der Apache-Lizenz 2.0 veröffentlicht wurde. Es eignet sich gut für Anwendungsfälle mit Reasoning und Funktionsaufrufen. Das Modell ist für die Bereitstellung auf Consumer-Hardware optimiert.
Das 120B-Modell erreicht bei wichtigen Benchmarks für das logische Denken eine ähnliche Leistung wie OpenAI o4-mini und wird auf einer einzelnen 80‑GB-GPU ausgeführt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[],[],null,["# OpenAI gpt-oss 120B is a 120B open-weight language model\nreleased under the Apache\n2.0 license. It is well-suited for reasoning and function calling use cases. The\nmodel is optimized for deployment on consumer hardware.\n\nThe 120B model achieves near-parity with OpenAI o4-mini on core reasoning\nbenchmarks, while running on a single 80GB GPU.\n\n\n[View model card in Model Garden](https://console.cloud.google.com/vertex-ai/publishers/openai/model-garden/gpt-oss-120b-maas)"]]