Nach einiger Zeit werden MaaS-Modelle eingestellt und in der Regel durch neuere Modellversionen ersetzt. Damit Sie Zeit haben, neue Modelle zu testen und zu migrieren, werden auf dieser Seite alle eingestellten Modelle zusammen mit dem Datum der Einstellung aufgeführt.
Claude 3 Sonnet von Anthropic
Claude 3 Sonnet von Anthropic wird ab dem 21. Januar 2025 eingestellt und am 21. Juli 2025 endgültig eingestellt. Claude 3 Sonnet ist nur für Bestandskunden verfügbar.
Claude 3 Sonnet wurde für zuverlässige, skalierte KI-Bereitstellungen für eine Vielzahl von Anwendungsfällen entwickelt. Claude 3 Sonnet ist für die folgenden Anwendungsfälle optimiert:
Datenverarbeitung, einschließlich Retrieval Augmented Generation (RAG) und Suchabruf.
Vertriebsaufgaben wie Produktempfehlungen, Prognosen und zielgerichtetes Marketing.
Aufgaben zur Zeiteinsparung, darunter Codegenerierung, Qualitätskontrolle und optische Zeichenerkennung (Optical Character Recognition, OCR) in Bildern.
Vision-Aufgaben, z. B. die Verarbeitung von Bildern, um eine Textausgabe zurückzugeben. Außerdem können Diagramme, Grafiken, technische Diagramme, Berichte und andere visuelle Inhalte analysiert werden.
In der folgenden Tabelle sind die maximalen Kontingente und die unterstützte Kontextlänge für Claude 3 Sonnet in den einzelnen Regionen aufgeführt.
Region | Kontingente | Unterstützte Kontextlänge |
---|---|---|
us-east5 (Ohio) |
Bis zu 10 Abfragen pro Minute, 30.000 TPM | 200.000 Tokens |
Claude 3 Sonnet verwenden
Verwenden Sie für SDK- und curl-Befehle claude-3-sonnet@20240229
als Modellnamen.
Preise
Für bestehende Nutzer von Claude 3 Sonnet von Anthropic bleiben die Preise unverändert. Weitere Informationen finden Sie auf der Seite Preise.
Mistral AI-Modelle
Mistral Large (24.07) und Codestral (24.05) werden ab dem 30. Januar 2025 eingestellt und am 29. Juli 2025 endgültig eingestellt. Diese beiden Modelle sind nur für Bestandskunden verfügbar.
Mistral Large (24.07) (mistral-large@2407
) ist das Flaggschiffmodell von Mistral AI für die Textgenerierung. Es erreicht erstklassige Logikleistungen und kann für komplexe mehrsprachige Aufgaben wie Textverständnis, Transformation und Codegenerierung verwendet werden.
Codestral (24.05) (codestral@2405
) ist ein generatives Modell, das speziell für Codegenerierungsaufgaben entwickelt und optimiert wurde, einschließlich des Ausfüllens von Code in der Mitte und der Codevervollständigung. Codestral (24.05) wurde mit mehr als 80 Programmiersprachen trainiert, sodass es sowohl mit gängigen als auch weniger gängigen Sprachen gut abschneidet.
Unterstützte Regionen
Mistral Large (24.07)
Region | Kontingente | Unterstützte Kontextlänge |
---|---|---|
us-central1 |
Bis zu 60 Abfragen pro Minute, 400.000 TPM | 128.000 Token |
europe-west4 |
Bis zu 60 Abfragen pro Minute, 400.000 TPM | 128.000 Token |
Codestral (24.05)
Region | Kontingente | Unterstützte Kontextlänge |
---|---|---|
us-central1 |
Bis zu 60 Abfragen pro Minute, 400.000 TPM | 32.000 Token |
europe-west4 |
Bis zu 60 Abfragen pro Minute, 400.000 TPM | 32.000 Token |
Preise
Für bestehende Mistral Large- (24.07) und Codestral-Nutzer (24.05) ändert sich nichts. Weitere Informationen finden Sie auf der Seite Preise.