Einstellung von Model as a Service (MaaS)

Nach einiger Zeit werden MaaS-Modelle eingestellt und in der Regel durch neuere Modellversionen ersetzt. Damit Sie Zeit haben, neue Modelle zu testen und zu migrieren, werden auf dieser Seite alle eingestellten Modelle zusammen mit dem Datum der Einstellung aufgeführt.

Claude 3 Sonnet von Anthropic

Claude 3 Sonnet von Anthropic wird ab dem 21. Januar 2025 eingestellt und am 21. Juli 2025 endgültig eingestellt. Claude 3 Sonnet ist nur für Bestandskunden verfügbar.

Claude 3 Sonnet wurde für zuverlässige, skalierte KI-Bereitstellungen für eine Vielzahl von Anwendungsfällen entwickelt. Claude 3 Sonnet ist für die folgenden Anwendungsfälle optimiert:

  • Datenverarbeitung, einschließlich Retrieval Augmented Generation (RAG) und Suchabruf.

  • Vertriebsaufgaben wie Produktempfehlungen, Prognosen und zielgerichtetes Marketing.

  • Aufgaben zur Zeiteinsparung, darunter Codegenerierung, Qualitätskontrolle und optische Zeichenerkennung (Optical Character Recognition, OCR) in Bildern.

  • Vision-Aufgaben, z. B. die Verarbeitung von Bildern, um eine Textausgabe zurückzugeben. Außerdem können Diagramme, Grafiken, technische Diagramme, Berichte und andere visuelle Inhalte analysiert werden.

In der folgenden Tabelle sind die maximalen Kontingente und die unterstützte Kontextlänge für Claude 3 Sonnet in den einzelnen Regionen aufgeführt.

Region Kontingente Unterstützte Kontextlänge
us-east5 (Ohio) Bis zu 10 Abfragen pro Minute, 30.000 TPM 200.000 Tokens

Claude 3 Sonnet verwenden

Verwenden Sie für SDK- und curl-Befehle claude-3-sonnet@20240229 als Modellnamen.

Preise

Für bestehende Nutzer von Claude 3 Sonnet von Anthropic bleiben die Preise unverändert. Weitere Informationen finden Sie auf der Seite Preise.

Mistral AI-Modelle

Mistral Large (24.07) und Codestral (24.05) werden ab dem 30. Januar 2025 eingestellt und am 29. Juli 2025 endgültig eingestellt. Diese beiden Modelle sind nur für Bestandskunden verfügbar.

Mistral Large (24.07) (mistral-large@2407) ist das Flaggschiffmodell von Mistral AI für die Textgenerierung. Es erreicht erstklassige Logikleistungen und kann für komplexe mehrsprachige Aufgaben wie Textverständnis, Transformation und Codegenerierung verwendet werden.

Codestral (24.05) (codestral@2405) ist ein generatives Modell, das speziell für Codegenerierungsaufgaben entwickelt und optimiert wurde, einschließlich des Ausfüllens von Code in der Mitte und der Codevervollständigung. Codestral (24.05) wurde mit mehr als 80 Programmiersprachen trainiert, sodass es sowohl mit gängigen als auch weniger gängigen Sprachen gut abschneidet.

Unterstützte Regionen

Mistral Large (24.07)

Region Kontingente Unterstützte Kontextlänge
us-central1 Bis zu 60 Abfragen pro Minute, 400.000 TPM 128.000 Token
europe-west4 Bis zu 60 Abfragen pro Minute, 400.000 TPM 128.000 Token

Codestral (24.05)

Region Kontingente Unterstützte Kontextlänge
us-central1 Bis zu 60 Abfragen pro Minute, 400.000 TPM 32.000 Token
europe-west4 Bis zu 60 Abfragen pro Minute, 400.000 TPM 32.000 Token

Preise

Für bestehende Mistral Large- (24.07) und Codestral-Nutzer (24.05) ändert sich nichts. Weitere Informationen finden Sie auf der Seite Preise.