Generative AI für Unternehmen mit Apigee

Mit der API-Verwaltungsplattform von Apigee können Sie Ihre KI-Anwendungen verwalten und schützen sowie Entwicklern eine einheitliche Möglichkeit bieten, LLM-APIs zu erstellen und auf LLM-Modelle in mehreren Clouds zuzugreifen. 

KI-Anwendungen mit Apigee schützen und skalieren

Hier erfahren Sie mehr über die spezifischen KI-Funktionen von Apigee, die für die Entwicklung, nahtlose Anwendungsintegration und effektive Skalierung von KI-Lösungen entwickelt wurden.

Ein unternehmensgerechtes KI-Gateway implementieren

Die wichtigsten Funktionen des API-Gateways von Apigee umfassen native Funktionen zur Verwaltung des Traffics für KI-Anwendungen und bieten einen konsistenten API-Vertrag für den Dienstverbrauch.  

Funktionen:

  • Modellabstraktion
  • Routing für Multi-Cloud-Modelle
  • Anfrage-/Antwortanreicherung
  • RAG-Integrationen
  • Agent-Konnektivität zu Drittanbietersystemen (mit der Application Integration-Plattform von Google Cloud) 
  • LLM-Circuit-Breaker-Muster für Hochverfügbarkeit 
  • Semantisches Caching



Ein unternehmensgerechtes KI-Gateway implementieren

Die wichtigsten Funktionen des API-Gateways von Apigee umfassen native Funktionen zur Verwaltung des Traffics für KI-Anwendungen und bieten einen konsistenten API-Vertrag für den Dienstverbrauch.  

Funktionen:

  • Modellabstraktion
  • Routing für Multi-Cloud-Modelle
  • Anfrage-/Antwortanreicherung
  • RAG-Integrationen
  • Agent-Konnektivität zu Drittanbietersystemen (mit der Application Integration-Plattform von Google Cloud) 
  • LLM-Circuit-Breaker-Muster für Hochverfügbarkeit 
  • Semantisches Caching



Workflows auf Agent-Ebene, die auf dem Unternehmenskontext basieren

KI-Agenten nutzen die Funktionen von LLMs, um Aufgaben für Endnutzer zu erledigen. Diese Agenten können mithilfe einer Vielzahl von Tools erstellt werden – von No-Code- und Low-Code-Plattformen wie Agentspace bis hin zu Full-Code-Frameworks wie LangChain oder LlamaIndex. Apigee fungiert als Vermittler zwischen Ihrer KI-Anwendung und ihren Agenten.

Mit dem jetzt allgemein verfügbaren Gemini Code Assist in Apigee können Sie API-Spezifikationen schnell mit natürlicher Sprache in den Cloud Code- und Gemini Chat-Benutzeroberflächen erstellen. Wenn Sie das API-Ökosystem Ihrer Organisation über den API-Hub nutzen, erhalten Sie Unternehmenskontext für konsistente, sichere APIs mit Unterstützung für geschachtelte Objekte und proaktive Erkennung doppelter APIs.

Funktionen:

  • Apigee API-Hub, um APIs und Workflows von Drittanbietern und selbst erstellte APIs zu katalogisieren
  • Durchsetzung des Token-Limits für Kostenkontrollen
  • Orchestrierung mehrerer Agenten
  • Authentifizierung und Autorisierung
  • Semantic Caching für optimierte Leistung
  • API-Spezifikationsgenerierung mit Unternehmenskontext (mit Gemini Code Assist)



KI-Anwendungen leistungsstark und hochverfügbar halten

Apigee bietet eine umfassende Beobachtbarkeit für KI-Anwendungen, damit Sie die Kosten für Generative AI verwalten und optimieren und die KI-Nutzung in Ihrem Unternehmen effizient steuern können.

Funktionen:

  • Einblicke in die Modellnutzung und den Tokenverbrauch der Anwendung
  • Interne Kostenberichte und -optimierung
  • Benutzerdefinierte Dashboards zur Überwachung der Nutzung basierend auf der tatsächlichen Anzahl von Tokens (durch Einbindung von Looker Studio
  • Logging für KI-Anwendungen

LLM-APIs schützen und gleichzeitig Endnutzer und Marke schützen

Apigee fungiert als sicheres Gateway für LLM-APIs. Sie können den Zugriff mit API-Schlüsseln, OAuth 2.0 und JWT-Validierung steuern und Missbrauch sowie Überlastung durch Ratenbegrenzungen und Kontingente verhindern. Mit der erweiterten API-Sicherheit von Apigee können Sie noch mehr Schutz bieten.

Funktionen:

  • Model Armor-Einbindung und Richtliniendurchsetzung für die Bereinigung von Prompts und Antworten
  • Authentifizierung und Autorisierung 
  • Erkennung von Missbrauch und Anomalien
  • Minimierung von OWASP-Top-10-API- und LLM-Sicherheitsrisiken
  • Erkennung von LLM API-Sicherheitsfehlkonfigurationen
  • Google SecOps und Drittanbieter-SIEM-Integration 




Ist Ihr API-System auf generative KI vorbereitet?

Mit unserer robusten API-Verwaltungsplattform können Sie die Entwicklung optimieren und Modelle schneller bereitstellen.

Apigee AI-Lösungen für Ihren Anwendungsfall

KI-Anwendungen mit Apigee verwalten

Verwalten Sie den Entwicklerzugriff auf LLM-Modelle in verschiedenen Clouds und erhalten Sie Einblicke in die Modellnutzung und den Tokenverbrauch für die Kostenabrechnung und -optimierung.

KI-Anwendungen mit Apigee schützen

Verwenden Sie Apigee als Richtlinien-Erzwingungspunkt für die Prompt- und Antwort-Sanierung von Model Armor und verringern Sie die OWASP-LLM- und API-Top-10-Sicherheitsrisiken.

KI-Anwendungen mit Apigee überwachen

Erstellen Sie benutzerdefinierte Dashboards, um LLM-APIs nahezu in Echtzeit zu überwachen. So stellen Sie sicher, dass sie verfügbar sind und wie erwartet funktionieren, um einen unterbrechungsfreien Dienst zu gewährleisten.

KI-Anwendungen mit Apigee monetarisieren

Fügen Sie einen Tarif hinzu, um Entwicklern die Nutzung der APIs Ihrer KI-Anwendung in Rechnung zu stellen, und konfigurieren Sie den Tarif so, dass Ihr API-Umsatz mit den Entwicklern geteilt wird.

Möchten Sie das volle Potenzial von KI ausschöpfen?

Mit Apigee das Potenzial generativer KI für Ihre Lösungen nutzen Nutzen Sie die robusten Funktionen zur Operationalisierung von Apigee, um sichere, skalierbare und optimierte Bereitstellungen mit Zuversicht zu erstellen.

Sind Sie bereit? Sehen Sie sich unsere Apigee-Seite mit Generative-AI-Beispielen an.


Google Cloud