Direkt zum Inhalt
KI & Machine Learning

Cloud Wisdom: Vier Wege zu Innovation und Kostensenkung mit KI und ML

2. Februar 2023
https://storage.googleapis.com/gweb-cloudblog-publish/images/finserve_2022_JlWFTnu.max-2500x2500.jpg
Google Cloud Content & Editorial

Ihre Frage – unsere Antwort

Ganz gleich, wo Sie sich auf Ihrer Google Cloud- oder Google Workspace-Reise befinden, wir freuen uns, von Ihnen zu hören. Reichen Sie Ihre Fragen hier ein, um die Chance zu haben, die Antwort im Blog zu bekommen.

Jetzt fragen

Die Entwicklung von KI- und ML-Technologien ist oft kostspielig und zeitaufwendig. Die Nachfrage nach KI- und ML-Expertise übertrifft den vorhandenen Talentpool immer noch deutlich. Diese Faktoren veranlassen Technologieunternehmen und Start-ups, Ressourcen sorgfältig zuzuweisen, wenn sie KI in ihre Geschäftsstrategie einbeziehen möchten. In diesem Artikel finden Sie vier Tipps für Technologieunternehmen und Start-ups, die Innovationen beschleunigen und Kosten durch KI und ML senken. 

Vier Tipps für mehr Innovation und weniger Kosten dank KI und ML

Viele der innovativsten Unternehmen von heute entwickeln Dienstleistungen oder Produkte, die es ohne KI nicht gäbe. Das heißt aber nicht, dass diese Unternehmen auch ihre KI- und ML-Infrastruktur sowie ihre Pipelines von Grund auf neu erstellen. Auch bei Start-ups, deren Geschäft sich nicht direkt mit KI befasst, kann die Einbindung von KI in operative Prozesse Kosten eindämmen, wenn das Unternehmen wächst. Durch die Nutzung eines Cloud-Anbieters für KI-Dienste können Organisationen Geschäftschancen erschließen, die Entwicklungen vorantreiben, Prozesse automatisieren und Kosten reduzieren. 

1. Vortrainierte ML-APIs für die Produktentwicklung nutzen 

Technologieunternehmen und Start-ups möchten ihre technischen Talente auf proprietäre Projekte konzentrieren, die für das Unternehmen von Bedeutung sind. Dazu gehört häufig die Entwicklung neuer Anwendungen für eine KI-Technologie, aber nicht unbedingt die Entwicklung der KI-Technologie selbst. In solchen Fällen helfen vortrainierte APIs, schnell und kostengünstig eine Grundlage zu schaffen, auf der höherwertige, differenzierte Projekte aufgesetzt werden können. 

Beispiel: Viele Unternehmen, die Konversations-KI in ihren Produkten und Services nutzen, verwenden Google Cloud APIs wie Speech-to-Text API und Natural Language API. Mit diesen APIs können Entwicklungsteams auch Funktionalitäten wie Sprache-zu-Text, Sentimentanalyse, Inhaltsklassifizierung, Schimpfwortfilter und Sprecherdiarisierung auf einfache Weise einbinden. Diese leistungsstarken Technologien helfen Unternehmen, sich auf die Produktentwicklung zu konzentrieren, anstatt sich mit den Technologiegrundlagen befassen zu müssen. 

In diesem Artikel finden Sie Beispiele dafür, warum sich Technologieunternehmen und Start-ups für die Speech APIs von Google Cloud entscheiden. Es geht um Anwendungsfälle, die von der Gewinnung von Kundeninformationen bis hin zur Ausstattung von Robotern mit einer empathischen Persönlichkeit reichen. Ausführlichere Informationen finden Sie hier:

2. ML-Entwicklung mit verwalteten Diensten skalieren und Modelle schneller für die Produktion bereitstellen

Vortrainierte Modelle sind äußerst nützlich, aber in vielen Fällen müssen Technologieunternehmen und Start-ups individuelle Modelle erstellen, um Erkenntnisse aus ihren eigenen Daten abzuleiten oder neue Anwendungsfälle auf öffentliche Daten anzuwenden. Unabhängig davon, ob sie datengetriebene Produkte erstellen oder Prognosemodelle aus Kundendaten generieren, benötigen diese Unternehmen Möglichkeiten, um Modelle schneller zu entwickeln und in ihren Produktionsumgebungen bereitzustellen. 

Data Scientists starten in der Regel ein neues ML-Projekt auf einem Notebook und experimentieren mit Daten, die auf dem lokalen Computer gespeichert sind. Die Verlagerung solcher Projekte in eine Produktionsumgebung erfordert zusätzliche Tools und Ressourcen, komplexes Infrastrukturmanagement eingeschlossen. Das ist einer der Gründe, warum viele Unternehmen Schwierigkeiten haben, Modelle in die Produktion zu bringen. Sie vergeuden Zeit und Ressourcen, ohne den Umsatz zu steigern. 

Verwaltete Cloud-Plattformen können Unternehmen beim Übergang von Projekten zu umfangreichen automatisierten Testverfahren oder zur routinemäßigen Bereitstellung unterstützen. Auch ein erneutes Training von Produktionsmodellen lässt sich realisieren. Leistungsstarke Plattformen bieten flexible Frameworks, erfordern weniger Programmcode für das Modelltraining, liefern einheitliche Umgebungen für Tools und Datensätze sowie benutzerfreundliche Pipelines für Infrastrukturverwaltung und Bereitstellung. 

Wir bei Google Cloud haben festgestellt, dass Kunden mit diesem Anforderungsprofil gerne Vertex AI einsetzen. Diese Plattform zur beschleunigten ML-Entwicklung wird seit ihrer Einführung im letzten Jahr immer häufiger verwendet. Im Vergleich zu konkurrierenden Ansätzen verkürzt Vertex AI die Zeit bis zur Bereitstellung/Deployment in Produktion um bis zu 80 % und bietet erweiterte ML-Ops-Funktionen, mit denen Data Scientists und ML-Entwicklungsteams zur Beschleunigung von maschinellem Lernen beitragen können. Es enthält Features mit wenig Code wie AutoML, mit denen sich leistungsstarke Modelle ohne ML-Fachkenntnisse trainieren lassen. 

In der ersten Jahreshälfte 2022 haben unsere Performance-Tests ergeben, dass die Anzahl der Unternehmen, die AI Workbench nutzen, um das 25-fache gestiegen ist. Es ist interessant zu sehen, welche Vorteile Vertex AI Workbench für Unternehmen generiert. So können Unternehmen beispielsweise große Modelltraining-Jobs um das Zehnfache beschleunigen. Auch Data-Science-Teams können die Modellgenauigkeit von 70 bis 80 % auf 98 % steigern.

Wenn Sie Vertex AI noch nicht kennen, sehen Sie sich diese Videoserie an und erfahren Sie, wie Modelle vom Prototypen bis in die Produktion überführt werden. Ausführlichere Informationen finden Sie hier:

3. Die passende Hardware in der Cloud für Anwendungsfälle nutzen um Kosten und Verwaltungsaufwand zu minimieren

Der Aufbau einer ML-Infrastruktur ist in der Regel teuer. Je nach Anwendungsfall können spezifische Hardwareanforderungen und Softwareintegrationen dazu führen, dass großangelegte Projekte kostspielig und komplex werden. Deshalb greifen viele Technologieunternehmen und Start-ups auf Cloud-Dienste zurück, um ihre Computing- und Speicheranforderungen abzudecken. Sie bezahlen nur für die Ressourcen, die sie tatsächlich nutzen, und skalieren diese entsprechend den wechselnden Geschäftsanforderungen. 

Kund*innen von Google Cloud fordern Möglichkeiten, durch unterschiedliche Infrastrukturansätze verschiedene ML-Workloads zu optimieren. Manche verwenden CPU-Plattformen für flexibles Prototyping. Andere nutzen unsere Unterstützung von NVIDIA-Grafikprozessoren (GPUs) für bildorientierte Projekte und größere Modelle, insbesondere solche mit speziellen TensorFlow-Vorgängen, die teilweise auf CPUs ausgeführt werden müssen. Einige nutzen dieselben kundenspezifischen ML-Prozessoren, die auch Google-Anwendungen zugrunde liegen: Tensor Processing Units (TPUs). Wieder andere verwenden unterschiedliche Kombinationen aus den oben erwähnten Prozessoren. 

Technologieunternehmen und Start-ups sollten nicht nur Anwendungsfälle auf die richtige Hardware abstimmen, sondern auch von der Größe und operativen Einfachheit eines verwalteten Dienstes profitieren, um fortgesetzt mit guter Kostenkontrolle zu operieren. Beispiele: Google Cloud-Features wie Time-Sharing und Multi-Instanz-Funktionen für GPUs oder Features wie der Vertex AI Training Reduction Server wurden für die Optimierung von GPU-Kosten und -Nutzung entwickelt. 

Vertex AI Workbench lässt sich auch in den NVIDIA NGC-Katalog einbinden. So können Sie mit nur einem Klick Frameworks, Software Development Kits und Jupyter Notebooks bereitstellen. Dieses Feature zeigt, ebenso wie Reduction Server, Lösungen auf, wie Unternehmen KI mit verwalteten Diensten effizienter und kostengünstiger machen können.

4. KI für operative Vorgänge

Neben vortrainierten APIs und der ML-Modellentwicklung zur Entwicklung und Bereitstellung von Produkten können Start-ups und Technologieunternehmen mit KI auch die operative Effizienz steigern. Insbesondere in Wachstumsphasen lassen sich KI-Lösungen für spezifische operative Vorgänge wie Vertragsabwicklung oder Kundenservice gewinnbringend nutzen. 

So wird bei den Document AI-Produkten von Google Cloud ML auf Text angewendet, beispielsweise zur Verwaltung von Vertragslebenszyklen oder für die Bearbeitung von Hypotheken. Für Unternehmen, deren Kundensupport immer stärker gefordert ist, gibt es Contact Center AI. Mit dieser KI-gestützten Callcenter-Lösung können Unternehmen intelligente virtuelle Agenten erstellen und Übergaben zwischen diesen und dem menschlichen Kundenservice planen sowie Analysen zu den Interaktionen mit dem Callcenter generieren. Durch die Nutzung von KI zur Verwaltung operativer Abläufe können Start-ups und Technologieunternehmen mehr Ressourcen für Innovation und Wachstum bereitstellen. 

Die nächsten Schritte auf dem Weg in eine intelligente Zukunft

Die genannten Tipps helfen Technologieunternehmen und Start-ups, mit KI und ML Kosten zu sparen und die Effizienz zu steigern. Weitere Informationen können Sie auch unseren Vertex AI-Kurzanleitungen und BigQuery ML-Anleitungen entnehmen. Aktuelle Informationen zu unserer Arbeit mit Technologieunternehmen und Start-ups finden Sie auf unserer Start-ups-Seite.

Gepostet in