Loading...

Loading...

Live aus dem KI-Maschinenraum - Teil 2: Die Plattform

  • Veröffentlicht am 22, Juli 2024
  • Geschätzte Lesezeit: 5 Minuten

Manche scheinen sich zu wünschen, generative KI sei eine Dampfmaschine: Einfach ordentlich viel Kohle reinkippen, und ab geht’s mit dem Business, wie auf Schienen. Mehr als zwei Jahre Best-Practice-Erfahrung zeigen, dass es leider nicht ganz so einfach ist. Für mich Anlass genug, mir Gedanken zu einer kleinen Blog-Serie zu machen. Deren zweiter Teil handelt von den zugrundeliegenden Plattformen.

Im ersten Teil meiner Serie standen die Basics auf dem Programm – die KI-Reifegrade. Meine Beobachtung im vorigen Beitrag lautete, dass vielfach bereits „Phase II“ bei den Unternehmen eingeläutet wurde, nämlich die Etablierung von Plattformen, um generative KI schneller und kontrolliert einzuführen. Sobald die wichtigsten Use Cases und eine zugrunde liegende Plattform umfänglich implementiert sowie Strategie und Governance etabliert sind, wird Phase III erreicht, der (vorläufige) finale Schritt bei der strategischen unternehmensweiten Einführung von KI. Daher widmen wir uns fortfolgend den Plattformen, diesem KI-Fundament, ein wenig intensiver.

Hierfür möchte ich gern auf die gezeigte Graphik verweisen, samt der dort enthaltenen Nummerierung. Beginnen wir mit (1), einer einzigen, zentralen, unternehmens- und gegebenenfalls weltweit genutzten Plattform. Sie ermöglicht es, Anwendungen, die generative KI im Kern nutzen, einfacher und effizienter zu skalieren. Diese Anwendungen basieren wiederum auf zahlreichen Core Services (2), die sich aus wiederkehrenden Mustern einer Pipeline möglicher Use Cases speisen. Hierzu gehören idealerweise nicht nur grundlegende Services für generative KI, sondern auch Datenkonnektoren, Services für „klassische KI“ usw. Diese Plattform-Core-Services werden häufig in eine bereits existierende Plattform für „klassische" KI-Anwendungen integriert.

Dabei ist es durchaus ratsam, auf verschiedene Modelle (3) mehrerer Hersteller oder auch auf Open Source zu setzen, um einen Vendor-Lock-in zu vermeiden – oder einfach, um die jeweils kostengünstigsten Modellvarianten einsetzen zu können. Ebenso ist für unsere größeren Kunden eine Multi-Cloud-Fähigkeit (4) eine wichtige Anforderung, sofern nicht schon vorab eine Auswahl für einen Cloud-Vendor erfolgt war. Ganz praktisch kann etwa eine generative KI-Anwendung in einer Cloud-Instanz von Microsoft laufen, muss aber Daten- oder Servicezugriff zu einer Private Cloud oder auch anderer Anbieter haben.

Wer sich dem Thema derart strategisch nähert, bleibt flexibel – so ist etwa ein späterer Tausch der Modelle möglich. Mit diesem Konstrukt wird auch ersichtlich, dass Custom-built-Services für viele Anwendungen eine relevante Option sind, da hier die bessere Kosten- und Funktionskontrolle gegeben ist; dem Vergleich Custom-built vs. Off-the-Shelf-Lösung widme ich mich in einem späteren Beitrag detailliert.

Neben besserer Kostengrundkontrolle und effizienter Skalierung von Anwendungsentwicklung auf einer Plattform für generative KI ist vor allem die Standardisierungsmöglichkeit hervorzuheben. Man denke etwa an gleiche Standards und Tonalität bei Chatbots in verschiedenen Kanälen: freundlich, hip, sachlich oder auch bewusst unterschiedlich nach Zielgruppen – das geht nur auf einer Plattform. Im nächsten Beitrag möchte ich dazu gerne ein anonymisiertes Beispiel vorstellen.

Bis dahin immer dran denken: A prompt a day keeps the job center away.

Dieser Beitrag wurde bereits auf LinkedIn veröffentlicht.

Diese Artikel könnten Sie auch interessieren:

Avanade Digital Business Newsletter

Verpassen Sie keinen Blogbeitrag mehr.

Seite teilen
Schließen
Modal window
Vertrag