Der “Artificial Intelligence Index Report” der Stanford University ist ein absolut lesenswerter, jährlich erscheinender Report zum aktuellen weltweiten Stand der AI in Forschung, Wirtschaft und Gesellschaft – für mich seit seinem ersten Erscheinen regelmäßige “Pflichtlektüre”.
Wolken am Horizont
In der neuesten Ausgabe findet sich dort ein kleiner Absatz unter Punkt 7 der “Top Ten Takeaways”, der nachdenklich stimmt:
Dort steht, dass das weltweite privatwirtschaftliche Investitionsvolumen in AI von 2021 auf 2022 um 26.7% gesunken ist – in nur einem Jahr!
Und ein Takeaway später enthüllt der Report, dass in 2022 der Anteil von Unternehmen, die AI einsetzen, in den vorangegangenen Jahren irgendwo zwischen 50% und 60% stagnierte – also weit weg von irgendeiner “Marktsättigung” oder ähnlichem.
Wenn die Schwalben wegziehen …
Sinkende Budgets, stagnierende Anwenderzahlen – Investoren in AI-Tech-Unternehmen hätten durchaus Gründe gehabt, in 2022 nervös zu werden – umso mehr als die Investitionshöhen in AI-Themen ein Allzeit-Hoch markierten.
Diejenigen, die schon länger im Geschäft sind, kennen den Begriff (und die Auswirkungen) eines “AI-Winters”, alle Jüngeren seien hiermit offiziell dazu eingeladen, sich mit dem Konzept vertraut zu machen…
Und was auch immer im Einzelfall zum Ausbruch früherer AI-Winter geführt hat, sinkende Budgets und stagnierende Marktanwenderzahlen waren immer zuverlässige Signale (aber nachlaufende Indikatoren: Ein vorlaufender Indikator war eine sich verfestigende Desillusionierung über tatsächlichen Nutzen im Vergleich zu versprochenem Nutzen. Heute würde man wohl von “nachlassendem Hype” reden…).
Noch angenehm warm – und vielleicht doch schon Winter
Wir sind nun ein Jahr weiter und das AI-Thema brummt wie nie zuvor! AI steht in voller Blüte und eine prächtige Ernte steht ins (Investoren-)Haus! Von Winter weit und breit keine Spur! Warum also dieser nachdenkliche Beitrag?
Weil beobachtet werden kann, dass wir (neben dem echten) seit Jahren auch einen “ökonomischen Klimawandel” erleben: Frühere AI-Winter entfalteten sich unter normalen “ökonomischen Klimabedingungen”. Der nächste (der begonnene?) AI-Winter wird anders – er findet im Klima einer “Aufmerksamkeits-Ökonomie” statt.
Und genau diese Aufmerksamkeits-Ökonomie eröffnet neue Möglichkeiten der, nennen wir es mal, “AI-Winter-Leugnung“.
Aufmerksamkeit lässt sich in der Aufmerksamkeits-Ökonomie kapitalisieren. Und Aufmerksamkeit kann man generieren – dank Social Media und weltweiter Vernetzung sogar sehr viel Aufmerksamkeit, sehr günstig.
Ein Wintermärchen?
Vor diesem Hintergrund ließe sich z. B. die “chatGPT-Geschichte” auch anders erzählen:
Mit sinkenden Budgets, horrenden laufenden Kosten sowie zunehmend nervös werdenden Investoren konfrontiert, beschließt OpenAI im November 2022 (zur Erinnerung: in diesem Jahr sanken die privaten Investitionen in AI um 26.7%) die Flucht nach vorne. Mehr Aufmerksamkeit gleich mehr Kapital gleich mehr Zeit, vor einem AI-Winter die eigene (Investoren-)Ernte einzufahren.
Aus mehreren Sprachmodellen des Hauses wird das publikumstauglichste und phantasieweckendste Modell kostenfrei über ein einfach zu bedienendes Web-Frontend zur Verfügung gestellt sowie Pressenachrichten und Social-Media-/Viralmarketing-Kampagnen gelaunched.
Nach den ersten Erfolgen wird dann die nächste Stufe gezündet und wichtige Manager beteiligter Firmen warnen in allen Medien vor den Fähigkeiten der eigenen Produkte, empfehlen weltweite “Forschungsmoratorien” und erreichen am Ende sogar, dass sich die Vereinten Nationen mit dem Thema beschäftigen.
Der Rest ist Geschichte – und mittlerweile wird vermutlich jede Führungskraft ausgelacht, die keine Idee für einen Einsatz von AI in ihrem Bereich in petto hat, egal ob Controlling, HR oder Facility Management.
Aber: Ist damit der Winter vertrieben – oder hat nur jemand die Heizung aufgedreht, um Zeit zu gewinnen?
Zumindest Vorsicht scheint angebracht zu sein.
Nicht alle Märchen gehen gut aus
Große Sprachmodelle wie chatGPT eröffnen unbestritten viele Optimierungsmöglichkeiten in Unternehmen, allerdings bleiben heutige Sprachmodelle “Stochastic Parrots“, die nicht inhaltlich „verstehen“, was sie von sich geben – das ist systemimmanent und wird so bleiben, egal, wieviel Geld man in die Verfeinerung der Modelle investiert.
Außerdem tauchen erste Paper auf, die kritisch darauf hinweisen, dass Sprachmodelle auch retardieren können und teilweise wohl auch schon tun. Man stelle sich vor, ein Unternehmen setzt z. B. an der Kundenschnittstelle oder bei Produkthandbüchern auf ein davon betroffenes Sprachmodell in der Cloud mit automatischer Aktualisierung auf die neuesten Versionen. Das könnte für die Verantwortlichen zumindest, sagen wir: “spannend” werden.
Nachdenklich stimmen außerdem Hinweise aus der AI-Community, dass Geld, welches nun in Sprachmodell-Optimierungen gesteckt wird, an Stellen fehlt, an denen wirklich bahnbrechende neue AI-Fähigkeiten entstehen könnten, zum Beispiel in Bereichen des echten, logischen Schlussfolgerns.
Würden die Investitionen weg von den leistungsmäßig vermutlich weitgehend ausgereizten, großen Sprachmodellen hin zu den nächsten wichtigen AI-Themen umgelenkt, so würden vermutlich wesentlich größere positive Effekte für Wissenschaft und Wirtschaft, je eingesetztem Dollar, zu erzielen sein.
Und sie lebten glücklich bis an ihr Lebensende
Für mich ist der AI-Winter mithin noch nicht abgesagt. Aufmerksamkeitsgrade lassen sich nicht beliebig steigern (oder auch nur lange auf hohem Niveau halten), und auch in der Aufmerksamkeits-Ökonomie gibt es Kipppunkte, bei deren Erreichen extreme Ereignisse eintreten können (Shit-Storm, anyone?!).
Trotzdem bin ich optimistisch bezüglich AI und dem Einsatz in Unternehmen, ein Winter ist schließlich keine Eiszeit – und nach jedem Winter gehen die besten Saaten aus dem vorangegangenen Jahr wieder auf. Wie immer es mit LLM auch weitergehen mag, ihren Platz als leistungsfähiger Baustein(!) im Arsenal der AI-Werkzeuge haben sie erobert.
Eine realistische Einschätzung von Möglichkeiten und Grenzen der LLM und die sinnvolle Orchestrierung aller AI-Werkzeuge im Zusammenspiel mit “klassischen” Software- und Prozesslandschaften ist in meinen Augen die optimale Vorgehensweise, um zu “winterfesten” AI-unterstützten Lösungen im Geschäftsumfeld zu kommen – wir bei PPI sind jedenfalls aktiv dabei, unsere Kunden auf alle AI-Szenarien vorzubereiten und sicherzustellen, dass AI-Investitionen auch im Falle eines echten AI-Wintereinbruchs “frostsicher” sind.
Und wenn einen der Winter nicht unvorbereitet in Badehose trifft, kann es ja sogar ganz gemütlich sein, schön im Warmen mit einer wohltemperierten AI-Strategie zu sitzen, während draußen der Wind unvorsichtige Wettbewerber wegbläst 😉
Autor: Bernd Lehmkuhl Bernd Lehmkuhl ist seit mehr als 30 Jahren fachlich im Erst- und Rückversicherungsmarkt verwurzelt, beschäftigt sich seit mehr als 35 Jahren mit Softwareentwicklung und seit mehr als 25 Jahren mit Data Science und maschinellem Lernen. In verschiedenen Rollen und Funktionen hat er zahlreiche Projekte bei Versicherern und Maklern erfolgreich durchgeführt und innovative Lösungen geschaffen. |