Kein anderer Auftritt an der Tech-Konferenz TED Talk im April letzten Jahres wurde lauter bejubelt: Erfinder Imran Chaudhri von der Firma Humane AI präsentierte ein kleines Gerät zum Anstecken ans Hemd, das auf jede Frage eine Antwort hat, Unterhaltungen im individuellen Tonfall des Benutzers übersetzt, eingehende Nachrichten zusammenfasst und per Laser ein Display auf die Hand projiziert. Der AI Pin sei, so der Hersteller, von Grund auf für künstliche Intelligenz (KI) entwickelt worden: «Sie können die ganze Macht der KI überallhin mitnehmen und nahtlos in das tägliche Leben integrieren», versprach Chaudhri und erhielt dafür stehende Ovationen. Der KI-Anstecker, so schien es, würde das Next Big Thing werden und das Smartphone endlich überflüssig machen.
Inzwischen ist der AI Pin erhältlich – und die Kritiker zerreissen ihn: Er gebe gar keine oder falsche Antworten, sei viel zu langsam in seinen Reaktionen und umständlich zu bedienen, die Batterie mache nach zwei Stunden schlapp. «Das schlechteste Produkt, das ich je getestet habe», «fehlerhaft bei allem, was es tut, fast immer», oder ganz einfach «unbrauchbar» lauten die Urteile, von einer dummen Idee statt künstlicher Intelligenz ist die Rede. Auf dem Markt ist das Gerät ein solch gewaltiger Flop, dass sich der Hersteller Humane AI inzwischen gleich selbst zum Verkauf gestellt hat.
KI, eine weitere gehypte Technologiehoffnung, die schnell verglüht, ebenso wie einst Satellitentelefonie, 3-D-Fernseher oder die Datenbrille Google Glass?
Ganz und gar nicht, findet Liudmila Hack, Expertin für Digitale Transformation bei BASF. Der Chemiekonzern hat eine weltweite KI-Lösung eingeführt, mit der erstmals der ökologische Fussabdruck für jedes der 45'000 Produkte abgebildet werden kann. So wissen die Kunden, zu wie viel Prozent das georderte Styropor oder der Autolack aus recycelten Materialien besteht. «Ohne KI wäre das fast nicht möglich und extrem komplex», sagt Hack.
Eineinhalb Jahre nach der Lancierung von ChatGPT ist KI noch immer das alles dominierende Thema der Technologiewelt. Auch wenn andere Spielarten der künstlichen Intelligenz wie Machine Learning, neuronale Netze oder Big Data schon seit Langem präsent sind: Erst die Large Language Models (LLMs) wie eben ChatGPT, Perplexity.AI oder Gemini von Google haben dem Thema zum Durchbruch verholfen, inzwischen listet die Website Hugging Face, ein Treffpunkt für KI-Enthusiasten, mehr als 650'000 solcher Modelle.
Big Tech dominiert
Kein Wunder sehen 98 Prozent der Manager KI unter den Top-3-Prioritäten für dieses Jahr, so eine Umfrage der Boston Consulting Group. In den USA haben sich die Ausgaben für künstliche Intelligenz gegenüber dem Vorjahr verdreifacht, hat die Finanzplattform Ramp errechnet, während das Gesamtvolumen der Softwaretransaktionen gleichzeitig nur um sechs Prozent zugenommen hat. Und weltweit sind die Investitionen in KI-Start-ups von 4,2 Milliarden Euro im Jahr 2022 auf 22,4 Milliarden letztes Jahr explodiert – während sich die Gesamtsumme der Start-up-Investitionen im selben Zeitraum halbiert hat.
Es ist ein Goldrausch, und wie damals in Klondike machen das meiste Geld die Verkäufer von Schaufeln und Spitzhacken: Der Chiphersteller Nvidia, auf dessen Prozessoren die allermeisten KI-Anwendungen laufen, ist inzwischen das wertvollste Unternehmen der Welt. OpenAI, die Firma hinter ChatGPT mit inzwischen 1200 Mitarbeitern, hat ihre Bewertung innerhalb von zehn Monaten auf 80 Milliarden Dollar fast verdreifacht.
Auch der weltgrösste Cloud-Provider Amazon, in dessen Rechenzentren zahlreiche KI-Anwendungen abgearbeitet werden, konnte den Börsenwert massiv steigern, ebenso die Nummer zwei, Microsoft, die an OpenAI beteiligt ist und so KI-Funktionalitäten früh in ihre Standardprodukte einbauen konnte. Gleiches gilt auch für Google-Mutter Alphabet, Nummer drei auf dem Cloud-Markt. Wie sehr es sich rächt, wenn man den Anschluss verliert, musste Apple erleben: Die jahrelang wertvollste Firma der Welt wurde an der Börse von Nvidia und Microsoft überholt, weil sie erst sehr spät eine KI-Strategie präsentierte. Aber als sie es endlich tat, sprang der Aktienkurs auf ein Allzeithoch.
Klar ist: Nur Big Tech kann sich die Investitionen leisten, die es braucht, um grosse KI-Anwendungen aufzubauen. Das Trainieren von ChatGPT 4 soll rund 450 Millionen Dollar verschlungen haben. Die Kosten für die Entwicklung der Version 5, des für diesen Sommer erwarteten und noch viel grösseren Sprachmodells, werden auf fünf bis sieben Milliarden geschätzt. Facebook-Mutter Meta will die eigene KI Llama zum «weltweit führenden KI-Dienst sowohl bei der Qualität als auch bei der Nutzung» aufbauen – und dafür bis zu 99 Milliarden Dollar allein in diesem Jahr investieren. Zusammen könnten Amazon, Microsoft, Alphabet und Meta über die nächsten fünf Jahre bis zu 1000 Milliarden in das Thema stecken, rechnet man an der Wall Street. Das Kartellrecht und die Verhinderung von Monopolmissbrauch werden im KI-Zeitalter also noch wichtiger werden, denn kleine Start-ups haben keine Chance mitzuhalten. Ausser ihr Gründer heisst Elon Musk, der für seine Firma X.AI gerade sechs Milliarden Dollar eingesammelt hat, um den Chatbot Grok zu lancieren.
Teuer ist dabei nicht nur die Hardware, teuer sind auch die Spezialisten. Etwa 20'000 Unternehmen im Westen, das haben die Marktforscher von Zeki Research herausgefunden, suchen händeringend nach KI-Experten. Manche von ihnen können nun siebenstellige Gehaltspakete aufrufen. «Wie wichtig die Qualität guter Softwareingenieure ist, wird häufig unterschätzt», sagt Benjamin Bargetzi, selber ein international gefragter KI-Experte: «Java- oder Web-Entwickler können noch lange kein gutes Machine Learning.»
Im Massenmarkt hat sich neben ChatGPT bis heute noch keine weitere Killeranwendung herauskristallisiert. Doch hinter den Kulissen ist KI allgegenwärtig: Handykameras und Bildbearbeitungssoftware optimieren oder retuschieren mit ihrer Hilfe Fotos und Videos automatisch. Übersetzungsdienste von Google Translate bis DeepL greifen allesamt auf KI zurück. Seit letztem Sommer fasst bei Amazon eine KI die Bewertungen von Nutzern zusammen. Amerikanische eBay-User können die Funktion «Magic Listing» nutzen: Ein Foto der zu verkaufenden Ware reicht, und die künstliche Intelligenz liefert die Beschreibung. Beim Konkurrenten Ricardo läuft es andersherum: Foto hochladen, und die KI sucht das gewünschte Produkt unter den Angeboten. Und Paul McCartney konnte den allerletzten Beatles-Song «Now and Then» vergangene Weihnachten nur veröffentlichen, weil eine KI die Chorgesangsharmonien aus alten Originalaufnahmen reproduziert hatte.
Geschäft mit Unternehmenskunden ist entscheidend
Vor allem aber zeigt sich immer deutlicher: B2B ist auf diesem Gebiet wichtiger als B2C. Die Anzahl aktiver User bei ChatGPT liegt seit letzten Sommer mehr oder weniger stabil bei 100 Millionen. Doch die Zahl der Firmenlizenzen hat sich alleine von Januar bis April auf 600'000 vervierfacht. Microsoft habe bereits 55'000 Unternehmenskunden für ihre KI-Dienste gewinnen können, erklärte EMEA-Chef Ralph Haupter kürzlich und nannte aus der Schweiz Beispiele wie ABB beim Engineering, Adecco bei der Jobsuche oder die Swiss Re auf dem Gebiet der Risikoanalyse. Auch KI-Start-ups konzentrieren sich laut einer Umfrage deutlich stärker auf das Geschäft mit Unternehmenskunden als sonstige Start-ups. «Im B2C mag KI derzeit stagnieren, aber B2B entwickelt sich nach Plan», sagt Andrea Corda, Entwicklungschef beim Zürcher Robotik-Start-up Anybotics, das KI-gesteuerte Inspektionsroboter entwickelt.
«Die Lancierung von ChatGPT war für unsere Branche ein Erweckungserlebnis», sagt auch Luca Fábián, Gründer und CEO des Rechtsdienstleisters Jurata. Das Zürcher Unternehmen bietet Rechtspakete für KMUs an und vermittelt für individuelle Fälle den jeweils richtigen Anwalt – und hat diesen Vermittlungsprozess nun komplett auf KI umgestellt, von der Fallanalyse über die Triage bis zur Zuordnung an einen passenden Juristen. Im Herbst wird Fábián zudem eine KI-Plattform live schalten, die überprüfbare Antworten auf rechtliche Fragen geben soll – mit Verweis auf den passenden Urteilsspruch, Gesetzesartikel oder die Fachliteratur.
Die Rechtswissenschaft ist prädestiniert für den Einsatz künstlicher Intelligenz: Es müssen grosse Textmengen wie Gesetze, Verträge oder Gerichtsurteile verarbeitet werden. Es geht um Mustererkennung, denn viele Streitfragen sind schon in Präzedenzfällen geklärt worden. Zahlreiche Aufgaben wie die Vertragsprüfung sind repetitiv und können gut automatisiert werden, neue Dokumente lassen sich meist aus Standardbausteinen zusammensetzen. Beim schwedischen Finanzdienstleister Klarna nutzt die Rechtsabteilung deshalb bereits heute ChatGPT in der täglichen Arbeit – mit «massiver Zeitersparnis», wie General Counsel Selma Bogren sagt. Auch zahlreiche grosse Schweizer Kanzleien wie Bär & Karrer, Walder Wyss oder Vischer experimentieren mit KI-Technologien. Nolens volens: «Der klassische Anwalt gerät zunehmend unter Druck», so Fábián: «Weil der Klient nicht in erster Linie am Anwalt selbst interessiert ist, sondern am Ergebnis. Und das kann man dank KI zunehmend automatisch und damit deutlich günstiger erzielen.»
Firmen testen munter drauflos
Und dann sind da natürlich noch die firmeneigenen Spezialanwendungen. Roche etwa verwendet ein Computermodell, um Vorhersagen über potenzielle Arzneimittelkandidaten zu treffen – und testet dann die von der KI erstellten Vorhersagen in realen Laborexperimenten. «Mit KI sind wir in der Lage, neue Lösungen in beispiellosem Umfang und mit nie da gewesener Geschwindigkeit auf eine Weise zu entwickeln, die zuvor nicht möglich war», heisst es in Basel. Julius Bär wiederum hat im zweiten Halbjahr 2023 ein Projekt gestartet, um mithilfe von KI verdächtige Finanzmarktransaktionen zu identifizieren. «Das Projekt befindet sich derzeit in der Pilotphase», lässt die Bank verlauten.
Kein Einzelfall: «Momentan wird extrem viel getestet», weiss Anna Zeiter, die bei eBay von Bern aus weltweit für die Bereiche Privacy, Data & AI Responsibility zuständig ist. Dabei trennt sich die Spreu vom Weizen: «Von allen intern getesteten KI-Anwendungen gehen im Tech-Bereich im Schnitt maximal ein Drittel live, einige in der Industrie sagen sogar: nur zehn Prozent», weiss Zeiter: «Und nach dem Go-Live muss man immer genau schauen, ob und wie Nutzer die neue KI-Funktionalität annehmen und welches Feedback es gibt.»
Eine Erfahrung, die auch die Swisscom gemacht hat: Seit mehr als fünf Jahren optimiert sie mit KI den Ausbau und Betrieb des Mobilfunknetzes. Die künstliche Intelligenz wird «als wertvolle Unterstützung wahrgenommen», heisst es in Bern. Doch man stellte dort auch fest, dass der erfolgreiche Einsatz von KI massgeblich von der Qualität der vorhandenen Daten abhängt: «Daraus ergibt sich, dass einzelne KI-Projekte nicht durchgeführt werden konnten.»
Denn die besten Algorithmen versagen, wenn die Datenlage schlecht ist. Das Prinzip «Garbage in – garbage out» ist bei KI noch wichtiger als bei klassischen Computeranwendungen. «Das ist, was 80 bis 90 Prozent der Firmen unterschätzen», sagt BASF-Managerin Hack. Und so lernen viele erst jetzt, wo die neue Technologie sinnvoll eingesetzt werden kann und wo nicht. «Die Erwartungen, was KI für Business und Gesellschaft leisten kann und soll, waren vor eineinhalb Jahren immens», sagt Zeiter und spricht aktuell von einem «gesunden Realitätscheck».
Auch, weil viele KIs noch immer fehleranfällig sind, selbst wenn die Eingangsdaten stimmen. «Halluzinieren» nennt man das Phänomen, es ist technisch bedingt, weil künstliche Intelligenzen die Wirklichkeit nicht kennen, sondern bei der Erzeugung ihrer Antworten mit Wahrscheinlichkeiten arbeiten. Damit Käse an einer Pizza haften bleibt, könne man der Pizzasauce «auch etwa 1/8 Tasse ungiftigen Leim hinzufügen», halluzinierte etwa kürzlich Googles Gemini. Und als sie die Mannschaft der Apollo-11-Mission – der ersten Mondlandung – darstellen sollte, lieferte sie eine Crew mit einer Frau und einem Afroamerikaner. Politisch korrekt in diesen Tagen, aber leider halt falsch. Eine App einer neuseeländischen Supermarktkette, die den Kunden versprach, Essensreste kreativ zu verwerten, kreierte neben leckeren Mahlzeiten auch gesundheitsschädliche Vorschläge wie Ameisengift-Sandwiches. Manche Experten glauben, dass mehr Daten und Rechenpower diese Probleme lösen werden. «Die Modelle, die wir heute zur Verfügung haben, sind die schlechtesten, die wir jemals verwenden. Es wird nur noch besser werden», ist etwa Jurata-Chef Fábián überzeugt.
Produktionssteigerung von bis zu 30 Prozent
Dabei sind bereits jetzt die Anforderungen an Rechenkapazität und Strom gewaltig. Die fortschrittlichsten KI-Anwendungen verursachen deshalb bis zu 100 Mal so hohe Kosten wie eine herkömmliche Google-Suche. Immer stärker geht der Trend daher zu kleinen LLMs, die auch lokal auf dem Computer oder Smartphone statt in der Cloud laufen können. Google hat mit Gemini Flash solch eine Variante entwickelt, und dass der Suchmaschinenkonzern immer wieder mit KI-Fehlleistungen auffällt, liegt Experten zufolge möglicherweise auch daran, dass er zu viele schwierige Anfragen über diese Sparversion abarbeitet.
Wobei sich die Frage nach Aufwand und Ertrag stellt: Eine Genauigkeit von 97 Prozent reicht für eine medizinische Anwendung sicher nicht. Für die Optimierung einer Logistikkette kaum. Für die Problemdiagnose im Kundendienst durchaus. Für den Anwendungsfall der SBB auch: Sie sortiert mithilfe von KI die eingehenden E-Mails an die Buchhaltung. Mehrere Hundert Debitoren- und Kreditorenanfragen, Belegnachforderungen etc. werden pro Tag so vollautomatisch an die richtigen Stellen weitergeleitet. «Das funktioniert sehr gut, und unsere Mitarbeitenden haben dank der Entlastung von der simplen Triage mehr Ressourcen für wertstiftende Aufgaben», sagt Franz Steiger, Finanzchef des Bahnunternehmens. Weniger gut habe es dagegen geklappt, interne Finanzberichte von einer KI kommentieren zu lassen, weshalb man davon wieder Abstand genommen hat. «Die Kommentare tönten zwar gut, waren aber inhaltlich teilweise fehlerhaft», so Steiger. 50 Personen in der Finanzabteilung wurden in KI ausgebildet, diese haben rund zehn Anwendungsfälle identifiziert. Es sei aber noch zu früh, den Effizienzgewinn zu beziffern.
Diesbezüglich hat Vanessa Foser klare Vorstellungen: «Individuelle Produktivitätssteigerungen von bis zu 30 Prozent liegen drin», sagt die Mitgründerin der AI Business School. Sie rät davon ab, gleich von Anfang an auf komplexe, firmeneigene KI-Anwendungen zu fokussieren. «Dann explodieren erst mal die Kosten. Aber bis sich Resultate einstellen, kann es lange dauern.» Stattdessen sei es sinnvoll, KI-Anwendungen von der Stange mit eigenen, nicht sensitiven Datensätzen zu verwenden und damit tägliche Routineaufgaben anzugehen. Parallel dazu solle man abklären, in welchen Bereichen eine massgeschneiderte Lösung Sinn ergibt, die dafür nötigen Daten aufbereiten und die Mitarbeiter schulen.
Wie man es nicht macht, zeigt ein Beispiel in San Francisco: In der Market Street, also an bester Lage unweit des Twitter-Hauptsitzes, eröffnete letztes Jahr die Smoothie-Bar Better Blends. Die Idee: Eine KI sollte den Kunden durch den Bestellprozess führen und anhand von dessen Vorlieben den perfekten Drink individuell zusammenstellen: «Your Smoothie, powered by AI», so der Slogan. Ein Gaga-Geschäftsmodell, bei dem KI keinen Nutzen bringt: Inzwischen steht der Laden leer.
«Entscheidend ist es, sich vorher zu fragen: Welches Problem will ich mit der KI lösen? Habe ich überhaupt die dafür nötigen Daten? Und welchen Wert erwarte ich von der KI-basierten Lösung?», sagt José Parra Moyano, Professor für Digitale Transformation am IMD in Lausanne. Diesen Rat scheint sich Adrian Guertner zu Herzen genommen zu haben. Er ist Marketingchef beim Intralogistik-Unternehmen Kardex mit Hauptsitz in Zürich und weltweit 2500 Mitarbeitern, 1700 davon White Collar. Das Unternehmen hat klare Ziele mit seinen geplanten 63 KI-Anwendungen: 54 Prozent Produktivitätsgewinn, 12 Prozent weniger Kosten, ein um 13 Prozent verbessertes Kundenerlebnis und um 12 Prozent bessere interne Entscheidungen für das Unternehmen.
Diese Ziele hat sich Guertner nicht ausgedacht: «Das hat unsere Analyse ergeben.» 140 Angestellte aus den verschiedensten Bereichen haben bereits ein sechswöchiges Training durchlaufen und gelernt, wie sie KI in ihrem persönlichen Arbeitsalltag einsetzen können. Aktuell trainiert das Unternehmen weitere 160 Personen aus allen Firmenbereichen. «Wir werden einen ganz klaren Impact für das Unternehmen erzielen. Das ist keine Blase», sagt Guertner: «Wir planen, unsere Investments siebenfach wiederzubekommen.»
KI ist eine Graswurzelbewegung
Bereits jetzt zeigt sich: Die Einführung von KI wird von den Mitarbeitern eine ähnliche Umstellung verlangen wie zuvor die Digitalisierung und das Internet. Nur dass sie nicht top-down ausgerollt werden kann. «Das wird bei dieser Thematik nicht funktionieren», weiss Thomas Schroff, Informatikchef beim Elektronikhändler Fust. Er gibt nur die Rahmenbedingungen vor und kümmert sich um die Governance, für alles andere setzt er auf eine Graswurzelbewegung. So wurden die Mitarbeiter aller Fachbereiche eingeladen, sich für eine KI-Weiterbildung zu bewerben und Verbesserungspotenziale aufzuzeigen: Die Schätzungen reichten von 5 bis 15 Prozent Effizienzgewinnen.
Ursprünglich wollte man zehn Personen selektieren, aufgrund der vielen Rückmeldungen wurden es dann 30, die nun ein entsprechendes Curriculum durchlaufen und an Werkzeugen und in Szenarien ausgebildet werden – von der Mitarbeiterschulung bis zur Fehleranalyse im Kundendienst. «Was wir gar nicht auf dem Radar hatten: wie plötzlich Leute aus den verschiedensten Bereichen proaktiv zusammenarbeiten, weil wir unterschiedliche Anwendungsfälle zusammenbringen», sagt Schroff und spricht von einer «sehr positiven Eigendynamik». Zu sagen, ob sich die in Aussicht gestellten Effizienzgewinne tatsächlich bewahrheiten, dafür sei es aber noch zu früh: «Wir prüfen jetzt, was wir davon wirklich ausrollen.»
Das ist der Stand heute bei den meisten Unternehmen: Man probiert, sammelt Erfahrungen, bewertet. Ein Fazit will noch kaum jemand ziehen. Dass da und dort in den Medien trotzdem bereits leichte Enttäuschung geäussert wird, dürfte primär daran liegen, dass die Erwartungen zu hoch waren – etwas, das sich mit jeder neuen Technologie wiederholt. Die Marktforschungsfirma Gartner fasst das jeden Sommer in ihrem «Hype Cycle» zusammen. Letzten August befanden sich Generative KI und KI-gestützte Programmierung demnach auf dem «Gipfel der überzogenen Erwartungen». Inzwischen dürften sie ins «Tal der Enttäuschungen» abgestürzt sein. Bis sie das «Plateau der Produktivität» erreichen, dürfte es noch zwei bis fünf Jahre dauern.
Es braucht also Geduld. Kaum einer weiss das besser als Sami Atiya. Der Robotik-Chef von ABB befasst sich seit 30 Jahren mit dem Thema KI, hat, wie er sagt, den KI-Winter in den neunziger Jahren miterlebt, als der Fortschritt stagnierte: «Jetzt sind wir wieder in einem Supersommer.» Waren letztes Jahr konzernweit noch rund 100 KI-Projekte am Start, sind es inzwischen schon 150. Bereits seit rund zehn Jahren forscht ABB systematisch zum Thema. Doch erst in letzter Zeit macht die künstliche Intelligenz wirklich einen erkennbaren Unterschied bei den Produkten: etwa beim Navigieren von mobilen Robotern, beim Erkennen von Hindernissen in der Schiffssteuerung oder im Energiemanagement von Gebäuden.
Und so dürfte sich bei den gesellschaftlichen und wirtschaftlichen Folgen von KI einmal mehr das Zitat von Bill Gates bewahrheiten, wonach die meisten Leute überschätzen, was sie in einem Jahr werden tun können, und dafür unterschätzen, was sie in zehn Jahren werden tun können. Verweigern kann sich den Auswirkungen aber letztlich niemand. «Diejenigen, die sagen: ‹I don’t care, let the others fail›, sind die Verlierer der KI-Revolution», sagt IMD-Professor Parra Moyano. Atiya sieht Parallelen zur Digitalisierung. Auch diesem fundamentalen Technologiewandel konnte sich kein Unternehmen entziehen: «Heute geschieht kein Sales-, HR- oder Finanzprozess mehr ohne Software», sagt er: «Das Gleiche wird mit KI der Fall sein.»