Das sind Ergebnisse, die nicht in das Narrativ der schönen neuen, hyperproduktiven KI-Arbeitswelt passen: 95 Prozent der in einer Studie des Media Lab am Massachusetts Institute of Technology (MIT) untersuchten KI-Pilotprojekte in US-Unternehmen führten zu keinen messbaren positiven Effekten.
Trotz des Einsatzes zweistelliger Milliardenbeträge konnten nur in 5 Prozent der untersuchten Fälle nennenswerte Einnahmen oder Einsparungen erzielt werden. Die überwiegende Mehrheit der Unternehmen scheiterte mit ihren Projekten und stoppte sie teilweise sogar ganz.
Verantwortlich dafür machen meist Führungskräfte Sprachmodelle oder regulatorische Vorgaben, während die Studienautoren das Problem in der Durchsetzung von KI bei zu komplexen Prozessen und mangelnder Mitarbeiterschulung sehen. Bedeutung: Eine schlechte (prompte) Eingabe führt zwangsläufig zu einem schlechten Ergebnis.
Schauspieltalent
Eine weitere Studie der Unternehmensberatung McKinsey ergab, dass 80 Prozent der Unternehmen, die generative KI einsetzen, keine nennenswerten Verbesserungen erzielen konnten und rund die Hälfte von ihnen ihre KI-Projekte daraufhin abbrachen.
Nicht weniger drastisch klingt es bei Harvard Business Review: Über 40 Prozent der befragten US-Mitarbeiter gaben an, dass KI-Ergebnisse sich „als gute Arbeit tarnen“, aber wenig Substanz für die tatsächliche Lösung der Aufgabe haben. Wer weiterhin mit KI-Texten arbeiten muss, verbringt viel Zeit damit, diesen Unsinn namens „Workslop“ zu korrigieren. Die Autoren warnen, dass dadurch die erhoffte Produktivitätssteigerung im wahrsten Sinne des Wortes zunichtegemacht werde.
Das Problem liegt wohl auch im schauspielerischen Talent der Sprachmodelle, die ohne mit der Wimper zu zucken „halluzinieren“ und frei Fakten erfinden: Ein mit KI verfasster Text kann auf den ersten Blick überzeugend und fehlerfrei wirken.
Die internationale Unternehmensberatung Deloitte hat kürzlich für die australische Regierung ein Dokument über die Jobsuche im Sozialsystem für rund 250.000 Euro verfasst. Diese enthielt jedoch viele Fehler, da die dafür eingesetzte KI lediglich wissenschaftliche Beweise und Zitate „erfunden“ hatte. Ein australischer Politiker warf dem Unternehmen daraufhin ein „Problem mit der menschlichen Intelligenz“ vor. „Workslop“ ist nicht nur ärgerlich und teuer, sondern kann auch spürbare negative Folgen für ein Unternehmen haben.
Datenschutz ist Vertrauenssache
Hinzu kommt das Thema Datenschutz: Hier sorgte vor zwei Jahren ein Fall für Schlagzeilen, bei dem Mitarbeiter von Samsung Semiconductor internen Code und andere Daten an ChatGPT schickten, nachdem das Unternehmen die Nutzung des Sprachmodells grundsätzlich erlaubt hatte. Dadurch gelangten sensible Geschäftsgeheimnisse nicht nur zu OpenAI, sondern theoretisch auch zu anderen Nutzern des Sprachmodells.
Bei vielen Anbietern besteht heute die Möglichkeit, in den Einstellungen die Verwendung von Daten zu Schulungszwecken zu unterbinden. Doch im US-amerikanischen Rechtsraum bleibt dies eher eine Vertrauenssache.
Dass generative KI derzeit nicht nur Müllinhalte produziert (ganz zu schweigen vom enormen Energie- und Wasserhunger), sondern auch gefährliche Desinformation, erscheint besonders alarmierend: Einer Studie der European Broadcasting Union zufolge geben KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle falsch wieder. Sie sind besonders schlampig, wenn es um die Quellenangabe geht, unterscheiden unseriöse Blogs kaum von seriösen Nachrichtenquellen und scheitern oft bei der Beantwortung einfacher Fragen wie „Was exportiert China?“
Vor diesem Hintergrund fordert die Rundfunkunion die EU und die nationalen Regulierungsbehörden auf, bestehende Gesetze zu Informationsintegrität, digitalen Diensten und Medienvielfalt konsequent durchzusetzen. KI-Assistenten müssten kontinuierlich und unabhängig überwacht werden.
