KI denkt, der Mensch lenkt
Wie viele Unternehmen schreiben ihre Geschäftsberichte bereits mit KI-Hilfe? Mit dieser Frage haben sich Lino Ballof und Luca Fober vom TUM Campus Heilbronn befasst.

(PresseBox) - Alle tun es, doch keiner gibt es zu. Die Rede ist von der Nutzung generativer Künstlicher Intelligenz (GenAI). Ganz stimmt der einleitende Satz allerdings nicht, denn viele Medien und andere Unternehmen geben bereits an, wenn ihre veröffentlichten Inhalte mit KI-Hilfe erstellt wurden. Doch die Dunkelziffer dürfte hoch sein, meint Lino Ballof, wissenschaftlicher Mitarbeiter am Lehrstuhl für Accounting von Prof. Michael Stich am TUM Campus Heilbronn.Ballof weiß, wovon er spricht, denn er hat gemeinsam mit Luca Fober, Absolvent des Studiengangs Management&Technology an der TUM, erforscht, wie viele Unternehmen bei der Texterstellung auf Large Language Models wie ChatGPT und Co. zurückgreifen. Genauer gesagt haben sich die beiden mit der Frage beschäftigt, ob deutsche börsennotierte Unternehmen ihre Geschäftsberichte mithilfe von KI-Tools erstellen. Dazu haben sie aus sämtlichen verfügbaren Geschäftsberichten der 40 DAX-, 50 MDAX- und 70 SDAX-Unternehmen von 2017 bis 2024 eine Stichprobe von 1.225 Berichten ausgewählt und einer doppelten Analyse unterzogen.
Exponentieller Anstieg
Der erste Schritt war eine Wortanalyse: Ballof und Fober untersuchten, ob bestimmte Begriffe nach 2022– dem Jahr der Veröffentlichung von ChatGPT – deutlich häufiger verwendet wurden als zuvor. Sie konzentrierten sich dabei auf Wörter, die in früheren Studien als Indikatoren für einen möglichen Einsatz von KI identifiziert wurden. Das Ergebnis: „Bei Wörtern wie ,crucial‘, ,enhancing‘ oder ‚meticulously‘ haben wir einen exponentiellen Anstieg feststellen können.“ Ein erster Hinweis also, dass tatsächlich GenAI im Spiel war. Doch die Wortanalyse hat ihre Schwächen: So wertvoll sie bei großen Textmengen ist, so wenig aussagekräftig ist sie bei einzelnen Dokumenten oder Sätzen.
Deshalb analysierten Ballof und Fober die Berichte im zweiten Schritt mithilfe der KI-Erkennungssoftware GPTZero.„Das Tool kann bereits bei einzelnen Sätzen einschätzen, mit welcher Wahrscheinlichkeit sie von KI generiert wurden. Es funktioniert aber auch auf aggregierter Ebene, also bei großen Textmengen“, erklärt Ballof. Der Einsatz von GPTZero bestätigte die Ergebnisse der Wortanalyse: Der Anteil der Sätze, die mit einer mindestens 90-prozentigen Wahrscheinlichkeit mit KI-Hilfe verfasst wurden, stieg zwischen 2017 und 2024 von 0,44 Prozent auf 2,77 Prozent an – also um mehr als das Sechsfache.
Mehr Effizienz, weniger Transparenz
„Der absolute Anteil wirkt gering, aber die Wachstumsrate ist enorm. Außerdem sind Geschäftsberichte in ihrer Struktur relativ unflexibel: Viele Sätze werden über Jahre hinweg fortgeschrieben. Deshalb gehe ich davon aus, dass der KI-generierte Anteil bei Sätzen, die neu aufgenommen werden, noch deutlich höher ist“, sagt Ballof. Ein dritter Aspekt lässt ebenfalls aufhorchen: „KI wird oftmals unterstützend eingesetzt: Man holt sich erste Ideen, passt sie an und verfeinert sie. Tools wie GPTZero erkennen das oft nicht, da sie darauf angelegt sind, keine falschen Treffer zu produzieren.“ Hier schlägt Ballof also den Bogen zur eingangs erwähnten Dunkelziffer.
Warum aber setzen Unternehmen KI bei der Textgenerierung ein? Sie versprechen sich effizientere Arbeitsprozesse und schnellere Ergebnisse. Sie hoffen auf eine höhere Qualität, weil weniger Grammatik- und Tippfehler auftreten. Nicht zuletzt erleichtert GenAI kleinen Unternehmen mit geringen Ressourcen ein professionelleres Auftreten: Sie müssen kein zusätzliches Personal einstellen, das die Geschäftsberichte schreibt. Ballof nennt aber auch Risiken: „Jeder kennt Halluzinationen, die bei KI-Tools regelmäßig auftreten. Hier muss man enorm aufpassen.“ Ein weiterer Nachteil ist aus seiner Sicht die aktuell noch mangelnde Transparenz: Es bleibt oft unklar, ob eine Person oder ein Unternehmen KI eingesetzt hat oder nicht.
„Human in the Loop“ als Königsweg
Welche Lösungsmöglichkeiten gibt es? „In unserem Paper haben wir uns für den Human-in-the-Loop-Ansatz ausgesprochen. Das heißt simpel ausgedrückt: KI unterstützt, der Mensch verantwortet. KI sollte nur als unterstützendes Tool und nicht als Co- oder gar als Hauptautor eingesetzt werden. Vor allem muss eine verantwortliche Person bei der Übernahme von KI-Inhalten für die möglichen Fehler eintreten“, sagt der Wissenschaftler. Zudem spricht er sich für eine stärkere Regulierung aus. Der EU AI Act ist für ihn ein wichtiger Schritt in die richtige Richtung.Gleichzeitig warnt er vor einer Überregulierung, die der neuen Technologie ihren Schwung und ihre Effizienz nehmen würde.
Wenn das alles gewährleistet ist, geht Ballof davon aus, dass Geschäftsberichte – und auch andere Unternehmenstexte wie Pressemitteilungen, Social Media Posts, Webseitentexte oder Produktbeschreibungen – in Zukunft komplett von KI erstellt werden. In drei bis sieben Jahren könnte es flächendeckend so weit sein – wenn sich die Technologie wie bisher weiterentwickelt und die Regulatorik Schritt halten kann. Aus Ballofs Sicht wäre das ein beträchtlicher Fortschritt: „Wenn das in der richtigen Struktur passiert, dann glaube ich, dass repetitive Arbeiten generell automatisiert werden und sich der Mensch mit angenehmeren Aufgaben beschäftigen kann.“
Bereitgestellt von Benutzer: PresseBox
Datum: 20.01.2026 - 07:31 Uhr
Sprache: Deutsch
News-ID 2225300
Anzahl Zeichen: 0
Kontakt-Informationen:
Ansprechpartner: Kerstin Besemer
Stadt:
Heilbronn
Telefon: +49 (7131) 26418-501
Kategorie:
Bildung & Beruf
Dieser Fachartikel wurde bisher 10 mal aufgerufen.
Der Fachartikel mit dem Titel:
"KI denkt, der Mensch lenkt"
steht unter der journalistisch-redaktionellen Verantwortung von
Die TUM Campus Heilbronn gGmbH (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).




