Wie KI die Unternehmenssteuerung vor neue Herausforderungen stellt

27.03.2023

Von Andreas Seufert und Martin Liebig (Schmitz)

Künstliche Intelligenz stellt die Unternehmenssteuerung vor neue Herausforderungen. Der Beitrag skizziert Handlungsfelder, die dazu beitragen können, das Vertrauen in künstliche Intelligenz zu verbessern. Anhand eines konkreten Use-Case sollen Entscheidungsfelder im Kontext von künstlicher Intelligenz systematisiert und für Business-User transparent gemacht werden.

Obwohl das Thema „Rational Decision Making“ schon länger intensiv diskutiert wird, ergeben sich aktuell für die Unternehmen dramatisch neue Herausforderungen: Einerseits stehen für die Unternehmenssteuerung völlig neue, sehr detaillierte Daten zur Verfügung, andererseits ermöglichen Verfahren der künstlichen Intelligenz und des maschinellen Lernens, diese Daten auch betriebswirtschaftlich neu zu nutzen. Beispielsweise die Analyse auf verborgene, regelmäßige Muster und Abhängigkeiten, um Maßnahmen abzuleiten, Vorhersagen zu treffen oder Simulationen durchzuführen.

Im Rahmen traditioneller Ansätze wird häufig versucht, manuell mittels deskriptiver Analysen Zusammenhänge zu identifizieren, darzustellen und diese zu interpretieren, um Handlungsempfehlungen für das Business abzuleiten. Aufgrund der Limitationen menschlicher Informationsverarbeitungs- und -Interpretationskapazität werden diese Daten häufig verdichtet oder auf ausgewählte Datenbereiche eingeschränkt.

Künstliche Intelligenz und maschinelles Lernen basieren dagegen auf der algorithmischen Erkennung und Nutzbarmachung von Mustern in Datenbeständen und deren Abbildung in Modellen. Das häufig genannte Forecasting stellt dabei ein mögliches, aber bei Weitem nicht das einzige Anwendungsfeld des maschinellen Lernens in der Unternehmenssteuerung dar.

Einsatzbereiche können unter anderem sein:

  • Generelle Vorhersage von numerischen bzw. nichtnumerischen Werten: z.B. für Absatzmengen, Kosten, Zuverlässigkeit von Lieferanten, Kaufwahrscheinlichkeiten, …
  • Identifikation von Auffälligkeiten/Ausreißern: z.B. für die Identifikation von Sondereffekten, auffälligen Mustern, die auf Betrug hinweisen, …
  • Identifikation von Ähnlichkeiten/Gemeinsamkeiten: z.B. für das Erkennen ähnlichen Verhaltens von Kunden, Lieferanten, Mitarbeitern, …
  • Identifikation zeitlicher Abhängigkeiten: z.B. für das Erkennen zeitlicher Zusammenhänge von Aktivitäten wie z.B. Produktkäufe, Bestellverhalten, …

Da Verfahren des maschinellen Lernens auf Basis großer unverdichteter Datenräume erstellt werden können, eignen sie sich u.a. sehr gut für multivariate Ursache-Wirkungsmodelle, Vorhersagen, Simulationen sowie Prescriptive Analytics. Auf dieser Grundlage können die eigentlichen, tiefer liegenden Ursachen besser erkannt und moderne Unternehmenssteuerungsmodelle umgesetzt werden.

Nach Aussagen der Gartner Group glauben 40% der CEOs, dass künstliche Intelligenz einen wesentlichen Einfluss haben wird – 79% befürchten allerdings eine verlangsamte Umsetzung aufgrund fehlenden Vertrauens.

(Schmitz 2021)

Die Forschung zeigt, dass dabei insbesondere die folgenden Aspekte von zentraler Bedeutung für die Akzeptanz von künstlicher Intelligenz sind:

  • Wie kommt das Ergebnis zustande? (Explainability)
  • Wie gut ist das Ergebnis? (Accuracy)
  • Wie verlässlich ist das Ergebnis? (Reliability)

Nachfolgend werden ausgewählte Handlungsfelder skizziert, die – angelehnt an das Konzept der Rationalitätssicherung – dazu beitragen können, das Vertrauen in künstliche Intelligenz zu verbessern.

Hierbei kann zwischen Modellentstehung und -evaluation sowie Modellverwendung unterschieden werden.

Abb. 1: Entscheidungsfelder zur Rationalitätssicherung von Entscheidungen im Kontext Künstlicher Intelligenz

Implikationen für die Rationalitätssicherung von Entscheidungen im Kontext von KI

Die Handlungsfelder zur Rationalitätssicherung sollen nachfolgend anhand eines beispielhaften Anwendungsfalles skizziert werden. In unserem Anwendungsfall versuchen wir die Kreditwürdigkeit von Kunden im B2B-Bereich zu bestimmen.

Dazu wurde ein Datensatz mit insgesamt 424 Kunden ausgewählt. Aufgrund dieses Datensatzes ist bekannt, welcher Kunde in der Vergangenheit seinen Kredit zurückgezahlt hat und welcher nicht (Default = Yes/No).

Abb. 2: Auszug Datensatz Kreditausfall

Darüber hinaus stehen 19 beschreibende Merkmale mit Eigenschaften der Unternehmen zu Verfügung.

Abbildung 3 zeigt die Min, Max, Mittelwerte und die Standardabweichung dieser 19 Merkmale in alphabetischer Reihenfolge.

Abb. 3: Beschreibende Merkmale für den Kreditausfall in der Vergangenheit (Mittelwert/ Standardabweichung)

In einem traditionellen BI-Ansatz würde nun versucht werden, durch Gegenüberstellung und Pivotieren der einzelnen Variablen herauszufinden, ob es einen bestimmten Grund/Muster für den Ausfall des Kredites gibt. Beispielsweise, ob sich eine auffällige Häufung von Kreditausfällen bei kleineren im Vergleich zu größeren Unternehmen findet. Ziel wäre es manuell Muster in den Daten zu erkennen in dem man die einzelnen Merkmale miteinander in Beziehung setzt und visuell aufbereitet.

Aufgrund der begrenzten menschlichen Informationsverarbeitungskapazität würde dabei i.d.R. versucht werden, die Daten „übersichtlicher“ zu gestalten, z.B. durch das Setzen von Filtern oder die Zusammenfassung von Werten zu Gruppen. Hinzu kommt, dass man wahrscheinlich die Anzahl simultan genutzter Einflussfaktoren beschränken würde.

Mit Verfahren des maschinellen Lernens ist man jedoch problemlos in der Lage viele Einflussfaktoren gleichzeitig zu nutzen, um Muster in Kreditausfällen zu erkennen und Ausfallwahrscheinlichkeiten zu berechnen. Allerdings gibt es eine Reihe von Handlungsfeldern zu beachten, um die Rationalitätssicherung der Unternehmenssteuerung zu unterstützen.

Phase Modellentwicklung und – evaluation

1) Transparente, nachvollziehbare Datenprozesse

Während dieser Analyse muss ein Analyst viele Entscheidungen treffen, dazu gehören unter anderem:

  • Auswahl der Datenpunkte zum Lernen der Muster,
  • Auswahl der Eigenschaften zum Lernen,
  • Wahl des Qualitätsmaß zur Evaluierung,
  • Wahl des Lernverfahrens.

Für die Auswahl dieser der Lernverfahren können – wiederum je nach Anwendungsfall – ganz unterschiedliche Entscheidungsparameter zugrundgelegt werden. Beispielsweise:

  • Verarbeitungsgeschwindigkeit
  • Analytische Modellgüte
  • Nachvollziehbarkeit des Modells

Moderne Softwarelösungen ermöglichen die Darstellung des kompletten Prozesses. Auf diese Weise lässt sich transparent nachvollziehen, welche Variablen mit welchen Wertebereichen einbezogen wurden, ob es Veränderungen in den Daten gab wie z.B. Neuberechnung von Feldern, Datentyp Konvertierungen oder Normalisierung der Daten, usw. Dies ist insofern von zentraler Bedeutung als die Auswahl des Datenraumes für das Erkennen von Mustern und das Erlernen von Modellen von elementarer Bedeutung ist. Werden in den Datenraum beispielweise nur kleine Unternehmen einbezogen (z.B. bis 100 Mio Umsatz), kann es sein, dass Algorithmus ein Modell lernt, das ggf. bei großen Unternehmen nicht korrekt arbeitet und zu problematischen Ergebnissen führen kann.

Abb. 4: Transparente, nachvollziehbare Datenprozesse (Beispielprozess in Rapidminer)

2) Auswahl Machine Learning Algorithmus

Aus dem erstellten Datenraum können in einem nächsten Schritt durch lernende Algorithmen Muster erkannt und nutzbar gemacht werden.

Wie nachfolgende Abbildung anhand des oben genannten Beispielprozesses veranschaulicht, kann dabei die Güte der Vorhersage eines Kreditausfalls – je nach gewähltem Learner, dessen Parametereinstellungen und der zugrundeliegenden Treiber sehr unterschiedlich ausfallen. Zusätzlich können die Wertebereiche je Variable von wesentlicher Bedeutung sein.

Abb. 5: Einfluss der gewählten Kriterien auf die Performance des Modells. Die besten Einflussfaktoren wurden mittels des MRMR-Algorithmus [Pen 05] ausgewählt.

In Abbildung 5 ist die erreichte Güte eines Random Forest Algorithmus für verschiedene Anzahl von Treibern, die dem Lerner zur Verfügung gestellt werden zu sehen. Man erkennt deutlich, dass – in diesem Beispiel – mehr zur Verfügung stehende Treiber zu besseren Ergebnissen führen. Diese Algorithmen sind in der Lage Muster in dutzenden Spalten gleichzeitig zu erkennen und nutzbar zu machen.

Menschliche Mustererkennung auf der anderen Seite ist in der Regel auf eine Hand voll gleichzeitig nutzbare Treiber limitiert und in der Folge oftmals weniger genau.

3) Identifikation der wesentlichen Einflussfaktoren/Treiber

In der Vergangenheit wurden Modelle oftmals nur auf Ihre Güte geprüft und dann genutzt. Dies ist im Rahmen der Rationalitätssicherung kritisch zu betrachten, da die Punkte Robustheit und Erklärbarkeit der Ergebnisse nicht berücksichtigt werden. In den letzten Jahren hat sich in der Forschung das Gebiet „explainable AI“ (xAI) gebildet, dessen Ziel es ist die Vorhersagen von maschinellen Algorithmen zu erklären oder zu interpretieren. Im Folgenden wird hierzu auf die grundlegenden Ideen eingegangen werden.

Globale Treiberidentifikation

Häufig werden sogenannte Feature Weights genutzt, welche die meisten Lernverfahren zur Verfügung stellen. Die Feature Weights beantworten die Frage: „Was denkt der Algorithmus selbst darüber, wie wichtig ein Treiber für die Vorhersagen waren?“

Die konkrete Berechnungsvorschrift für diese Weights unterscheidet sich zwischen jedem genutzten Lernverfahren. Im Gegensatz anderen Verfahren sind diese dann auch in der Lage die Multivariablilität zu inkludieren, also die Möglichkeit, dass ein Treiber nur in Kombination mit anderen Treibern stark ist.

Abb 6: Feature Weights des Random Forest Algorithmus.

Je höher der Wert, desto wichtiger war der Treiber für den Random Forest. Die genullten Treiber wurden nicht zur Modellfindung genutzt, da sie keinen zusätzlichen Nutzen haben. Ein grundlegendes Problem der globalen Treiberidentifikation ist allerdings, dass die Treiber für Teilmengen der Daten unterschiedlich sein können. Maschinelle Lernverfahren sind durchaus in der Lage zwischen Subgruppen zu unterscheiden und innerhalb dieser Subgruppen vollständig andere Treiber zu nutzen. In der globalen Sicht wird dann über die verschiedenen Subgruppen gemittelt und es kann zu einem missverständlichen Ergebnis kommen. Abhilfe kann hier die lokale Treiberidentifikation schaffen.

Lokale Treiberidentifikation

Die Idee der lokalen Treiberidentifikation ist, die Vorhersage für einen einzelnen Kunden zu erklären.

Die Fragestellung der meisten lokalen Algorithmen kann wie folgt gestellt werden: „Wenn der Wert für den Treiber nicht so wäre wie er ist, wie stark würde sich dann die Vorhersage ändern?“

Abb. 7: Identifikation der wesentlichen Einflussfaktoren/ Treiber durch Shapley-Values für einen spezifischen Kunden. Negative Zahlen bedeuten eine Steigerung der Ausfallwahrscheinlichkeit, positive eine reduzierte Ausfallwahrscheinlichkeit.

In Abbildung 7 wurde eine lokale Treiberanalyse mit Hilfe des Shapley-Ansatzes für einen Kunden in unserer Analyse durchgeführt. Die dargestellte Liste der Treiber veranschaulicht die Bedeutung einer Eigenschaft des Kunden auf die resultierende Wahrscheinlichkeit des Kreditausfalls.

Der betrachtete Kunde hat eine Expense-to-Revenue Ratio von 0.14 im Vergleich zu einer durchschnittlichen Expense-to-Revenue Ratio von 0.72. Hätte der Kunde nicht eine solch niedriger Ratio würde die Wahrscheinlichkeit des Kreditausfalls um 11.2% steigen.

Sowohl bei globalen als auch bei lokalen Faktoren muss berücksichtigt werden, dass die Wirkkraft eines bestimmten Faktors unter Umständen nur in Zusammenspiel mit einem anderen Faktor zustande kommt. Die Ergebnisse einer Treiberanalyse müssen daher immer im Kontext des speziellen Anwendungsfalles interpretiert werden. Ein umfängliches Domänenwissen ist daher essenziell.

Neben der reinen Bedeutung der Einflussfaktoren sollte aus Sicht der Unternehmenssteuerung auch berücksichtigt werden, inwieweit diese Treiber im Sinne der Gestaltung von Maßnahmen auch „actionable“, d.h. durch das Unternehmen beeinflussbar sind.

Phase Modelverwendung

Für das Business Partnering ergeben sich je nach Use Case und Modell eine Reihe von Verwendungsmöglichkeiten. Exemplarisch können genannt werden:

  1. Root-Cause-Analytics: Multivariate Ursache-Wirkungsmodelle, inkl. der Abbildung nicht linearer Zusammenhänge und indirekter Effekte.
  2. Predictive Analytics: Vorhersagemöglichkeiten auf Basis dieser Ursache-Wirkungsmodelle.
  3. Simulation: Manuelle What-If Analysen durch Variation der Inputwerte.
  4. Prescriptive Analytics: Automatische How-To-Achive Analysen, wie lässt sich ein bestimmtes Ziel erreichen.

Verfahren des maschinellen Lernens ermöglichen damit neue Unternehmenssteuerungsansätze auf Basis neuartiger, großer unverdichteter Datenräume, die nicht durch die eingangs geschilderten Limitationen traditioneller Analytics beschränkt sind. Im Sinne der Rationalitätssicherung lassen sich damit u.a. auch bisherige „Gewissheiten“ hinterfragen, wie z.B.:

  • Was sind eigentlich die wirklichen Performance Treiber (KPI`s) für bestimmte Aktivitäten?
  • Welche Treiber sind wie wichtig?
  • Wie stark sind die Wechselwirkungen zwischen einzelnen Treibern?

Die Einsatzbereiche derartiger Modelle sind dabei – wie eingangs dargestellt – außerordentlich vielfältig.

Entscheidend ist es jedoch, dass sich sowohl der zugrundeliegende Datenprozess, die Modellparameter und Ergebnisse transparent darstellen, und damit für den Business User besser verständlicher und nutzbarer machen lassen. Durch den Einzug von künstlicher Intelligenz in die Unternehmenssteuerung ergeben sich daraus neue Möglichkeiten, um die Rationalität von Entscheidungen in der Unternehmenssteuerung zu unterstützen.

Methodenwissen als Voraussetzung für die Rationalitätssicherung

Rationalitätssicherung heißt u.E. nicht nur Erschließen neuer inhaltlicher Anwendungsbereiche, sondern auch das kritische Hinterfragen tradierter Methoden und Herangehensweisen in der Unternehmenssteuerung. Für die Rationalitätssicherung in der Unternehmenssteuerung ergeben sich daraus neue Chancen aber auch völlig neue Herausforderungen. Die Auseinandersetzung mit den Möglichkeiten von Künstlicher Intelligenz kann sich dabei wie gezeigt wurde nicht auf das reine Konsumieren von Ergebnissen der Künstlichen Intelligenz beschränken.

Einerseits könnten die Einsatzmöglichkeiten von Künstlicher Intelligenz nicht eingeschätzt werden, andererseits können die oben dargestellten Schritte in den Bereichen Modellentwicklung und Modellverwendung zu völlig unterschiedlichen Ergebnissen und damit betriebswirtschaftlichen Empfehlungen führen. Was es braucht, ist daher der Aufbau eines entsprechenden Methodenwissens um Rationalitätssicherung der Unternehmensführung auch in Zeiten von Künstlicher Intelligenz vorantreiben zu können.

Autoren:

Prof. Dr. Andreas Seufert  lehrt an der Hochschule Ludwigshafen und ist Direktor des Business Innovation Labs. Zudem leitet er den Fachkreise Analytics + Controlling des Internationalen Controller Vereins (ICV). Seine Lehr- und Forschungsschwerpunkte: • Business Intelligence, Big Data, Machine Learning/ KI • Unternehmenssteuerung/ Digitale Transformation • Datengetriebene Geschäftsmodelle/ Geschäftsmodellinnovation

Dr. Martin Liebig (Schmitz) ist RapidMiners Director of Technical Services und verfügt über langjährige Erfahrungen in zahlreichen internationalen Kundenprojekten. Er ist Mitglied in verschiedenen interdisziplinären Research Centern. Hr. Schmitz promovierte Physik an der TU Dortmund University und nutzte künstliche Intelligenz zur Erforschung von Schwarzen Löchern und aktiven galaktischen Kernen.

Literatur:

  • Adadi/ Berrada: Peeking inside the black-box. A survey on Explainable Artificial Intelligence (XAI), IEEE Access, 6, 2018, S. 52138-52160. [Ari 10] Ariely: Predictability Irrational, Revised; The Hidden Forces that Shape our Decision, Harper 2010.
  • Arriet et. al.: Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. In: Information Fusion 58 (2020) 82–115.
  • Breiman: Random Forests, Machine Learning, 2001, 45, 5-32. [Gän 13] Gänßlen/ Losbichler/ Niedermayr/ Rieder/ Schäffer/ Weber: Die Kernelemente des Controllings: das Verständnis von ICV ud IGC. Controlling & Management Review (3) 2013, S. 56-61.
  • Kahneman/ Lovallo/ Sibony: Before you make that big decision, Harvard Business Review (6) 2011, S. 50-60.
  • Lockey/ Gillespie/ Someh: A Review of Trust in Artificial Intelligence: Challenges, Vulnerabilities and Future Directions, Proceedings of the 54th Hawaii International Conference on System Sciences, 2021, S. 5463-5471.
  • Molnar: Interpretable Machine Learning: A Guide For Making Black Box Models Explainable, 2022.
  • Peng e. al: “Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy,” IEEE Transactions on Pattern Analysis & Machine Intelligence, no. 8, pp. 1226–1238, 2005.
  • Ribeiro et al.: Why should I trust you ? explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2013, S. 1135-1144.
  • Schrage/ Kion: Leading With Next-Generation Key Performance Indicators, MIT 2018.
  • Schrage/ Kion: Understand the Real Keys to Effective KPIs, MIT Research Brief, 2018.
  • Schmitz: Talking Value: Impactful Machine Learning Models for Industry 4.0, RapidMiner.
  • Schmitz: Explainabilty Explained: A Human`s Guide to Building Trust in Data Science, 2021, RapidMiner.
  • Seufert: Digitale Transformation der Unternehmenssteuerung – Herausforderungen und Potentiale von BI, Big Data, AI und Cloud – Studienergebnisse 2020. Steinbeis Edition, Stuttgart 2020.
  • Seufert/ Schwarzwälder/ von Künssberg: Auswirkungen der digitalen Transformation-Neupositionierung des Controllings am Beispiel der BASF SE. In: Gleich. R. (Hrsg.): Controlling Challenge 2025, Haufe 2020.
  • Seufert/ von Künssberg/ Treitz/ von Daacke: Die Digitalisierungslücke – Digitale Transformation zwischen Wunsch und Wirklichkeit. In: Controller Magazin 2020 – November/ Dezember, S.68-73.
  • Seufert: Tagungsband | Digital Finance & Controlling 2021: Die Digitale Transformation der Unternehmenssteuerung erfolgreich gestalten – Herausforderungen und Potenziale von Business Intelligence, AI und Advanced Analytics, Stuttgart 2021
  • Seufert: Die Kennzahlen-Illusion – Wunsch und Wirklichkeit traditioneller KPIs. In: Seufert (Hrsg.) df&c – Magazin für #Digital #Finance #Controlling, Schwerpunkt Digital Controlling Competence. Heft 2-2021, Steinbeis Edition, Stuttgart 2021.
  • Shapley: “A value for n-person games.” Contributions to the Theory of Games 2.28: 307-317, 1953.