Black Box Workshopkonzept: Framework zur Diskussion von Anforderungen an KI und Intuition in Entscheidungsfindungsprozessen

Black Box Workshopkonzept: Framework zur Diskussion von Anforderungen an KI und Intuition in Entscheidungsfindungsprozessen

Überschrift-Bild

Im Rahmen des 2. Zukunftsforschungssymposiums durfte ich im Namen von Schaltzeit einen Workshop zu dem Thema künstliche Intuition gestalten und leiten. Dabei war mir vor allem auch die Frage wichtig, welchen Stellenwert unsere natürliche Intuition bei Entscheidungsfindungen einnimmt. Wann setzten wir auf analytische Lösungen, wann können intuitive Entscheidungen die bessere Option sein – und welche dieser Prozesse möchten wir gerne an eine KI abgeben?

Die Herausforderung dieser Fragen besteht auch darin, dass wir weder wissen, welche Einflüsse bei Entscheidungen in unserem Kopf zusammenspielen, noch im Detail nachvollziehen können, welche Mechanismen im Maschinenraum einer KI ineinandergreifen.

Das Workshop Konzept ist daher von dem Prinzip einer Blackbox inspiriert, bei welchem der Verarbeitungsprozess im Dunkeln liegt und nur Input (Fragestellung & Informationsgrundlage) und Output (Lösungsansätze) bekannt sind: Das eigentliche Rezept der Intuition ist im Inneren der Blackbox verborgen. Der Workshop bietet einen Rahmen, gemeinsam die mutmaßlichen Komponenten der Blackbox zu diskutieren und aufbauend darauf Anforderungen an KI-basierte Entscheidungsfindungsprozesse in Organisationen zu formulieren.

220628_ifii_KISymposium_WS (446)
220628_ifii_KISymposium_WS (105)
KI_Symposium_Andre_Winzer
220628_ifii_KISymposium_WS (122)

Künstliche Intelligenz und menschliche Intuition: Wie lassen sich Entscheidungsprozesse mit diesen Komponenten in Unternehmen gestalten? Ist eine künstliche Intuition möglich und falls ja, welche Anforderungen haben wir an sie? Das Workshop Konzept BLACK BOX bietet einen Rahmen diese Fragen interaktiv zu bearbeiten. 

Im Organisational Decision Making werden zunehmend KI Analysen und Intuitive Expert:innenentscheidungen kombiniert, um effizient bestmögliche Ergebnisse zu erreichen. Dabei ergibt sich die Frage nach den verschiedenen Qualitäten von menschlicher Intelligenz und künstlichen Intelligenz sowie deren Zusammenspiel.

KI übernimmt heutzutage viele Entscheidungsaufgaben, die früher dem Menschen zugewiesen waren. In dieser Verschiebung der Aufgabenteilung von Mensch und KI, die sich bei vielen Organisationen in der Transformation befindet, findet das Workshop Konzept BLACK BOX seinen Einsatz: In einer interaktive Reflexion wird für das jeweilige Entscheidungsfeld erörtert, welche Rolle künstliche Intelligenz und menschliche Intuition in dem Entscheidungsprozess tragen sollte und welche Anforderungen dabei bestehen.

Zudem bietet das bewusste Diskutieren dieser Prozesse die Möglichkeiten zu erkennen, welchen Schwachstellen, Einseitigkeiten und Biases die bisherigen Entscheidungen durch menschliche Intuition unterlagen. Damit besteht die Chance diese zu überwinden anstatt sie unbewusst auf KI-Modelle zu übertragen und zu multiplizieren.

220628_ifii_KISymposium_WS (32)
220628_ifii_KISymposium_WS (85)
220628_ifii_KISymposium_WS (42)
220628_ifii_KISymposium_WS (6)

Wann und warum ist unser BLACK BOX Workshop sinnvoll?

Intuitive Experten Einschätzungen werden vor allem dann getroffen, wenn es sich um Probleme handelt, die mehrdeutig und schlecht definiert sind und Informationsgrundlagen heterogen und komplex sind. Doch was geschieht, wenn diese Bewertungen an eine KI abgegeben werden sollen?

Das Konzept der Intuition fasziniert Management- und Psychologie-Wissenschaftler:innen schon seit Jahrzehnten. Sie haben Intuition als einen schnellen, nicht logischen und komplexen Entscheidungsprozess definiert. Wann auf intuitive Entscheidungen von Expert:innen gesetzt wird hängt von der Art der Aufgabenstellung, der Datengrundlage und der Beschaffenheit des Problemfelds ab:

  • Bei Problemen, die sich für analytische Lösungen eignen, kann eine analytische Entscheidungsfindung am besten sein.
  • Wenn es sich jedoch um Probleme handelt, die mehrdeutig und schlecht definiert sind, kann eine intuitive Entscheidungsfindung durchaus die bessere Option sein

KI hat uns Menschen in Analysen längst übertroffen was Effizienz, Schnelligkeit und Genauigkeit anbelangt: Es können nicht nur riesige Datenmengen analysiert werden, sondern (mit mehr Daten) können die KI-Systeme lernen und die Entscheidungsfindung verbessern. Jedoch gilt dies bisher vor allem dann, wenn die KI auf eine Umgebung zurückgreifen kann, in welcher genügend historische Daten vorliegen.

Doch wie oft ist das in der Realität des Alltags der Fall? Was passiert, wenn die Datenlage uneindeutig ist? Wenn Aufgabenstellungen offengelassen sind? Wenn keine Präzedenzfälle bestehen, auf die man sich stützen kann? In diesen Situationen sind auch die Ergebnisse einer KI unsicher. Lückenhafte Definitionen verzerren das Ergebnis so, das Entscheidungen wie Zufallsprodukte aus verwirrend zusammengesetzten Informationsfetzen erscheinen.  

Ähnlich wie bei der menschlichen Intuition verhält es sich auch mit den Ergebnissen von KI Analysen und vorausschauenden Entscheidungsfindungen:

  • In Umgebungen, in denen genügend historische Daten zur Vorhersage künftiger Ergebnisse vorliegen ist KI geeignet für vorausschauende Entscheidungen
  • In unsicheren Umgebungen (insbesondere wenn es keinen Präzedenzfall gibt, auf den man sich stützen könnte) sind auch KI Ergebnisse unsicher und durch zufällige Schnittmengen in Daten ungünstig verzerrt

Je mehr Entscheidungen in Organisationen KI-basiert getroffen werden, desto öfter tritt somit die Frage auf, welche Eckdaten zur Bedingung werden müssen, um auch in unsicheren und unvollständigen Aufgabenstellungen zu guten Entscheidungen zu kommen. Um zu entscheiden, welche Parameter eine künstliche Intuition bearbeiten muss, muss zunächst reflektiert werden, welche Werte bei intuitiven Entscheidungen wichtig sind, wenn sie durch uns Menschen getroffen werden. Wie entsteht aus unserer Wahrnehmung, unserer Erinnerung und unsere emotionalen Perspektive eine Intuition? Und was davon könnte bzw. sollte parametrisiert auf eine künstliche Intelligenz übertragen werden?

Wir können uns den menschlichen von Intuition geprägte Entscheidungsfindungsprozess somit bildlich gesprochen wie ein nicht vollständig bekanntes Knäul an Informationen und ineinandergreifenden Abläufen vorstellen. Wir können für unsere Einschätzungen Einflüsse und Ergebnis beobachten. Wir können Rückschlüsse ziehen. Doch was bei den Verarbeitungsprozessen der Informationen ineinander spielt liegt für uns im Dunkeln.

In diesem wiederum versuchen wir Aspekte auszumachen, die uns besonders prägnant und relevant erscheinen. Um das Aufdröseln dieses Knäuels innerhalb einer Organisation gemeinsam zu behandeln habe ich das BLACK BOX Workshop Konzept gestaltet.

Das Prinzip einer Blackbox beschreibt Prozesse mit Input und Output, bei welchen die Verarbeitung im Dunkeln liegt.

Bei dem Workshop wird ein Entscheidungsprozess in drei verschiedene Prozesse aufgeteilt:

INPUT: Welche Informationen habe ich zur Verfügung, was kann ich in den Entscheidungsprozess mit einbeziehen? In welchem Rahmen bearbeite ich die Frage und unter welchen Umständen wurde sie an mich herangetragen?

VERARBEITUNG: Welche eigenen Perspektive, Emotionen und persönliche Bezüge habe ich zu dem Thema. Wie spielen diese mit den Input Informationen zusammen?

OUTPUT: Wie setzt sich dies zu einem Ergebnis zusammen? Was wurde muss ggf. an Überlegungen und Perspektiven ergänzt werden? Welchen (unbewussten) Einfluss sollte ich reflektieren und bestmöglich herausnehmen?

Da das WS Konzept die Übertragung von menschlichen Intuitiven Entscheidungen in den Aufgabenbereich einer KI im Fokus hat, bestehen zwei Blackboxen, deren Input, Prozess und Output diskutiert werden: Der Menschliche Kopf und der Maschinenraum der KI.

In dem Workshop beschäftigen sich die Teilnehmenden einerseits mit den Informationen, Vorgaben und Methoden, die die bisherigen menschlichen Entscheidungen und Einschätzungen geprägt haben. Andererseits beschäftigt sich mit den Parameter, die von der KI ausgewertet werden sowie deren Mechanismen. So können charakterisierende Parameter der verschiedenen Entscheidungsprozesse ausgemacht werden, um gemeinsam:

  • zu reflektieren, wie sich Entscheidungsprozesse ändern, sobald sie an eine KI abgegeben werden sowie
  • zu definieren, welche Anforderungen an eine KI bestehen, wenn sie entsprechende Aufgaben übertragen bekommt.

Bei dem BLACK BOX Workshop beim 2. Zukunftsforschungssymposium wurde beispielhaft die Erarbeitung eines neuen Konzepts zur nachhaltigen und fairen Umgestaltung des Rentensystems als Thema verwendet.

Die Workshop Teilnehmenden wurden in zwei Gruppen aufgeteilt. Gruppe A erarbeitete in kurzer Zeit spontan und damit zwangsläufig intuitiv eine Lösungsvorschlag für die Umgestaltung des Rentensystems. Gruppe B begab sich für die Bearbeitung der Aufgabe in die Rolle einer KI und war damit bei der Lösungserstellung an messbare quantitative Faktoren und Daten gebunden. Die erarbeiteten Ansätze wurden an einer dreidimensionale Blackbox im Workshop Raum gesammelt und auf der Rückseite unter „OUTPUT“ geclustert.

Eine Hälfte der Black Box stand dabei für die KI, die Andere für das Gehirn und die menschliche Intuition. Auf der Vorderseite der Box wurden unter INPUT jeweils die notwendigen Informationsgrundlagen für den jeweiligen Bearbeitungsvorgang des Themas notiert.

Im nächsten Schritt wurde die Frage nach dem Inneren der BLACK BOX behandelt. Dabei wurden von Gruppe A emotionale Bezüge, Erfahrungen, der eigene Wissensstand zum Thema und weitere persönlich Einflussfaktoren oder auch Methoden im Vorgehen gesammelt.

Gruppe B hingegen sammelte Parameter und Mechanismen, die zeigen, wie sie als KI das Thema angehen. Zum Beispiel welche Verzerrungen durch Übersetzungsfehler in Traingsdaten entstehen, wie Parameter aus Datensätzen generiert werden, wie sich Zufriedenheit im Alter als Maßstab für ein gutes Rentensystem überhaupt in Zahlen abbilden lässt.

Anschließend wurden die Ergebnisse vorgestellt. Es wurde bewertet, welche der Aspekte für einen Entscheidungsprozess wichtig und sinnvoll sind. Darauf aufbauend wurden diskutiert,

  • welche Parameter die KI in ihren Analysen berücksichtigen muss,
  • welche Dinge sich quantitativ nicht abbilden lassen und weiterhin von Menschen getragen werden sollen
  • und welche weiteren Entscheidungen besser an eine KI übertragen werden sollten

Abschließend war jede:r Teilnehmende aufgefordert, seine persönliche fiktive künstliche Intuition auszumalen und in einem Statement seine Anforderung an eine „intuitive“ KI zu formulieren.

ERGEBNIS

In dem Workshop kamen viele interessante Diskussionen auf, von hidden Biases, über die Balance von analytischen und intuitiven Elementen im Decision Making hin zu der Philosophie des freien Willens.

Meine persönlichen Highlights unserer Diskussionspunkte:

  • Eine KI sucht nach Mustern in Daten, die ihr zur Verfügung stehen und nutzt diese als Grundlage für ihre Entscheidungsfindung – ist das, was wir heute unter einer KI verstehen, dann nicht ohnehin vielmehr eine künstliche „Intuition“ als eine sog. künstliche „Intelligenz“?
    Denn KI kann nur aufgrund dessen entscheiden, was sie an Daten bereits bekommen hat. Ihre Entscheidungen sind ein Remix ihres Inputs – doch ist das bei uns Menschen anders?
  • Ein KI verbessert ihre Entscheidungsfindung iterativ, der Mensch besitzt das Selbstbewusstsein schon von seiner ersten Entscheidung überzeugt zu sein – ist das nicht ziemlich arrogant und hinfällig?
  • Exhaustivität: Müssen wir uns mit der Vorstellung anfreunden, dass wir die unzähligen Komponenten der Entscheidungsfindung einer KI nicht mehr in ihrer Vollständigkeit transparent nachvollziehen können – genau wie bei menschlicher Intuition?
  • Ist eine künstliche Intuition die bessere Intuition, da sie ihre Entscheidungen auf der Grundlage von unvorstellbar vielen Erfahrungen und diversen Perspektiven und aufbauen kann ? – im Vergleich zu der Intuition des Menschen mit einem eingeschränkten Erfahrungs- und Wissenshorizont.

Danke an alle Teilnehmenden für den spannenden Austausch.

Mein besonderer Dank geht an Sebastian Denef für seine Perspektive aus KI- Entwickler Sicht in unserer Diskussion und an Nilofar für ihre Unterstützung als Workshop Assistenz.

Referenzen/Quellen

Bassett, D. S., Sporns, O. ( Network neuroscience. Nature neuroscience, 20(3), 353 364.

Weh, L., & Soetebeer, M. (2021). KI-Ethik und Neuroethik fördern relationalen KI-Diskurs. In Arbeitswelt und KI 2030 (pp. 51-59). Springer Gabler, Wiesbaden.

Sloman, A. (1971). Interactions between philosophy and artificial intelligence: The role of intuition and non-logical reasoning in intelligence. Artificial intelligence, 2(3-4), 209-225.

Vincent, V. U. (2021). Integrating intuition and artificial intelligence in organizational decision-making. Business Horizons, 64(4), 425-438.

Scroll to Top