Künstliche Intelligenz und der Schwarze Schwan

Oft werfen höchst unwahrscheinliche Ereignisse die Geschichte durcheinander. Künstliche Intelligenz setzt aber in erster Linie auf statistische Wahrscheinlichkeiten und historische Muster aus der Vergangenheit, die fortgeschrieben werden, um Voraussagen zu machen. Laufen wir Gefahr mit dem vermehrten Einsatz von KI in Unternehmen und in unserer Gesellschaft immer anfälliger für unerwartete Ereignisse und Umwälzungen zu werden? Das muss nicht sein. Denn es kommt auf die vernünftige Aufgabenteilung zwischen Mensch und Maschine an.

Unwahrscheinliche Ereignisse, die ganze Gesellschaften und Märkte verändern, werden oft als ein „schwarzer Schwan“ bezeichnet. Das ist der Titel eines Buches von Nicolas Nassim Taleb, in dem er das Phänomen des „schwarzen Schwans beschreibt“. Und solche Ereignisse gibt es viel öfter, als wir uns normalerweise bewusst sind. Der Schwarze Schwan ist also nach einem klassischen Induktionsfehler benannt, bei dem ein Beobachter annimmt, dass alle Schwäne weiß sein müssen, weil alle Schwäne, die er gesehen hat, weiß sind. Schwarze Schwäne haben drei hervorstechende Merkmale:

  • Sie sind selten (statistische Ausreißer);
  • Sie sind unverhältnismäßig wirkungsvoll; und wegen dieser übergroßen Wirkung,
  • Menschen neigen dazu, bei schwarzen Schwänen im Nachhinein zu erklären, warum sie geschehen sind – um möglichst zu zeigen, dass sie angeblich vorhersehbar waren.

Talebs Schwarzer-Schwan-Theorie besagt jedoch, dass Schwarze Schwäne von Natur aus immer unvorhersehbar sind. Sie sind die „unbekannten Unbekannten“, für die selbst unsere umfassendsten Modelle keine Rechenschaft ablegen können. Was ist zum Beispiel  ein Schwarzer Schwan? Der Fall der Berliner Mauer, der Börsencrash 1987, die Entstehung des Internets, 9/11, die Finanzkrise 2008, die Corona Pandemie 2020.

Interessant in diesem Zusammenhang ist eben folgendes: Künstliche Intelligenz, insbesondere alle Formen des Machine Learning, orientiert sich an Mustern aus der Vergangenheit und am Mittelwert, dem statistisch Wahrscheinlichstem. Unvorhergesehene Dinge werden entweder ausgeblendet oder sind nur ein kleiner Ausreißer in der langen und umfangreichen Datenreihe. Schwarze Schwäne werden also – selbst wenn sie in den Daten vorhanden sind – vom KI System grundsätzlich nicht ausreichend gewichtet!

Leben wir in Extremistan oder Mediocristan?

Um zu erklären, wie und warum Schwarze Schwäne vorkommen und was „Schwarzer Schwan“ bedeutet, prägt Talib in seinem Buch zwei Kategorien, um die messbaren Facetten der Realität zu beschreiben: Extremistan und Mediocristan.

In Mediocristan, also der mehr oder weniger durchschnittlichen Welt, ist die Zufälligkeit stark eingeschränkt, und die Abweichungen vom Durchschnitt sind gering. Für die physischen Merkmale wie Größe und Gewicht der Mediocristaner gilt: Sie haben obere und untere Grenzen, ihre Verteilung ist eine Glockenkurve, und selbst der größte oder leichteste Mensch ist nicht viel größer oder leichter als der Durchschnitt. In Mediocristan ist eine Vorhersage möglich. In der Theorie des Schwarzen Schwans leben Schwarze Schwäne nicht in Mediocristan.

In Extremistan ist die Zufälligkeit jedoch wild, und die Abweichungen vom Durchschnitt können extrem sein. Die meisten sozialen, vom Menschen geschaffenen Aspekte der menschlichen Gesellschaft – Wirtschaft, Börse, Politik – stammen aus Extremistan: Sie haben keine bekannten oberen oder unteren Grenzen, ihr Verhalten lässt sich nicht auf einer Glockenkurve festhalten, und einzelne Ereignisse oder Phänomene können exponentielle Auswirkungen auf die Durchschnittswerte haben.

Ein Beispiel: Stellen Sie sich vor, Sie setzen zehn Personen in einen Raum. Selbst wenn eine dieser Personen Dirk Nowitzki ist, dürfte die durchschnittliche Größe im Raum ziemlich nahe am menschlichen Durchschnitt (Mittelmaß) liegen. Wenn eine dieser Personen jedoch Jeff Bezos ist, ändert sich dagegen der Wohlstandsdurchschnitt plötzlich drastisch (Extremistan).

Warum schwarze Schwäne nicht erkannt werden

Nach der Theorie des schwarzen Schwans gibt es zwei Gründe, warum „Experten“ schlechte Vorhersagen machen:

1) Die menschliche Natur

Aufgrund der verschiedenen Gewohnheiten, die Menschen innewohnen – unsere Neigung, Geschichten zu erzählen, unser Glaube an Ursache und Wirkung, unsere Neigung, uns um bestimmte Ideen zu „gruppieren“ (Bestätigungsverzerrung) und in bestimmte Disziplinen oder Methoden „einzutunneln“ (Spezialisierung) – neigen wir dazu, die Auswirkungen des Zufalls auf unser Leben zu übersehen oder zu minimieren. Experten sind an diesem blinden Fleck nicht weniger schuld als der Durchschnittsbürger.

2) Fehlerhafte Methoden

Da Experten sowohl (1) sich in die Normen ihrer jeweiligen Disziplin „eintunneln“ als auch (2) ihre Vorhersagemodelle ausschließlich auf vergangene Ereignisse stützen, sind ihre Vorhersagen unweigerlich anfällig für das extrem Zufällige und Unvorhergesehene. Das gilt für Menschen und es gilt ebenso für die von Menschen geschaffenen Expertensysteme, in ihrer fortgeschrittenen Form KI Systeme. In der Entwicklungsgeschichte der KI gab es und gibt es bis heute zwei Ansätze, von denen der eine explizit als „Expertensystem“ bezeichnet wird. Ansatz hier war es, möglichst klare Regeln zu definieren, nach denen das System ein Problem lösen soll. In der Entwicklung haben sich dagegen zwar die Machine Learning Systeme, insbesondere Deep Learning, durchgesetzt, die sich nicht an klaren Regeln orientieren, sondern den Weg zur Problemlösung selbst „lernen“, also ausrechnen, sollen. Doch auch diese Systeme stützen sich letztlich auf Datenmengen der Vergangenheit und stellen im Laufe des „Lernens“ eigene Expertenregeln – in dem Falle Optimierungsregeln – auf. 

Nehmen wir zum Beispiel eine Finanzanalytikerin, die den Preis für ein Barrel Öl in zehn Jahren vorhersagt. Diese Analytikerin kann ein Modell unter Verwendung der allgemein akzeptierten und etablierten Standards ihres Fachgebiets erstellen: Vergangene und aktuelle Ölpreise, Projektionen der Autohersteller, prognostizierte Ölfeldrenditen und eine Vielzahl anderer Faktoren, die mit Hilfe der Techniken der Regressionsanalyse berechnet werden. Das Problem ist, dass dieses Modell von Natur aus eng gefasst ist. Es kann nicht das wirklich Zufällige berücksichtigen – eine Naturkatastrophe, die einen wichtigen Produzenten stört, oder einen Krieg, der die Nachfrage exponentiell erhöht. KI Systeme in der Finanzbranche gehen letztlich genauso vor, wie die menschliche Analytikerin; nur schneller und unter Verwendung und Auswertung von extrem vielen Daten.

Wo Vorhersagen von Mensch und Maschine scheitern

Laut der Theorie des Schwarzen Schwans besteht das zentrale Problem mit den Experten in ihrem unkritischen Glauben an die Möglichkeit einer Vorhersage, trotz des Berges an Beweisen, die darauf hindeuten, dass eine Vorhersage ein Narrendienst ist.

Einige wichtige Illustrationen für die Vergeblichkeit von Vorhersagen sind:

Entdeckungen

Die meisten bahnbrechenden Entdeckungen entstehen durch Zufall oder Glück und nicht durch sorgfältige und mühsame Arbeit. Das Paradebeispiel ist die Entdeckung des Penicillins. Der Entdecker Alexander Fleming forschte nicht an Antibiotika, sondern untersuchte die Eigenschaften eines bestimmten Bakteriums. Während seines Urlaubs ließ er einen Stapel Kulturen in seinem Labor liegen, und als er zurückkam, stellte er fest, dass sich auf einer der Kulturen ein bakterientötender Schimmelpilz gebildet hatte. Voilá – das erste Antibiotikum der Welt.

Dynamische Systeme

Ein dynamisches System ist ein System, in dem eine Reihe von Eingaben sich gegenseitig beeinflussen. Während die Vorhersage in einem System, das beispielsweise zwei Inputs enthält, eine einfache Angelegenheit ist – man muss nur die Eigenschaften und das Verhalten dieser beiden Inputs berücksichtigen -, ist die Vorhersage in einem System, das beispielsweise fünfhundert Milliarden Inputs enthält, effektiv unmöglich.

Die bekannteste Veranschaulichung der Eigenschaften eines dynamischen Systems ist der „Schmetterlingseffekt“. Diese Idee wurde von einem Meteorologen des MIT vorgeschlagen, der entdeckte, dass eine infinitesimale Änderung der Eingabeparameter die Wettermodelle drastisch verändern kann. Der „Schmetterlingseffekt“ beschreibt die Möglichkeit, dass der Flügelschlag eines Schmetterlings einige Wochen später und viele Kilometer entfernt einen Tornado auslösen kann.

Auch die Vergangenheit ist ungewiss

Die Vergangenheit selbst ist ebenso unerklärlich wie die Zukunft, selbst die großen Ereignisse des schwarzen Schwans. Die Theorie des schwarzen Schwans besagt, dass wir aufgrund der Komplexität der Welt und der Tatsache, dass ein einzelnes Ereignis durch eine beliebige Anzahl winziger Ursachen beeinflusst werden kann, die Ursachen für Ereignisse nicht umkehren können.

Ein Beispiel soll zur Veranschaulichung beitragen. Denken Sie an einen Eiswürfel, der auf einem Tisch sitzt. Stellen Sie sich die Form der Pfütze vor, die der Eiswürfel beim Schmelzen bildet.

Stellen Sie sich nun eine Pfütze auf dem Tisch vor und versuchen Sie sich vorzustellen, wie diese Pfütze dorthin gelangt ist.

Wenn Historiker Ursachen für bestimmte historische Ereignisse vorschlagen, betrachten sie Pfützen und stellen sich Eiswürfel vor (oder ein verschüttetes Glas Wasser oder eine andere Ursache). Das Problem ist, dass die schiere Anzahl der möglichen Ursachen für eine Pfütze – oder ein historisches Ereignis – jede Zuschreibung der Ursache verdächtig erscheinen lässt.

Wo der Einsatz von KI Systemen Sinn macht – und wo nicht

Wenn Sie nicht vorhersagen können, wie gehen Sie dann mit der Unsicherheit um?

1) Keine Angst vor den kleinen Vorhersagen

Wenn es um niedrige Einsätze, alltägliche Vorhersagen – etwa über das Wetter oder den Ausgang eines Spiels – geht, schadet es nicht, unserer natürlichen Vorliebe für Vorhersagen nachzugeben: Wenn wir uns irren, sind die Auswirkungen minimal. Erst wenn wir groß angelegte Vorhersagen machen und auf ihrer Grundlage ein echtes Risiko eingehen, geraten wir in Schwierigkeiten.

Für den Einsatz von KI bedeutet das, sich als Unternehmen oder Organisation auf die Anwendungen in klar definierten Prozessen und Umfeldern zu konzentrieren. Das KI basierte Automatisieren von Standardabläufen ist absolut gerechtfertigt. In der Dokumentenerkennung oder in der Überwachung und Instandhaltung von industriellen Maschinenparks werden keine schwarzen Schwäne lauern. Anders sieht es aus, wenn es beispielsweise um die Prognosen von komplexen Märkten geht oder wenn die weitere Entwicklung von neuen Produkten, Dienstleistungen oder auch Technologien und deren Potenzial vorhergesagt werden soll. KI Systeme werden hier auch Ergebnisse produzieren können. Die werden auch nicht allzu unterschiedlich zu den Vorhersagen der menschlichen „Experten“ sein. Denn Menschen sind ebenfalls besonders gut darin, die wahrscheinlichen Dinge vorauszusagen; nur nicht so schnell und korrekt wie KI Systeme. Aber: Menschen können auch ausserhalb der eigenen Box oder des eigenen Tunnels denken. Zumindest ist das grundsätzlich für jeden Menschen möglich. Genau diese Fähigkeit ist es, die den Menschen bei Voraussagen zu komplexen Dingen neben oder anstelle der KI auszeichnet.

Typisch menschliche Eigenschaften

2) Maximieren Sie die Möglichkeiten für positive schwarze Schwäne

Obwohl die denkwürdigsten Schwarzen Schwäne typischerweise die negativ störenden Schwäne sind, können Schwarze Schwäne auch ein Glücksfall sein.

Die Theorie des Schwarzen Schwans bietet zwei Strategien, um uns für positive Schwarze Schwäne zu öffnen: (1) Geselligkeit und (2) Proaktivität, wenn sich uns eine Gelegenheit bietet. Geselligkeit versetzt uns in die Gesellschaft anderer, die in der Lage sein könnten, uns zu helfen – wir wissen nie, wohin ein zwangloses Gespräch führen könnte. Und Proaktivität – zum Beispiel eine erfolgreiche Bekanntschaft auf eine Einladung zu einem Kaffee hin aufzunehmen – stellt sicher, dass wir unsere Glückspause nie verpassen.

Geselligkeit und Proaktivität sind typisch menschliche Eigenschaften und Verhaltensweisen. Gibt es eine gesellige KI? Systeme und Anwendungen Künstlicher Intelligenz im Bereich der Predictive Analytics scheine auf den ersten Blick proaktiv zu sein. Schließlich können sie beispielsweise einen Reparaturprozess auslösen, bevor überhaupt ein Versagen oder ein Ausfall vorliegen. Allerdings geschieht das auch erst auf einen bestimmten Träger hin, wenn also eine kritische Schwelle der Wahrscheinlichkeit erreicht ist. Das System reagiert also und ist nicht proaktiv aus sich selbst heraus. 

Das Risiko ist die Domäne des Menschen

3) Annahme der „Barbell-Strategie“.

Die Langhantelstrategie ist ein wichtiger Teil von Talebs Theorie des schwarzen Schwans. Als Taleb ein Händler war, verfolgte er eine eigenwillige Anlagestrategie, um sich gegen einen finanziellen Schwarzen Schwan zu impfen. Er widmete 85%-90% seines Portfolios extrem sicheren Instrumenten (z.B. Schatzanweisungen) und ging mit den verbleibenden 10%-15% extrem riskante Wetten ein, z.B. in Risikokapital-Portfolios. (Eine weitere Variante der Strategie besteht darin, ein hochspekulatives Portfolio zu haben, sich aber gegen Verluste von mehr als 15% zu versichern). Der risikoreiche Teil des Portfolios der Talib war stark diversifiziert: Er wollte so viele kleine Wetten wie möglich platzieren, um die Wahrscheinlichkeit zu erhöhen, dass sich ein Schwarzer Schwan zu seinen Gunsten auszahlen würde.

Die „Langhantelstrategie“ ist darauf ausgerichtet, den Schmerz eines negativen Schwarzen Schwans zu minimieren und gleichzeitig potenziell von den Vorteilen eines positiven Schwarzen Schwans zu profitieren. Wenn der Markt zusammenbricht, wird eine Person, die diese Strategie verfolgt, unterhalb des „Floors“ der sicheren Anlagen (sagen wir 85%) nicht verletzt, aber wenn der Markt explodiert, hat sie die Chance, aufgrund der spekulativen Wetten Kapital zu schlagen.

Für den Einsatz von KI bedeutet das, wenn man dieser Strategie folgen will, dass die 15 Prozent riskanter Bestandteile von Menschen gemanagt werden sollten, da sie nicht voraussagbaren Wahrscheinlichkeiten folgen. Das gilt nicht nur für Kapitalanlagen. Das gleiche Muster kann auch auf die verschiedenen Bestandteile oder Stufen von Produktionsprozessen oder Logistikketten angewendet werden. Ebenfalls gilt das beispielsweise für Kampagnen im Multichannel Marketing oder auch für verschiedene Bestandteile von komplexen medizinischen Diagnosen und Behandlungen.

Positive und negative Eventualitäten

4) Unterscheidung zwischen positiven Eventualitäten und negativen

Verschiedene Bereiche der Gesellschaft sind den Schwarzen Schwänen unterschiedlich ausgesetzt, sowohl positiv als auch negativ. Zum Beispiel sind wissenschaftliche Forschung und Filmemachen „positive Black Swan-Bereiche“ – Katastrophen sind selten, und es besteht immer die Möglichkeit, den Erfolg zu zerschlagen. Der Aktienmarkt oder die Katastrophenversicherung hingegen sind „negative Black Swan-Gebiete“ – die Vorteile sind relativ bescheiden im Vergleich zu der Möglichkeit eines finanziellen Ruins.

Es genügt zu sagen, dass wir in einem positiven Gebiet des Schwarzen Schwans mehr Risiken eingehen sollten als in einem negativen Gebiet des Schwarzen Schwans.

KI hilft bei der Bewältigung von schwarzen Schwänen

5) Vorbereiten, nicht vorhersagen

Da Schwarze Schwäne per definitionem unvorhersehbar sind, sind wir besser in der Lage, uns auf verschiedenste Eventualitäten vorzubereiten, als bestimmte Ereignisse vorherzusagen. Das liegt daran, dass die Theorie des Schwarzen Schwans besagt, dass die Schwarzen Schwäne selbst zwar nie vorhergesagt werden können, wohl aber ihre Auswirkungen. Zum Beispiel kann niemand vorhersagen, wann ein Erdbeben eintreten wird, aber man kann wissen, welche Auswirkungen es haben wird, und sich angemessen darauf vorbereiten. Dasselbe gilt für eine wirtschaftliche Rezession. Niemand kann genau vorhersagen, wann sie eintreten wird, aber mit der sogenannten „Langhantelstrategie“ können wir zumindest auf eine solche vorbereitet sein. Im Umgang mit den Folgen solcher unvorhergesehen Ereignisse und Krisen kommt es jedoch auf die effizienteste Verwendung der Ressourcen an. Letztlich ist das eine Optimierungsaufgabe, die KI Systeme wiederum extrem gut zu leisten im Stande sind und Organisationen und Menschen damit helfen können, möglichst schnell mit den Überraschungen fertig zu werden.

Team WEGOFIVE
team@wegofive.net
No Comments

Post A Comment

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.