Mensch und KI als Team gegen „Fake News“

Fake News, Lügenkampagnen und automatisierte Propaganda sind eine der größten Herausforderungen für demokratische Gesellschaften, die Politik und auch für Unternehmen. Künstliche Intelligenz wird von einigen als die ultimative Lösung dieses Problems gepriesen. Stimmt das? Was kann KI gegen Fake News ausrichten – und was nicht?

Der Auftritt vor dem Untersuchungsausschuss des US Kongresses war ebenso unangenehm wie die Befragung vor dem Ausschuss des Europäischen Parlaments: Mark Zuckerberg, Chef von Facebook, Instagram und Whatsapp, musste sich dafür rechtfertigen, dass seine Plattformen und Messenger Dienste zu Fake-News Schleudern verkommen seien. Natürlich sollte er auch eine Antwort auf die Frage geben, was er denn dagegen unternehmen wolle. Seine Antwort: KI wird das lösen. Das stimmt. Aber nur zum Teil denn die Technologien der Künstlichen Intelligenz können hier massiv helfen. Das Problem lösen werden sie aber nicht. Facebook selbst hat das auch erkannt, denn das Unternehmen setzt de facto eben nicht allein auf KI, sondern auch und gerade auf die menschliche Urteilskraft seiner Nutzer. 

Fake News als Problem für Demokratie, Medien und Unternehmen

Und das Problem der Fake-News wird nicht unbedingt kleiner. Ganz im Gegenteil. Die Präsidentschaftswahlen in den USA stehen weiter im begründeten Verdacht, durch Fake News zu Gunsten von Donald Trump manipuliert worden zu sein. Auch beim Brexit Votum war das nachzuweisen – die Folgen spüren wir alle aktueller und deutlicher als je zuvor. Bei der Präsidentschaftswahl in Brasilien nutzte das Team von Wahlgewinner Jair Bolsonaro, massive Fake News Kampagnen über Whats App, um Wähler für den rechten Politiker zu mobilisieren und seine Gegner zu diskreditieren. Im Jahr 2019 stehen wichtige Europawahlen an und spätesten Ende des Jahres wird auch die Politik in den USA wieder voll auf Wahlkampfmodus umschalten. Hochzeiten für Fake-News, automatisierte Social Bot Armeen und Troll-Fabriken. In Medien, Politik, Unternehmen und der Forschung steht das Thema seither ganz oben auf der Agenda. Auch wenn keine Lösung gefunden ist, lassen sich doch wenigstens erste erfolgversprechende Ansätze finden.

Genau genommen handelt es sich hier um vier Ansätze gegen Fake News, die auf Data Science und Künstlicher Intelligenz beruhen. Die Überprüfung einzelner Tatsachenbehauptungen, das Erkennen von gefälschten Artikeln, das Aufspüren und Identifizieren von Trollen und die Bewertung der Glaubwürdigkeit von Nachrichtenquellen. Geht es um die Glaubwürdigkeit von Nachrichtenquellen, so wurde bisher versucht, die Zuverlässigkeit eines Angebots anhand der Frage zu beurteilen, wie viele seiner Aussagen zu Aussagen passen, die bereits auf ihre Korrektheit überprüft wurden, oder ihnen widersprechen. Eine Maschine vergleicht also die Historie von Tatsachen-Behauptungen von Medien mit den Befunden von Checking-Seiten wie Snopes oder PolitiFact. Doch dieser Mechanismus basiert auf Fakten-Überprüfungen durch menschliche Experten und bezieht sich nur auf die Geschichte eines Angebots, nicht auf die Gegenwart. Künstliche Intelligenz spielt hier also nicht wirklich eine Rolle. Machine Learning und KI kann aber als nächste Stufe eingesetzt werden.

KI kann falsche Meldungen mit verschiedenen Methoden aufspüren 

Das geht zu Beispiel über das Erkennen von Mustern in Texten oder Fotos. Neuronale Netze lassen sich trainieren, typische Muster und Bestandteile in Fake News zu erkennen. Dazu braucht das Netz für das Training einen möglichst großen Satz an „echten“ Fake News. In einem selbständigen Lernprozess kann das Netz identifizieren welche Kriterien und Details in diesen Datensätzen immer wieder vorkommen und daraus Gesetzmäßigkeiten und statistische Wahrscheinlichkeiten ableiten. Das ist möglich für Texte und für Bilder beziehungsweise Videos. Ist der Lernprozess abgeschlossen, kann man die Maschine sozusagen auf das Internet oder ein Social Network loslassen und sie wird entsprechende Fake News erkennen. Kleiner Haken: Das funktioniert allerdings nur dann wenn die falschen Meldungen auch die bekannten und gelernten Kriterien aufweisen. Sind sie modifiziert, von Menschen oder von Algorithmen auf der Gegenseite, dann sind sie zunehmend schwierig zu erkennen.

Word Embeddings und semantische Analyse sind ähnliche Methoden, um Fake News maschinell zu identifizieren. Natural Language Processing und Word Embedding Technologien sind in der Lage, Bedeutungen zu Worten, Redewendungen oder Ausdrucksweisen zuzuordnen. Das nennt sich dann semantische Analyse. Basis sind auch hier wieder möglichst große Datenbestände, die daraufhin durchforstet und analysiert werden, welche Worte und Ausdrücke mit welchen anderen in einer statistisch signifikanten Beziehung stehen. Daraus lässt sich ableiten, welche Worte oder Wortkombinationen oder auch welche Synonyme und Umschreibungen in bestimmten Zusammenhängen – in dem Fall Fake News – typisch sind und die KI kann sie identifizieren. Aber auch hier gilt: Nur was aus der Vergangenheit bekannt ist, kann überhaupt gefunden und klassifiziert werden. 

Mensch und Künstliche Intelligenz finden nur gemeinsam die „Wahrheit“

Weil die inhaltlich ausgerichteten KI und Machine Learning Methoden bei aller Leistungsfähigkeit eben auch ihre Schwachpunkte haben, wird ein weiteres Verfahren eingesetzt. Auch hier kommen neuronale Netze und Machine Learning Technologien zum Einsatz, aber bezogen auf andere Basisdaten und sozusagen mit einer anderen Lern- und Suchaufgabe. Dieses Vorgehen orientiert sich an der simplen und treffenden Wahrheit, dass Menschen – oder Systeme – ehrlich sind, mit dem was sie tun. Anstatt also Muster in Texten, Bildern, Videos, Post oder Messenger-Nachrichten und deren Inhalten lernen und erkennen zu wollen, geht es hier darum, Verhaltensmuster oder typische Strategien zu erkennen, die vor allem bei der Lancierung und der Verbreitung von Fake News zum Einsatz kommen, weil sie sich offensichtlich als „erfolgreich“ erwiesen haben. Wenn solche Strategien dann rechtzeitig erkannt werden, lässt sich durchaus etwas gegen die Verbreitung von Fake News tun und im besten Falle sogar durch Rückverfolgung die Quelle identifizieren. Ein Beispiel wie so etwas in kleinerem Rahmen – nämlich bezogen auf einen Präsidenten und seinen Stab – durchaus gut funktioniert ist der TrumpOrNotBot auf Twitter, der ziemlich treffsicher sagen kann, ob der echte Donald Trump mal wieder Nachrichten absetzt oder nicht. 

Mit Künstlicher Intelligenz lässt sich also im Kampf gegen Fake News einiges erreichen, aber der Kampf nicht völlig gewinnen. Auch wenn Marc Zuckerberg das zumindest offiziell behauptet, sein Unternehmen dann aber etwas anderes tut (… siehe oben zum Thema „Ehrlichkeit“). Das liegt an inhärenten Schwachstellen der beschriebenen Methoden, die auch nicht neutralisiert werden können. Das ist zum einen der Mangel an Daten. Je mehr Daten eine KI zum Lernen nutzen kann, umso besser ist ihre Funktionsweise und ihre Erfolgsquote. Bei Falschmeldungen und Propaganda ist es nun mal so, dass sie eben alles andere als transparent und leicht erkennbar ist. Zudem bezieht sich die Datenlage, wie schon beschrieben immer auf die Vergangenheit, wobei es aber darauf ankommt, Fake News möglichst schnell im Hier und Jetzt zu erkennen. Des Weiteren sind Machine Learning Algorithmen umso besser, je eindeutiger ihre Trainingsdaten sind. Was ist aber eine eindeutige „Wahrheit“ in einer freien Medienlandschaft, gegen die Falschmeldungen und Propaganda zweifelsfrei verglichen und identifiziert werden können? Spätestens hier kommt es also auf menschliche Urteilskraft im Allgemeinen und von Journalisten und Medienprofis im Besonderen an. Denn nur beides zusammen, Machine Learning und menschliche Professionalität, sind der beste und einzige Schutz vor Fake News & Co.

Quellen:

https://newsroom.fb.com/news/2018/10/inside-feed-hunt-false-news-october-2018/ , https://www.theverge.com/2018/10/19/18001288/facebook-fake-news-hunt-spread-blog-election-misinformation

http://faktenfinder.tagesschau.de/ausland/fakenews-kampagne-brasilien-101.html

https://twitter.com/trumpornotbot?lang=de ,

https://www.theatlantic.com/politics/archive/2017/03/a-bot-that-detects-when-donald-trump-is-tweeting/521127/

Tags:
, ,
Team WEGOFIVE
team@wegofive.net
No Comments

Post A Comment

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.