29. August '24
von Natalie Schalk
Forschende der Hochschule Coburg haben ein Tool entwickelt, das mithilfe von KI verfälschte und einseitige Informationen in Online-Nachrichten anzeigt.
Als „Bias“ wird die verfälschte mediale Verzerrung von Informationen bezeichnet. Das sind nicht immer absichtlich propagandistische Texte, sondern auch unbewusst einseitige Formulierungen. Das Thema ist wichtig, denn Media-Bias beeinflusst unser Kaufverhalten genauso wie Wahlergebnisse. „Jeder informiert sich heute auf seinen eigenen Kanälen“, sagt Prof. Dr. Jochen L. Leidner. „Die Informationen sind verstreut und die Leute sind nicht dazu ausgebildet, zu hinterfragen, wo Inhalte herkommen und wer Interesse daran hat, dass sie dies oder jenes glauben“. Der Computerlinguist hat eine Forschungsprofessur an der Hochschule Coburg inne, war vorher Forschungsdirektor bei der weltweiten Nachrichtenagentur Reuters in London und hat sein Interesse an Medien mit nach Oberfranken gebracht: Er unterrichtet an der Hochschule Coburg und als Gast an der Universität Sheffield zum Beispiel den interdisziplinären Kurs „Media Manipulation, Propaganda and Fake News“.
Fakten statt Fake News
Leidner ist Gründungsmitglied des neuen Forschungsinstituts „Coburg University Research Center for Responsible Artificial Intelligence” (CRAI) der Hochschule Coburg. In diesem Rahmen hat er gemeinsam mit seinem wissenschaftlichen Mitarbeiter Tim Menzner ein System entwickelt, das in der Lage ist, 27 Arten von medialer Verzerrung zu erkennen und voneinander zu unterscheiden. Dieser sogenannte „BiasScanner“ wendet maschinelles Lernen an, und kann mithilfe eines sogenannten „großen Sprachmodells“ basierend auf einem neuronalen Netz beispielsweise persönliche Angriffe auf Minderheiten identifizieren, kommerziellen Bias, bei dem die Textstelle wirtschaftliche Interessen bedient oder auch den „Kausales-Missverständnis-Bias“: Das ist der Fall, wenn eine Ursache-Wirkung-Beziehung zwischen zwei Variablen angenommen wird, ohne dass ausreichende Beweise vorliegen. Erkannt wird auch der weit verbreitete „Ad-Hominem-Bias“. Dabei wird nicht auf den Inhalt eines Arguments eingegangen, sondern auf denjenigen, der das Argument vorbringt – Charakter, Motive oder andere Eigenschaften der Person werden angegriffen. Also zum Beispiel etwas wie: „Von anderen bessere Klimapolitik fordern, aber selbst mit dem Flieger in den Urlaub jetten: Die reinste Heuchelei!“
Eine einzigartige KI-Anwendung für Textanalysen
Häufig werden in Online-Medien Fakten und Meinung vermischt. Bei der Masse an Informationen ist es für Menschen unmöglich, das immer kritisch zu prüfen. Es gibt bereits verschiedene Versuche, technische Lösungen dafür zu entwickeln. Dabei wird zum Beispiel die Tendenz eines ganzen Textes im Vergleich zu anderen Texten analysiert. Oder aus Kommentaren von Nutzerinnen und Nutzern wird eine Tendenz geschlussfolgert. „Das sieht auf den ersten Blick ähnlich aus“, sagt Leidner, „aber es ist etwas völlig anderes.“ Der BiasScanner der Coburger Wissenschaftler wendet Methoden der Textanalyse völlig wertfrei auf jeden Satz einzeln an und prüft, welche der 27 Bias-Unterkategorien, auf die das KI-Tool trainiert wurde, auf einen Satz zutreffen – und ob überhaupt eine vorkommt. Das System markiert Bias im Text farblich und erzeugt erklärende Begründungen für jede automatische Entscheidung. Gleichzeitig wird die Stärke der Beeinflussung auf einer Skala angezeigt.
Partnerinnen und Partner gesucht: So geht es mit dem BiasScanner weiter
Die Software unterstützt mehrere Sprachen und kann in einer Demo-Version unter biasscanner.org ausprobiert werden. Ziel ist, dass möglichst viele Menschen sie nutzen können, um manipulative Aussagen im Internet zu erkennen und besser zu verstehen. Der BiasScanner ist inzwischen auch schon als Add-on für den ersten Browser erhältlich und die Coburger Forschungsgruppe sucht Unterstützung, um das Projekt weiter voranzutreiben und zu entwickeln. Gefragt sind Fördermittel, Spenden sowie Forschungskollaborationen. Aber auch die Bevölkerung kann dabei helfen, die Qualität der Ergebnisse zu verbessern. Leidner erklärt: „Wir haben eine Daten-Spende-Funktion eingebaut. Wenn jemand spannende Beispiele hat, bei denen der BiasScanner eine Manipulation noch nicht entdeckt, kann er solche Artikel auf Knopfdruck für die Forschung spenden.“