dekorativ
Kommentare 0

Zwischen Brandbeschleuniger und Feuerlöscher: Wie KI die Dynamik von Fake News verändert (Teil 3 der KI-Reihe)

Künstliche Intelligenz verändert die Art und Weise, wie Informationen entstehen, verbreitet und bewertet werden. KI-gestützte Systeme erleichtern zunehmend die Produktion von realistisch wirkenden Texten, Bildern und Videos – und damit neue Formen von Desinformation. Aber inwieweit bieten sie bereits die Möglichkeit, Falschmeldungen zu erkennen? Und was heißt das für Öffentliche Bibliotheken?

KI als Werkzeug zur Erkennung von Desinformation

Mit dem Aufkommen von Sprach- und Bildgeneratoren wird die Erzeugung und Verbreitung von Fake News zunehmend einfacher verbreitet. KI kann realistisch wirkende Nachrichten, Bilder und Deepfake-Videos generieren. Dadurch steigt nicht nur die Quantität von Falschinformationen, diese sind mittlerweile oft schwieriger zu erkennen. Zudem verschwimmen die Grenzen zwischen Wahrheit und Falschinformation, auch wenn der Inhalt durch KI nur subtil verändert wird.

Neben den Schattenseiten kann eine KI auch dabei helfen, Fake News aufzudecken und einzudämmen. Algorithmen können Muster von Falschinformationen erkennen, Quellen verifizieren und dabei helfen, Desinformationen schneller zu entlarven. Die Technik ist somit nicht nur ein Teil des Problems, sondern auch potenziell Teil der Lösung.

KI-Tools zur Erkennung von Fake News

Der Deepfake-o-Meter von der University at Buffalo kann Bilder und Videos Deepfake anhand von KI entdecken. Die Nutzung des Deepfake-o-Meters ist kostenlos und hilft dabei, aus Bild-, Video-, und Tondateien Deepfakes zu erkennen. Nach der Registrierung können Nutzende eine Mediendatei hochladen und durch verschiedene Open-Source-Algorithmen analysieren lassen. Innerhalb weniger Minuten liefert das Tool dann eine Einschätzung, ob die Datei Anzeichen für KI-Manipulation enthält. Dabei handelt es sich wie bereits um eine Einschätzung, die von einer KI selbst ausgegeben wird.  Allerdings: Die Ergebnisse daraus sind nicht zu 100 Prozent zuverlässig, können aber eine Hilfe sein. Die Analyse von Deepfake-o-Meter ist rein technisch und muss von den Nutzenden interpretiert werden. 

Sightengine ist ein KI-Tool, das Bilder, Videos und Texte analysiert und automatisch moderiert. Es wird von Plattformen genutzt, um unangemessene Inhalte zu erkennen und zu entfernen. Das Tool basiert auf ein Wissen aus echten und manipulierten Medieninhalten um Muster erkennen zu können, die auf problematische Inhalte hindeuten.

Europäische Forschungsprojekte zu KI und Desinformation

Das deutsche Forschungsprojekt NoFake setzte genau an der Ungenauigkeit bisheriger Möglichkeiten an, indem mit einer Kombination aus Automatisierung und journalistischer Expertise über eine Plattform für Faktenchecks.

Ziel des Projektes war es, ein digitales Assistenzsystem zu entwickeln, das Menschen dabei unterstützt, Falschinformationen im Internet schnell zu erkenne. Dabei geht es vor allem um Texte und Bilder, die über Online-Plattformen verbreitet werden. Das Assistenzsystem soll großen Mengen an Daten automatisch analysieren, verdächtige Inhalte herausfiltern und dabei zeigen, wie sich diese Inhalte verbreiten. Dafür untersucht das Forschungsteam, wie bestehende Methoden zur Analyse von Texten und Bildern verbessert werden können, damit sie Fake News zuverlässig erkennen. Zu dem System werden Schulungen und Lernmaterialien entwickelt, damit Crowdworker lernen, sicher mit dem System zu arbeiten. Die Materialien sollen ihnen auch dabei helfen, ohne journalistische Ausbildung, Fake News zu erkennen. Koordiniert wurde das Projekt von der Ruhr-Universität Bochum. Partner waren die Technische Universität Dortmund, CORRECTIV gGmbH Essen und die Technische Universität Berlin. Das Projekt lief von 2021 bis 2024 und wurde gefördert vom Bundesministerium für Forschung, Technologie und Raumfahrt.

Das europäische Forschungsprojekt vera.ai entwickelte ebenfalls Tools, die nicht nur Fake News erkennen, sondern die Nutzenden nachvollziehbar aufklären, warum ein bestimmter Inhalt als manipuliert oder falsch eingestuft wird. Dabei werden Inhalte in verschiedenen Sprachen und Formaten analysiert, um Desinformationskampagnen zu erkennen. Dabei hat vera.ai als Zielgruppe nicht vulnerable Gruppen oder Behörden, sondern Forschende, Journalistinnen und Journalisten und andere Medienprofis. Beteiligt waren unter anderem das Fraunhofer IDMT, die Deutsche Welle und die University of Sheffield.

Im Forschungsprojekt NEBULA arbeiteten Hochschulen, Behörden und Unternehmen von Juli 2022 bis Juni 2025 gemeinsam daran, Fake News frühzeitig zu erkennen und ihre Wirkung zu entschärfen. Das Projekt hatte zwei Zielgruppen im Fokus.

Zum einen sollen besonders gefährdete Gruppen wie ältere Menschen oder Nutzende mit geringer Medienkompetenz durch verständliche und transparente Technologien unterstützt und gestärkt werden. Des Weiteren lag der Fokus auch auf Behörden und Organisationen mit Sicherheitsaufgaben. Dazu wurden Smartphone-Apps und Browser-Plugins entwickelt, mit denen sich die Glaubwürdigkeit von Nachrichten prüfen lassen.

Das Projekt legt dabei großen Wert auf die Vermittlung. Die KI muss begründen können, warum ein Inhalt als potenziell falsch eingestuft wird. Die Ergebnisse aus NEBULA bestehen aus reinen Prototypen – es gibt dazu keine funktionsfähige App.

Ein wichtiges Fazit: eine genaue KI-Detektion ist derzeit noch nicht möglich, kann aber dabei helfen, vorzufiltern. Aus den Nutzerstudien zeigte sich außerdem, dass das Arbeiten mit Indikatorenanzeigen großes Potenzial beherbergt, da das kritische Denken der Nutzenden aktiv angeregt wird – in diese Richtung soll laut Dr.-Ing. Katrin Hartwig von der Technischen Universität Darmstadt, auch zukünftig weiter geforscht werden. Beteiligt waren unter anderem die Technische Universität Darmstadt, die Universität Siegen, die Hochschule Bonn-Rhein-Sieg, die Universität Paderborn und die NanoGiants GmbH als Verbundpartner.

Die Beispiele aus der Praxis und der Forschung zeigen: Es entstehen zunehmend mehr Werkzeuge, die Fake News erkennen und transparent machen. Jedoch sind diese Werkzeuge (noch) kein gutes Löschmittel.

Projekte in Öffentlichen Bibliotheken

Umso wichtiger wird die Förderung von Medien- und Informationskompetenz, nicht nur in Schulen oder Universitäten, sondern auch in Öffentlichen Bibliotheken. Sie können zu Orten werden, an denen Menschen lernen, KI nicht nur zu nutzen, sondern auch kritisch zu betrachten. Beispielsweise sind Workshops zur Erkennung von Fake News, Deepfakes möglich oder das Ausprobieren von KI-Erkennungstools im geschützten Rahmen.

Einige Bibliotheken wie zum Beispiel die Zentralbibliothek Duisburg boten ein Aktionslabor, konzipiert von der ZEIT STIFTUNG BUCERIUS, an. An sowohl analogen als auch digitalen Mitmachstationen konnte man mit Virtual-Reality-Angeboten und interaktiven Spielen das eigene Informations- und Nachrichtenverhalten hinterfragen. Begleitend zu der Ausstellung gab es auch Veranstaltungen zu Themen wie „Was kann ich noch glauben? Desinformation, Fake News und KI-Manipulation besser verstehen“ oder „Nah und neutral? Die Kunst der journalistischen Berichterstattung“.

Auch durch niedrigschwellige Angebote, wie beispielsweise durch die KI-Kreativ-Werkstatt in der Stadtbibliothek Dormagen, können Kinder und Jugendliche spielerisch einen kritischen und verantwortungsbewussten mit KI erlernen. Der Workshop in der Stadtbibliothek Dormagen ermöglichte es Kindern im Alter zwischen 10 und 12 Jahren KI verstehen und einsetzen zu können. Es lag neben kindgerechter und praxisnaher Umsetzung auch der Fokus auf eine kritische Auseinandersetzung. Weitere beispielhafte Projekte in Bibliotheken zum Thema KI und Fake News gibt es auf der Website von Netzwerk Bibliothek Medienbildung

Schreibe eine Antwort