Explainable AI for Disinformation Detection: Assessing Usability and Trust in User-Centered Applications

Problembeschreibung

Der Global Risks Report des Weltwirtschaftsforums (WEF) für das Jahr 2024 benennt die Bedrohung durch Desinformation als größtes globales Risiko der nächsten zwei Jahre. Absichtlich verbreitete Falschinformationen erschweren nicht nur die faktenbasierte Meinungsbildung, sondern beeinflussen unter anderem Wahlen, militärische Manöver und den gesellschaftlichen Zusammenhalt. Seit einigen Jahren gibt es Bestrebungen, technisierte Verfahren zu nutzen, um Desinformation im digitalen Raum automatisiert zu identifizieren und dadurch gezielt zu bekämpfen. Solche KI-gestützten Systeme verarbeiten natürliche Sprache und geben durch die Klassifizierung von Inhalten Hinweise an Nutzende weiter. Um das Nutzungserlebnis sowie das Vertrauen in derartige Anwendungen zu stärken, können Klassifizierungen durch Erklärungen transparent und verständlich gemacht werden. Für die Entwicklung einer optimalen Anwendung ist es daher wichtig, herauszufinden, welche möglichen Features oder Cues für eine Explainable AI (XAI) in der Erkennung von Desinformation besonders geeignet sind. Diesem Anliegen soll in der Masterarbeit mittels eines Experiments nachgegangen werden.

Ziel der Arbeit

Ziel der Arbeit ist es, auf der Basis bestehender Design Guidelines Mockups für ein Anwender*innen-zentriertes XAI Interface zur Detektion von online Desinformation zu entwickeln und deren Wirkung in einem Experiment zu testen. Im Rahmen der Arbeit sollen Hypothesen gebildet werden, welche mittels eines selbst entwickelten Experimentaldesigns getestet und ausgewertet werden. Der Fokus des Experiments liegt dabei insbesondere auf der Nutzer*innenerfahrung in Bezug auf die Usability und das empfundene Vertrauen in die Anwendung.

Voraussetzungen

Erfahrung in Python und statistischer Datenauswertung (z.B. mit R) wird vorausgesetzt. Idealerweise haben Sie bereits erste Erfahrungen mit der Implementierung von Experimenten in ​oTree sowie deren Durchführung und Auswertung. Auch Erfahrung in der Erstellung von Mockups, z.B. mit Figma, ist von Vorteil.

Formale Anforderungen

Diese Arbeit wird am IISM in Zusammenarbeit mit dem FZI Forschungszentrum Informatik geschrieben. Diese Arbeit ist KEINE externe Arbeit. Es steht Ihnen frei, Ihre Arbeit in deutscher oder englischer Sprache zu verfassen. Bitte bewerben Sie sich mit einem kurzen Motivationsschreiben (ca. ½ Seite), Ihrem Lebenslauf und einer aktuellen Übersicht über Ihre Noten. Der Startzeitpunkt der Abschlussarbeit ist ab sofort.