Opening the Black Box: How Explainable AI Enhances Trust in Disinformation Detection Systems

  • Problembeschreibung

    Vertrauen ist ein grundlegendes Element des sozialen Lebens und wird vor allem benötigt, um eine Zukunft mit mehr oder weniger unbestimmter Komplexität zu reduzieren. Der ständige technische Fortschritt der Gesellschaft führt zu einer gleichzeitgen Zunahme an Komplexität, was wiederum einen erhöhten Bedarf an Vertrauen zur Folge hat. Daher ist Vertrauen eine notwendige Bedingung, um mit wachsender Komplexität in Bezug auf moderne Ereignisse und Dynamiken zu leben und zu handeln. Vertrauen wird jedoch durch negative Erfahrungen, wie die Täuschung durch online Desinformation, schwer erschüttert. Da sich KI-basierte Systeme und Algorithmen zur Erkennung von ‘Fake News’ zunehmend komplexer gestalten, werden sie von den Menschen immer mehr als ‘Black Boxes’ angesehen, die sich der Verständlichkeit widersetzen. Das bedeutet, dass es wachsende Mengen an spezialisiertem Fachwissen und Kenntnissen erfordert, um die Entscheidungen einer KI zu verstehen. Endnutzer*innen ohne Fachexpertise sind nicht in der Lage, nachzuvollziehen, wie bestimmte Algorithmen zu einer gegebenen Entscheidung geführt haben. Infolgedessen besteht eine zunehmende Nachfrage, eine angemessene Erklärung dafür zu bieten, wie und warum ein bestimmtes Ergebnis erzielt wurde. Die jüngsten empirischen Beweise für die Akzeptanz von Algorithmen deuten darauf hin, dass Erklärbarkeit eine heuristische Rolle bei der Akzeptanz von Algorithmen und KI-basierten Diensten spielt. Daher kann die Einbeziehung von Kausalität und erklärungsbezogenen Merkmalen in KI (ergo Explainable AI) dazu beitragen, das Vertrauen zu erhöhen, da sie Nutzer*innen hilft, den Entscheidungsprozess von KI-Algorithmen durch Transparenz und Nachvollziehbarkeit zu verstehen.

     

    Ziel der Arbeit

    Die rasche Entwicklung der Forschung auf dem Gebiet der Erkennung von Desinformation mittels KI-gestützter Systeme erfordert eine nähere Untersuchung der Auswirkungen von Erklärbarkeit auf das Vertrauen der Nutzer*innen. In diesem Sinne soll in einem ersten Schritt durch eine strukturierte Literaturrecherche herausgestellt werden, welche Arten von ‘Explainability Features’ genutzt werden, um die Entscheidungen von KI-gestützten Systemen im Allgemeinen für Nutzer*innen nachvollziehbar und somit vertrauenswürdiger zu machen. In einem zweiten Schritt soll mittels einer komparativen Analyse eine kritische Beurteilung stattfinden, welche Features besonders geeignet sind, um die Warnungen und Hinweise von Systemen zur Detektion von Desinformation in sozialen Medien für Nutzer*innen der Anwendung möglichst verständlich und vertrauenswürdig zu gestalten.

     

    Formale Anforderungen

    Diese Arbeit wird am IISM in Zusammenarbeit mit dem FZI Forschungszentrum Informatik geschrieben. Diese Arbeit ist KEINE externe Arbeit. Es steht Ihnen frei, Ihre Arbeit in deutscher oder englischer Sprache zu verfassen. Bitte bewerben Sie sich mit einem kurzen Motivationsschreiben (ca. ½ Seite), Ihrem Lebenslauf und einer aktuellen Übersicht über Ihre Noten. Der Startzeitpunkt der Abschlussarbeit ist ab sofort.