claim: Mit KI gegen Desinformation im Netz
Das Projekt claim hilft, Falschinformationen mithilfe hybrider KI zu erkennen. Dabei liegt der Fokus auf sensiblen Feldern wie Wissenschaftsjournalismus und psychischer Gesundheit.
Was ist claim?
Ob in der Wissenschaft oder im Gesundheitsbereich: Wenn falsche Behauptungen die öffentliche Debatte verzerren, braucht es neue Werkzeuge. Genau hier setzt das Forschungsprojekt claim an.
Falsche Behauptungen verbreiten sich heute rasend schnell. Sie bedrohen den gesellschaftlichen Zusammenhalt, den Journalismus – und das Vertrauen in die Wissenschaft. Genau hier setzt claim an: Das Projekt bringt Menschen und künstliche Intelligenz zusammen, um gezielt gegen Desinformation vorzugehen. Im Fokus stehen zwei sensible Bereiche: der Wissenschaftsjournalismus und die öffentliche Wahrnehmung psychischer Erkrankungen. Von Beginn an werden die Nutzerinnen und Nutzer aktiv eingebunden.
Werkzeuge zur Fake-News-Erkennung
claim verbessert den Umgang mit strittigen Aussagen. Die Projektpartner entwickeln interaktive Werkzeuge, die Journalist:innen, Forscher:innen, Pädagog:innen oder Autor:innen helfen sollen, falsche Behauptungen zu erkennen und Vorurteile abzubauen. Zwar beeindrucken die neuesten Sprachmodelle (LLMs) mit ihrer Fähigkeit zur Verarbeitung menschlicher Sprache, doch oft fehlt ihnen das Gespür dafür, was wirklich nützlich, real oder wahr ist, und sie halluzinieren Inhalte.
claim begegnet dieser Herausforderung, indem es hybride KI-Modelle entwickelt. Diese Systeme kombinieren symbolische und subsymbolische Komponenten und trainieren die KI-Modelle auf Basis vertrauenswürdiger Quellen. So werden sie präziser und sicherer. Wissensgraphen liefern ihnen Fachwissen und Alltagslogik. Eine Methode namens Retrieval Augmented Generation (RAG) sorgt dafür, dass die Modelle gezielt auf fundierte Informationen zugreifen. Für die subsymbolische Embedding-Schicht nutzt claim schließlich Wissensdestillationstechniken, die das nötige Wissen verdichten, damit auch kleine Modelle effizient laufen. Das spart Rechenleistung und Energie, ohne dass die Qualität leidet.
Foto: webLyzard technology
„Das Projekt claim kombiniert menschliche Expertise mit KI-Algorithmen und visuellen Werkzeugen, um den Ursprung und die Verbreitung von Fehlinformationen besser zu verstehen. So wird das Vertrauen in die öffentliche Debatte gestärkt.“
Arno Scharl,
Managing Partner von webLyzard technology und claim Koordinator
Visualisierung in Echtzeit
Die KI-Modelle von claim sollen Aussagen erkennen, einordnen und auf ihren Wahrheitsgehalt prüfen. Die Ergebnisse werden anschließend visualisiert. So lässt sich nachvollziehen, wo eine falsche Behauptung ihren Ursprung hatte, wie sie sich verbreitet hat – und welche Quellen geeignet sind, sie zu entkräften. Die Visualisierungen werden in drei Anwendungen integriert: (i) den „claim Explorer“ zur Analyse von Trends und Zusammenhängen, (ii) einen Editor mit generativen Funktionen, der auf vertrauenswürdige Quellen zurückgreift, und (iii) eine Chrome-Extension, die Behauptungen direkt im Browser prüft. Um die Anbindung an externe Systeme zu erleichtern, wird claim seine Methoden zur Erkennung, Klassifizierung und Verifizierung von Behauptungen auch als Datendienst anbieten.
claim nutzt dabei etablierte Klassifikationssysteme wie IPTC-NewsCodes, um Aussagen thematisch einzuordnen. So werden etwa die Ziele für nachhaltige Entwicklung (SDGs) von Analyst:innen in Betracht gezogen, um den Einfluss irreführender Aussagen auf gesellschaftlich relevante Themen sichtbar zu machen und Ansatzpunkte für wirksame Gegenstrategien aufzuzeigen.
Starke Partner für verantwortungsvollen KI-Einsatz
Dass claim bei all diesen Abläufen den Menschen ins Zentrum stellt, zeigt sich am Projektteam: webLyzard technology, verantwortlich für die technische Umsetzung, bringt über 15 Jahre Erfahrung an der Schnittstelle von KI, Nachhaltigkeit und Klimakommunikation ein. Das Deep-Tech-Startup Storypact entwickelt KI-gestützte Schreibwerkzeuge auf Basis vertrauenswürdiger Quellen. Die österreichische Tageszeitung DER STANDARD steuert als Anwendungspartnerin Know-how aus über dreißig Jahren Qualitätsjournalismus bei. Und die wissenschaftliche Partnerinstitution, die Medizinische Universität Graz, macht sich schon lange stark gegen die Stigmatisierung psychischer Erkrankungen.
Gemeinsam wollen diese Partner zeigen, wie KI verantwortungsvoll eingesetzt werden kann – und welche Chancen sie bietet, wenn Menschen die Richtung vorgeben.
Foto: Furgler / MUG
„Die generierten claim-Forschungsergebnisse können dazu beitragen, Fehlinformationen oder falsche Behauptungen im Gesundheitsbereich zu reduzieren. Wir als wissenschaftlicher Partner setzen dabei einen Fokus auf die Entstigmatisierung psychischer Erkrankungen.“
Eva Reininghaus,
Vorständin der Universitätsklinik für Psychiatrie, Psychosomatik und Psychotherapie am Med Uni Graz
Aktuelles
Use Cases
Die Ergebnisse werden visuell dargestellt, in interaktive Anwendungen integriert und dort direkt von den Endnutzer:innen getestet und bewertet:
- Wissenschaftsjournalismus:
Dieser Use Case hilft Redaktionen, Fakten schneller und gezielter zu prüfen – etwa bei komplexen Forschungsergebnissen oder kontroversen Themen wie dem Klimawandel. In Online-Foren kennzeichnet das System automatisch fragwürdige Aussagen und hilft so den Nutzer:innen, zwischen Fakten und Falschinformationen zu unterscheiden. - Stigmatisierung psychischer Erkrankungen:
In sozialen Medien verbreiten sich oft ungeprüfte Behauptungen – etwa, dass Menschen mit psychischen Erkrankungen gewalttätig oder inkompetent seien. Solche Stereotype schüren Ängste und Vorurteile. claim stellt Fachleuten aus Medizin und Wissenschaftskommunikation KI-gestützte Werkzeuge zur Verfügung, um solchen Falschbehauptungen gezielt entgegenzutreten.
Foto: WU Wien
„Der Storypact AI Editor unterstützt Journalisten und medizinische Experten mit ai, um deren Qualität und Online-Sichtbarkeit zu optimieren.“
Michael Föls,
Co-Founder, Storypact
Foto: Anna Stöcher
„Fake News sind aktuell DIE Herausforderung für Demokratien, den Journalismus und die öffentliche Debatte. KI-generierte Falschnachrichten, Fake-Bilder und
-Videos erschweren die Arbeit im Qualitätsjournalismus. Wir wollen mit derselben Technik das Gegenteil erreichen: Falschnachrichten erkennen – mit Schwerpunkt Wissenschaftsjournalismus.“
Matthias Stöcher,
Bereichsleitung Legal, Policy & Essential Projects ppa, STANDARD Medien AG
Team
Foto: Credit folgt
Martina Musterfrau,
Projektbeteiligte-Teamleiterin
Foto: Credit folgt
Maximilian Mustermann,
Projektbeteiligter-
Teamleiter
Foto: Credit folgt
Max Mustermann,
Projektbeteiligter-
Team A
Foto: Credit folgt
Max Mustermann,
Projektbeteiligter-
Team B