ÖIAT Research

Das Österreichische Institut für angewandte Telekommunikation (ÖIAT) setzt sich seit mehr als 20 Jahren für einen kompetenten, sicheren und verantwortungsvollen Umgang mit digitalen Medien ein. Gemeinsam mit Partnern forschen wir zu aktuellen Themen aus der digitalen Welt. Auf dieser Seite geben wir einen Einblick in vergangene und aktuelle Forschungsprojekte

TGuard


2025/012026/12
Desinformation Künstliche Intelligenz Social Media

Desinformationskampagnen und Fake News stellen eine ernstzunehmende Bedrohung für demokratische Gesellschaften dar. Sie untergraben das Vertrauen in Medien und staatliche Institutionen, verzerren die öffentliche Meinungsbildung und können darüber hinaus erhebliche ökonomische Schäden verursachen. Die rasanten technologischen Entwicklungen – insbesondere im Bereich der automatisierten Text-, Bild- und Videoerstellung – verschärfen diese Problematik zusätzlich. Während sich die technischen Möglichkeiten mit hoher Dynamik entfalten, gelingt es dem gesellschaftlichen Diskurs sowie der Forschung nicht, in gleichem Maße Schritt zu halten. Im Rahmen des Projekts TGuard werden innovative Methoden zur Erkennung von Desinformation in sozialen Medien entwickelt und effektive Strategien zur Verhinderung KI-generierter Falschmeldungen erarbeitet.


Fake-News sind gezielt verbreitete, falsche oder irreführende Informationen, die darauf abzielen, Meinungen zu manipulieren oder bestimmte Interessen durchzusetzen. Das österreichische Bundesheer identifizierte Desinformationskampagnen im Risikobild 2024 als eine der größten sicherheitspolitischen Herausforderungen – insbesondere im Kontext hybrider Bedrohungsszenarien. Die Verbreitung solcher Inhalte wird durch soziale Medien, Fake-News-Netzwerke und den Einsatz von Bots und KI-generierten Inhalten zunehmend effektiver, schneller und schwieriger zu erkennen.

Das Forschungsprojekt TGuard verfolgt einen ganzheitlichen Ansatz zur Analyse und Bekämpfung von Desinformation in digitalen Räumen, wobei sowohl die Generierung als auch die Identifikation von Fake News untersucht wird. Durch diese beidseitige Betrachtung kann ein umfassendes System erforscht werden, welches sowohl State-of-the-Art Methoden verbessert, als auch gezielt für bewusstseinsbildende Maßnahmen genutzt werden kann. Ein zentrales Ergebnis des Projekts ist ein strukturierter Anforderungskatalog, der die Bedürfnisse der Endnutzer:innen systematisch erfasst und als Grundlage für die Entwicklung alltagstauglicher, praxisnaher Lösungen dient.

Im Fokus steht die Entwicklung innovativer Technologien zur automatisierten Erkennung von Fake News und Social Bots auf Plattformen wie TikTok oder YouTube. Dabei werden nicht nur bestehende Falschinformationen identifiziert, sondern auch die Mechanismen ihrer Verbreitung analysiert. Die kontinuierliche Überwachung, Anpassung und Absicherung von Large Language und Stable Diffusion Models sind entscheidend, um deren Integrität zu gewährleisten und zu verhindern, dass sie als Werkzeuge für die Verbreitung von Desinformationen missbraucht werden. Ergänzend dazu wird eine sichere Testumgebung geschaffen, in der KI-gestützte Erkennungssysteme trainiert und weiterentwickelt werden können.

TGuard vereint technologische Forschung mit gesellschaftlicher Verantwortung. Neben der Analyse technischer Schwachstellen werden auch die regulatorischen und ethischen Dimensionen der Nutzung von KI in der öffentlichen Kommunikation berücksichtigt. Ein besonderer Schwerpunkt liegt auf präventiven Maßnahmen: Ein interaktiver Demonstrator – basierend auf der Open-Source-Plattform Mastodon – bietet Nutzer:innen die Möglichkeit, das Zusammenspiel von Fake-News-Netzwerken realitätsnah zu erleben. Diese virtuelle Lernumgebung macht die Funktionsweise automatisierter Desinformationskampagnen sichtbar und ermöglicht es, zielgruppengerecht neue Strategien zu deren Bekämpfung zu erproben. Durch diesen präventiven Ansatz sollen die Fähigkeiten zur differenzierten Informationsbewertung – unabhängig vom Thema – gestärkt werden, ohne dabei pauschales Misstrauen gegenüber den Medien zu fördern.

TGuard wird finanziert im Sicherheitsforschungs-Förderprogramm KIRAS des Bundesministeriums für Finanzen.