ÖIAT Research

Das Österreichische Institut für angewandte Telekommunikation (ÖIAT) setzt sich seit mehr als 20 Jahren für einen kompetenten, sicheren und verantwortungsvollen Umgang mit digitalen Medien ein. Gemeinsam mit Partnern forschen wir zu aktuellen Themen aus der digitalen Welt. Auf dieser Seite geben wir einen Einblick in vergangene und aktuelle Forschungsprojekte

defame Fakes - Detektion von Deepfakes und medialen Manipulationen von Bildern und Videos


gehe zu deepfakes.at
Koordination
gehe zu ait.ac.at
Partner
gehe zu apa.at
gehe zu oiat.at
gehe zu pwc.at
gehe zu kompetenzzentrum-sicheres-oesterreich.at
gehe zu bmlv.gv.at
gehe zu bmi.gv.at
Finanzierung
gehe zu kiras.at
gehe zu ffg.at
gehe zu bmf.gv.at
Ergebnisse
Kontakt

Julia Krickl
Projektleitung Research & Innovation
krickl@oiat.at
+43-1-595 2112-28

2024/012026/01
Deepfakes Desinformation Künstliche Intelligenz

Welche Bedrohungsszenarien sind angesichts der generativen künstlichen Intelligenz für Gesellschaft und Staat zu erwarten? In diesem KIRAS-Projekt erforschen wir gemeinsam mit anderen Partnern unter der Leitung des AIT, wie Deepfakes erkannt werden können und vor allem, wie man den Risiken durch Prävention begegnen kann.


Im kooperativen F&E-Projekt defame Fakes arbeiten wir daran, Deepfakes und Manipulationen in digitalen Bild- und Videoinhalten zu erkennen und Aufklärungsmaßnahmen zu initiieren.

Ob DALL E 3, Gesichtsfilter auf TikTok und Instagram oder DeepFaceLab: Technologien, die die Manipulation von Videos und Bildern ermöglichen, boomen, sind zunehmend einfacher zugänglich und markieren für viele Menschen einen Wendepunkt, wenn es um das Vertrauen in digitale Inhalte geht. Wie erkennen, was echt ist, wenn die Fakes immer realistischer sind? Von Behörden und Verwaltung über Medienorganisationen und der Privatwirtschaft bis hin zur Zivilgesellschaft sind alle mit den Herausforderungen und Gefahren durch Deepfakes konfrontiert – zum Beispiel als Bedrohung im Bereich Cybercrime , aber auch wenn es um demokratische Prozesse geht.

Im kooperativen F&E-Vorhaben defame Fakes beschäftigen wir uns daher mit der Erkennung von Deepfakes und Manipulationen in digitalen Bild- und Videoinhalten und initiieren Awareness-Maßnahmen. Ziel ist es, der kontinuierlichen Aushöhlung des Vertrauens in digitale Inhalte entgegenzuwirken, die technologischen Fähigkeiten zur Erkennung von Bild- und Videomanipulationen zu stärken und dadurch Unternehmen und die Gesellschaft zu schützen.

Die Aktivitäten des Forschungsprojekts reichen von der Generierung einer Datensammlung für die Erforschung von Assessment-Werkzeugen, über die Bewertung der Bedrohungsszenarien und daraus resultierenden Anforderungen, hin zur iterativen Konzeption von präventiven sowie reaktiven Maßnahmen. Der Fokus liegt auf den folgenden drei Kernbereichen:

  • Die Erforschung und Entwicklung geeigneter und verständlicher Assessment-Werkzeuge zur Erkennung von Deepfakes und Manipulationen in großen Sammlungen digitaler Bild- und Videoinhalte.
  • Die Konzeption und Initiierung von präventiven Awareness-Maßnahmen in der Gesellschaft, um auch die nationale Umsetzung des „Aktionsplan Deepfake“ unter enger Einbindung von Behörden, Medien, GSK-Partnern und relevanten anderen Stakeholdern zu unterstützen und damit letztlich Maßnahmen zur Wissens- und Bewusstseinsbildung zu setzen.
  • Die Analyse der Bedrohungsszenarien, der gesellschaftlichen, ethischen und rechtlichen Implikationen von Deepfakes und des damit zusammenhängenden Regulierungsbedarfs.

defame Fakes wird finanziert im Sicherheitsforschungs-Förderprogramm KIRAS des Bundesministeriums für Finanzen.