Geförderte Projekte

defame Fakes – Detektion von Deepfakes und medialen Manipulationen in Bildern und Videos

|   Call 2022

Im kooperativen F&E-Vorhaben defame Fakes befassen wir uns mit der Erkennung von Deepfakes und medialen Manipulationen in digitalen Bild- und Videoinhalten

DeepFaceLab, DALL-E 2, Stable Diffusion oder TikTok-Gesichtsfilter sind Beispiele für die Bandbreite der Möglichkeiten dessen, was Künstliche Intelligenz im Bereich der Bild- und Video-manipulation derzeit leisten kann – im Positiven wie im Negativen. Denn für ermittelnde Behörden, die öffentliche Verwaltung, Medien, Unternehmen, aber auch für die Zivilgesellschaft ergeben sich daraus vielfältige Herausforderungen. Deepfake- und Bildmanipulations-Technologien sind zunehmend einfach zugänglich und komplex genug, um zum Beispiel als Bedrohung im Cybercrime angesehen zu werden, aber auch als Herausforderung für demokratische Prozesse.

Im kooperativen F&E-Vorhaben defame Fakes beschäftigen wir uns daher mit der Erkennung von Deepfakes und Manipulationen in digitalen Bild- und Videoinhalten und initiieren Awareness-Maßnahmen. Ziel ist es, der stetigen Aushöhlung des Vertrauens in digitale Inhalte entgegenzuwirken und die technologischen Fähigkeiten zur Verifikation zu stärken. Die Aktivitäten des Forschungsprojekts reichen von der Generierung einer Datensammlung für die Erforschung von Assessment-Werkzeugen, über die Bewertung der Bedrohungsszenarien und daraus resultierenden Anforderungen, hin zur iterativen Konzeption von präventiven sowie reaktiven Maßnahmen. Der Fokus liegt auf den folgenden drei Kernbereichen:

  1. Die Entwicklung geeigneter und verständlicher Assessment-Werkzeuge zur Erkennung vonDeepfakes und Manipulationen in großen Sammlungen digitaler Bild- und Videoinhalte.
  2. Die Konzeption und Initiierung von Awareness-Maßnahmen in der Gesellschaft, um auch dienationale Umsetzung des „Aktionsplan Deepfake“ unter enger Einbindung von Behörden,Medien, GSK-Partnern und relevanten anderen Stakeholdern zu unterstützen und damitletztlich Maßnahmen zur Wissens- und Bewusstseinsbildung zu setzen.
  3. Die Analyse der Bedrohungsszenarien, der gesellschaftlichen, ethischen und rechtlichenImplikationen von Deepfakes und des damit zusammenhängenden Regulierungsbedarfs.

Projektleiter
Martin Boyer / AIT Austrian Institute of Technology GmbH

Projekt- bzw. KooperationspartnerInnen
APA - Austria Presse Agentur eG
KSÖ Kompetenzzentrum sicheres Österreich
ÖIAT Österreichisches Institut für angewandte Telekommunikation
PwC Österreich
Bundesministerium für Inneres
Bundesministerium für Landesverteidigung

Kontakt
Martin Boyer / AIT Austrian Institute of Technology GmbH
Giefinggasse 4, 1210 Wien
Telefon: +43 50550 4284
Email: martin.boyer(at)ait.ac.at 
Website: http://www.ait.ac.at/ 
Projektwebsite: www.defamefakes.at 

Bundesministerium für Finanzen
Österreichische Forschungsförderungsgesellschaft - FFG