Cyberwaffe Deepfakes
Manipulierte Videos sind immer schwerer zu erkennen. Erfahrt hier, was das bedeutet und wie man sich vor ihnen schützen kann.
Deepfakes sind manipulierte Video-, aber auch Tondateien. Der Begriff setzt sich aus „Deep Learning“ und „Fake“ zusammen: Künstliche Intelligenz lernt aus bestehendem Material, Zielpersonen zu imitieren. Dadurch fasziniert ein täuschend echt aussehender Tom Cruise auf TikTok ein Millionenpublikum – oder Akteurinnen und Akteure aus Politik und Wirtschaft werden Opfer dieser gefährlichen Waffe der Cyberkriminalität.
@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins
Geringe Einstiegshürden
Die Gefahr besteht vor allem darin, dass Deepfakes Live-Manipulation ermöglichen. Gerade bei Videoanrufen muss nicht erst Vertrauen geschaffen werden, wie das bei Phishing-Anrufen nötig ist. Ein Deepfake kann jeder erstellen, der über Software und entsprechende Rechenleistung verfügt, ein paar Videoclips der Zielperson besitzt und diese dann mit Hintergrund und Lichtverhältnissen möglichst ähnlich nachstellen kann.
Auf Artefakte achten
Matthias Neu vom Bundesamt für Sicherheit in der Informationstechnik (BSI) erklärt, wie man Deepfakes erkennen kann. In Bezug auf Videos oder Videoanrufe weist er auf die systemischen (Darstellungs-)Fehler, die sogenannten „Artefakte“ hin. Diese können rund um das Gesicht auftreten, wenn der Kopf der Zielperson auf einen beliebigen Körper gesetzt wird. „Häufig kommt es vor, dass Face-Swapping-Verfahren nicht richtig lernen, scharfe Konturen, wie sie in den Zähnen oder im Auge vorkommen, zu erzeugen“, erklärt Neu. Bei genauerem Hinsehen wirkten diese leicht verwaschen. Je weniger originale Daten die KI kennt, desto begrenzter sind Mimik und Beleuchtung des imitierten Kopfes. Wer unsicher ist, ob das Videogespräch mit einer echten Person geführt wird, kann sein Gegenüber bitten, sich an die Wange zu tippen oder, wenn es sich um ein Telefonat handelt, selber zurückrufen.
Angriff ist die beste Verteidigung
Es gibt bereits KI, die angreifende KI entlarven kann. Daran arbeiten verschiedene vom Bundesministerium für Bildung und Forschung geförderte Projekte. Automatisierte Verfahren zur Detektion von Deepfakes seien aber, so berichtet Matthias Neu, noch nicht für den praktischen Einsatz geeignet. KI kann nur aus bereits für das Training bekannten Angriffsmethoden lernen, es gibt aber viele verschiedene Möglichkeiten. Um das Bedrohungspotenzial abschätzen zu können, analysiere das BSI deshalb bekannte Methoden. Detektionsverfahren müssten evaluiert und die automatisierte Erkennung weiterentwickelt werden. Außerdem organisiert das BSI Vorträge, Publikationen und eine Themenseite zur Technologie, sagt Neu, denn: „Eine der wichtigsten Gegenmaßnahmen besteht in der Aufklärung über die Existenz dieser Fälschungsverfahren.“
Du möchtest regelmäßig Informationen über Deutschland bekommen? Hier geht’s zur Anmeldung: