Les deepfakes, des armes de cybercriminalité
Il est de plus en plus difficile de détecter des vidéos manipulées. Découvrez ce que cela signifie et comment vous pouvez vous protéger.
Les deepfakes sont des fichiers vidéo, mais aussi audio, manipulés. Ce terme associe « deep learning » et « fake » : l’intelligence artificielle apprend à imiter des personnes ciblées à partir de matériel existant. C‘est ainsi qu’un Tom Cruise à l’apparence trompeuse fascine un public de millions de personnes sur TikTok – ou des acteurs de la politique et de l’économie sont victimes de cette arme dangereuse de cybercriminalité.
@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins
De faibles barrières d‘entrée
Le danger est surtout que les deepfakes permettent une manipulation en direct. Les appels vidéo, en particulier, ne nécessitent pas d’instaurer tout d’abord la confiance comme c’est le cas pour les appels de pishing. N’importe qui disposant d’un logiciel et de la puissance de calcul correspondante, de quelques clips vidéo de la personne cible peut reproduire celle-ci avec un arrière-plan et un éclairage de manière très ressemblante.
Faire attention aux artefacts
Matthias Neu de l’Office fédéral de la sécurité de la technologie de l’information (BSI) explique comment reconnaître les deepfakes. Pour ce qui est des vidéos ou des appels vidéo, il attire l’attention sur les erreurs systémiques (de représentation), appelées « artefacts ». Ils peuvent apparaître autour du visage, si la tête de la personne cible est placée sur n’importe quel corps. « Il arrive souvent que le procédé d’échange de visage ne soit pas capable de produire des contours nets, comme par exemple ceux des dents ou des yeux » explique Neu. Si on y regarde de plus près, on constate un certain manque de netteté. Moins l’IA connaît les données originales, plus la mimique et l’éclairage de la tête copiée sont limités. Si l’on n’est pas sûr que l’appel vidéo ait lieu avec une personne réelle, son interlocuteur peut lui demander de se toucher la joue ou, s’il s’agit d’un appel téléphonique, de proposer de rappeler soi-même.
L’attaque est la meilleure défense.
Il existe déjà une intelligence artificielle capable de détecter l’intelligence artificielle attaquante. Différents projets financés par le ministère fédéral de l‘Education et de la Recherche y travaillent. Toutefois, comme l’indique Matthias Neu, les procédés automatisés de détection de fake news ne sont pas encore adaptés pour une utilisation pratique. L’IA ne peut apprendre qu’à partir de méthodes d’attaque déjà connues pour l’entraînement - mais il existe de nombreuses possibilités. Pour pouvoir évaluer le potentiel de menace, le BSI analyse donc les méthodes connues. Il faut évaluer les processus de détection et développer la reconnaissance automatisée. En outre, le BSI organise des conférences, des publications et une page thématique sur la technologie, explique Neu, car « l’une des principales contre-attaques consiste à informer sur l’existence de ces méthodes de falsification ».
You would like to receive regular information about Germany? Subscribe here: