Arma cibernética “deepfakes”
Os vídeos manipulados estão se tornando cada vez mais difíceis de serem reconhecidos. Descubra aqui o que isto significa e como você pode proteger-se deles.
Os “deepfakes” são arquivos de vídeo manipulados, mas também arquivos de som. O termo é uma combinação de “aprendizagem profunda” e “falso”: a inteligência artificial aprende com o material existente para imitar as pessoas visadas. Desta forma, um Tom Cruise de aparência enganosamente real no TikTok fascina um público de milhões – ou atores da política e dos negócios tornam-se vítimas desta perigosa arma de crimes cibernéticos.
@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins
Poucos obstáculos iniciais
O perigo principal é que as falsificações profundas permitem uma manipulação ao vivo. Especialmente nos telefonemas por vídeo, a confiança não precisa primeiro ser conquistada, como é necessário com as chamadas de “phishing”. Uma falsificação profunda pode ser criada por qualquer pessoa que disponha do software e da capacidade de processamento correspondentes, além de alguns videoclipes da pessoa visada e possa então recriá-los, com os mesmos fundo e condições de iluminação.
Cuidado com os artefatos
Matthias Neu, do Departamento Federal de Segurança da Informação (BSI), explica como detectar falsificações profundas. Com relação aos vídeos ou videotelefonemas, ele aponta os erros sistêmicos (de representação), os chamados “artefatos”. Estes podem ocorrer ao redor do rosto quando a cabeça da pessoa visada é colocada em qualquer corpo. “Acontece com frequência que os métodos de troca de rosto não aprendem adequadamente a reproduzir contornos nítidos, como os encontrados nos dentes ou no olho”, explica Neu. Numa verificação mais detalhada, estes parecem ligeiramente opacos. Quanto menos dados originais a IA conhece, mais limitadas são as expressões faciais e a iluminação da cabeça imitada. Qualquer pessoa que não tenha certeza se a conversa por vídeo está sendo conduzida com uma pessoa de verdade, pode pedir ao interlocutor que toque em sua bochecha ou, se for uma chamada telefônica, ligar de volta para ele.
Ataque é a melhor defesa
Já existe IA que pode desmascarar ataques de IA. Vários projetos financiados pelo Ministério Federal de Educação e Pesquisa estão trabalhando nesse sentido. Entretanto, os métodos automatizados para detecção de “deepfakes” ainda não são adequados para uso prático, informa Matthias Neu. A IA só pode aprender com métodos de ataque já conhecidos para treinamento, mas há muitas possibilidades diferentes. A fim de poder avaliar o potencial de ameaça, o BSI está por isso analisando métodos conhecidos. Os métodos de detecção devem ser avaliados e a detecção automatizada deve ser mais desenvolvida. Além disso, o BSI organiza palestras, publicações e uma página temática sobre a tecnologia, diz Neu, porque: “Uma das contramedidas mais importantes é aumentar a conscientização sobre a existência desses métodos de falsificação”.
You would like to receive regular information about Germany? Subscribe here: