Não podemos confiar nem nos próprios olhos: os perigos do Deepfake.
As falsas notícias (fake news) divulgadas por meios eletrônicos, principalmente pelas redes sociais e aplicativos de mensagens, têm sido uma das principais polêmicas da internet nos dias atuais. Há diversos estudos sendo conduzidos em vários países, inclusive no Brasil, com o objetivo de mostrar se a estratégia difamatória das fake newspode ou não influenciar em certo grau uma eleição. Diante da gravidade do problema, vários governos discutem formas de impedir esse mal pandêmico. No Brasil, o Projeto de Lei do Senado (PLS) nº 473/2017, proposto pelo senador Ciro Nogueira (PP/PI) e em tramitação desde dez/2017, pretende transformar a divulgação de falsas notícias em crime passível de 1 a 3 anos de reclusão.
Considerado o principal veículo das “mentiras digitais”, o Facebook anunciou em janeiro de 2018 uma mudança no seu algoritmo com o objetivo de combater o problema, que tem crescido a cada dia. Entretanto, há quem diga que a mudança, que privilegia a divulgação de posts de amigos e familiares aos usuários, contribui para a formação de bolhas de opinião, aumentando ainda mais a influência das fake news.
Além do enorme problema das falsas notícias, um problema ainda maior está preocupando diversos especialistas: deepfake. O termo é a união de duas palavras em inglês: deep (profundo) e fake (falso). Assim, pode ser traduzido como “falsificação profunda”. Trata-se de uma fake news avançada, em que vídeos manipulados criam uma realidade alternativa extremamente convincente. Usando técnicas de Inteligência Artificial (IA), como Machine Learning (aprendizagem de máquina), softwares são capazes de sobrepor o rosto de uma pessoa e/ou de emular vozes, fazendo com que vídeos se tornem extremamente reais, porém mentirosos.
Para se ter uma ideia do tamanho do problema, pesquisadores da Universidade de Washington publicaram um vídeo no Youtube intitulado “Fake Obama”. No vídeo (no fim da página), o ex-presidente dos EUA aparece dizendo coisas que ele jamais diria. Em abril de 2018, o ator e diretor Jordan Peele, vencedor do Oscar de melhor roteiro original em 2018 com o filme “Corra!”, criou sua versão do “Fake Obama” usando um aplicativo de IA. O vídeo, extremamente convincente, tem o objetivo de alertar sobre os perigos do deepfake.
“O efeito difamatório do deepfake é extremamente preocupante, pois poderia influenciar a opinião pública e até iniciar crises políticas e guerras”.
O efeito difamatório do deepfake é extremamente preocupante, pois poderia influenciar a opinião pública e até iniciar crises políticas e guerras. A técnica já foi usada para criar vídeos em que rostos de celebridades foram sobrepostos aos de atrizes pornográficas. A cantora Taylor Swift e a atriz Gal Gadot já foram vítimas desse tipo de vídeo, publicado por um usuário denominado “DeepFakes” no site Reddit, um dos maiores fóruns de discussão da web. O usuário foi banido recentemente.
Por muito tempo, ouvimos que imagens não mentem. Com o surgimento do deepfake, a coisa não é bem assim. Após assistir ao vídeo “Fake Obama”, fica claro o tamanho do problema. Além do mais, com a evolução da tecnologia, detectar se um vídeo é falso, manual ou automaticamente, se tornará cada vez mais difícil. Há também aplicativos gratuitos capazes de criar rapidamente um deepfake, sem a necessidade de ser expert em computação. Diante disso, há quem recomende reduzir drasticamente as fotos postadas nas redes sociais, visto que podem ser usadas em deepfakes.
Mesmo havendo formas de verificar a veracidade de um vídeo, o impacto da “primeira vista” nas pessoas é devastador, fazendo com que acreditem e espalhem os deepfakes mais rápido do que as fake news. Se não checam as informações textuais ou fotográficas presentes nas notícias falsas, obviamente não vão checar os vídeos. É uma questão cultural. Portanto, entender e se relacionar com as informações difundidas nos meios eletrônicos está se tornando cada dia mais difícil. Cuidado com o que você vê e, principalmente, compartilha. Na internet, não podemos mais acreditar nem nos próprios olhos.
Texto publicado originalmente no Jornal de Jales – coluna Fatecnologia – no dia 06 de maio de 2018.