Prejuízo de golpes desse gênero podem chegar a R$ 1,3 milhões; especialista em cibersegurança afirma que o Brasil tem grande potencial para a disseminação da prática.
Os cibercriminosos estão aprimorando o uso de inteligência artificial para maior eficácia em seus golpes baseados em deepfake — técnica baseada em inteligência artificial que utiliza imagens ou sons humanos para produzir vídeos realistas. Desta vez, uma empresa que não quis se identificar por questões de segurança quase se tornou vítima após receber um suposto áudio do CEO da companhia, não fosse a desconfiança de um colaborador e uma perícia indicando a falsidade da mensagem de voz.
A história começou em junho, quando um dos funcionários da empresa recebeu uma mensagem de voz, cuja gravação alegava ser do CEO da companhia. O áudio solicitava "assistência imediata para finalizar um negócio urgente".
Após a perícia, constatou-se que se tratava de um áudio sintético. De acordo com especialistas, havia muitos picos e quedas no áudio, algo incomum em conversas regulares. Ao reduzir a voz sintética, o som ambiente era "absurdamente silencioso" e não apresentava nenhum ruído, o que representa sinais claros de falsificação.
Segundo pesquisadores, acredita-se que os criminosos estavam testando a tecnologia para observar a reação tomada pelos funcionários. Em tese, era apenas o primeiro passo para uma operação muito mais complexa que poderia acarretar em danos desastrosos.
No final de 2019, uma empresa alemã havia sido vítima de um áudio deepfake imitando a voz do CEO. Estima-se que a companhia teve um prejuízo de € 220 mil (aproximadamente R$ 1,3 milhões).
Deepfakes em ascensão
No começo do 2020, já havia previsão do aumento de casos deepfake por conta do barateamento progressivo de machine learning e do amadurecimento do outsourcing de elementos criminosos.
O diretor da Securitsoft, Eduardo D'Antona, afirma que o Brasil tem um grande potencial para a disseminação da prática. "O Brasil é um dos países em que mais se aplica a fusão dos diversos canais digitais com o uso intensivo de engenharia social fortalecida com a automação robótica. Para aderir ao deepfake é apenas questão de um passo adiante", alerta D'Antona.