Header Ads

Funcionário é quase enganado por áudio deepfake de suposto CEO



Os criminosos virtuais estão aprimorando o uso de inteligência artificial para maior eficácia em seus golpes baseados em deepfake — técnica baseada em inteligência artificial que utiliza imagens ou sons humanos para produzir vídeos realistas. Desta vez, uma empresa que não quis se identificar por questões de segurança quase se tornou vítima após receber um suposto áudio do CEO da companhia, não fosse a desconfiança de um colaborador e uma perícia indicando a falsidade da mensagem de voz.

A história começou em junho, quando um dos funcionários da empresa recebeu uma mensagem de voz, cuja gravação alegava ser do CEO da companhia. O áudio solicitava "assistência imediata para finalizar um negócio urgente". Desconfiado, ele contatou a companhia, que rapidamente acionou a Nisos, uma empresa de consultoria de segurança.

Após a perícia, constatou-se que se tratava de um áudio sintético. Dev Badlu, pesquisador da Nisos, apontou que haviam muitos picos e quedas no áudio, algo incomum em conversas regulares. "Parece que eles basicamente pegaram cada palavra, cortaram e colaram novamente", conta Badlu.

Fonte: olhardigital
Tecnologia do Blogger.