Nos últimos meses, autoridades e especialistas em segurança digital têm emitido alertas sobre uma nova modalidade de golpe que vem crescendo rapidamente: o golpe da voz clonada por inteligência artificial.
Criminosos estão utilizando ferramentas de IA para criar áudios extremamente realistas, imitando com precisão a voz de familiares ou amigos das vítimas. O objetivo é enganar a pessoa para que ela faça transferências bancárias ou forneça dados pessoais sensíveis.
Em muitos casos, os golpistas coletam amostras de voz de redes sociais, vídeos publicados na internet ou até ligações gravadas. Com apenas alguns segundos de áudio, softwares avançados conseguem gerar falas completas e convincentes, tornando a fraude difícil de ser detectada.
A Polícia Civil orienta que, diante de qualquer pedido de dinheiro feito por telefone ou mensagem de voz, é fundamental confirmar a identidade da pessoa por outros meios, como videochamadas ou contato direto com outros familiares.
Especialistas recomendam ainda restringir a exposição de áudios e vídeos pessoais na internet e ativar autenticações de segurança em aplicativos de mensagens e redes sociais.
A popularização de ferramentas de IA traz avanços importantes, mas também exige que usuários estejam mais atentos do que nunca para evitar cair em armadilhas digitais.