Nacional

Golpe da voz: criminosos usam inteligência artificial para enganar vítimas e roubar dinheiro

Programa para computador imita a fala de pessoas e manipula frases; especialistas dão dicas de como se proteger. 

Golpe da voz usa inteligência artificial para enganar
 
Golpistas estão cada vez mais empenhados em confundir vítimas para roubar dinheiro e estudam formas complexas para isso, inclusive usando IA (inteligência artificial).

O novgolpe consiste na manipulação da voz por meio de programas que imitam respiração, pausas e tom de fala, gerando frases que são enviadas por áudio ou ligação para pessoas que possam reconhecer os sons, como amigos e familiares. O objetivo é enganar e extorquir.

 

Esse foi o caso do pai do influenciador Dario Centurione, que publica vídeos com dicas e curiosidades nas redes sociais. Após receber uma ligação que supostamente seria do filho pedindo dinheiro, o homem de 71 anos fez um Pix de R$ 600 para o golpista.

“Meu pai não desconfiou porque, segundo ele, a voz era muito parecida. Ele falou: ‘Dario, eu tinha certeza que era a sua voz. Era o mesmo tom'”, conta o influenciador ao R7.

O pai de Dario só se deu conta de que havia caído em um golpe quando conversou de fato com o filho, que disse que não tinha pedido dinheiro.

Como funciona?

Arthur Igreja, especialista em tecnologia e inovação e cofundador da plataforma AAA Inovação, afirma que a principal ferramenta usada para esse tipo de golpe é a ElevenLabs, mas existem outras como Murf.ai, Respeecher e Discursar.

Os softwares, alimentados por inteligência artificial, conseguem imitar vozes e reproduzi-las de maneira fiel, usando poucos minutos de áudios reais. “Há programas que, com apenas 3 segundos, conseguem criar uma identidade, mas não são capazes de captar alguns aspectos da voz, vícios de linguagem e pequenas sutilezas. Para ser algo extremamente fidedigno, esses programas pedem de 10 a 15 minutos”, ele conta.

Pessoas que publicam vídeos na internet são os principais alvos dos golpistas. “O acesso à voz delas é mais fácil e, quanto mais gravações, mais perfeita a voz artificial fica”, explica o advogado Luiz Augusto D’Urso, especialista em crimes cibernéticos.

Após a ferramenta assimilar a voz original, tudo o que o golpista precisa fazer é escrever uma frase como: “Você pode fazer um Pix de R$ 600 para mim?”. Então, o programa se encarrega de gerar a voz artificial que pode enganar as vítimas.

Golpes com inteligência artificial

O advogado afirma que a utilização indevida ou ilícita da inteligência artificial é um cenário inevitável. “Os criminosos se aproveitam da criação de tecnologias para desenvolver golpes. A manipulação de áudios não é algo novo para a IA, mas agora tem sido usada por pessoas mal-intencionadas, que conseguem deixar as vozes cada vez mais próximas do real para enganar e roubar”, disse.

Quanto mais ferramentas disponíveis, mais golpes vão surgir. E os que já existem vão evoluir. Na visão de Igreja, as armadilhas que utilizam inteligência artificial são “extremamente preocupantes”, uma vez que a tecnologia está sendo usada para roubar a privacidade, a segurança e a identidade de uma pessoa. “A partir do momento em que alguém rouba isso, tudo fica frágil”, falou. 

Como se proteger?

Entre as formas de se proteger do golpe da voz, Luiz Augusto conta que a mais eficaz é a criação de uma palavra-chave entre os amigos mais chegados e familiares. “Combinar uma palavra de segurança para ser usada todas as vezes em que o assunto envolver finanças é uma garantia de identificar se é um golpe ou não.”

Após o pai ter caído no golpe da voz, Dario conta que a família criou uma palavra-chave e agora se sente mais segura. “Eu percebi que, assim como meu pai, minha mãe e outros familiares também poderiam acreditar no golpe. Por isso, escolhemos uma palavra para usar nesses casos e estamos mais atentos.”

Outra opção é realizar uma videochamada antes de efetuar qualquer tipo de transação. No entanto, o advogado Luiz Augusto alerta que logo esse método poderá ficar obsoleto, uma vez que a inteligência artificial também já é capaz de manipular imagens. “É um processo que exige tempo e profissionais experientes, mas se ainda não está ao alcance dos golpistas, em breve estará”, disse.

A Febraban (Federação Brasileira de Bancos) comenta que os golpistas utilizam a manipulação psicológica do usuário e falsas urgências para conseguir informações confidenciais, como senhas, números de cartões e transações. Sendo assim, sempre que pessoas aparecerem pedindo dinheiro ou dados por aplicativos de mensagem, a desconfiança já é uma defesa. 

Caí no golpe! E agora?

Caso você seja vítima de um golpe, existem atitudes que podem ser tomadas. A Febraban orienta o cliente a notificar imediatamente o banco. Assim, medidas adicionais de segurança serão adotadas, como bloqueio do aplicativo e da senha de acesso.

Há também a possibilidade de o banco recuperar o dinheiro junto ao destino. “Sobre ressarcimento, informamos que cada instituição financeira tem sua própria política de análise e devolução, baseada em pesquisas individuais, considerando as evidências apresentadas pelos clientes e informações das transações realizadas”, explicou o órgão.

O advogado sugere à vítima, assim que se der conta do golpe, também registrar um boletim de ocorrência por estelionato. Nesse caso, o criminoso pode cumprir pena de reclusão de um a cinco anos.

*Sob supervisão de Bruno Araujo

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *