Milhões de pessoas podem ser alvos de golpes de clonagem de voz por IA

Milhões de pessoas podem ser alvos de golpes de clonagem de voz por IA

“Milhões” de pessoas podem ser vítimas de golpes que usam inteligência artificial para clonar suas vozes, alertou um banco do Reino Unido.

O Starling Bank, um credor somente online, disse que os fraudadores são capazes de usar IA para replicar a voz de uma pessoa a partir de apenas três segundos de áudio encontrados, por exemplo, em um vídeo que a pessoa postou online. Os golpistas podem então identificar os amigos e familiares da pessoa e usar a voz clonada por IA para encenar uma ligação telefônica para pedir dinheiro.

Esses tipos de golpes têm o potencial de “pegar milhões de pessoas”, disse o Starling Bank em um comunicado à imprensa na quarta-feira (18).

Eles já afetaram centenas. De acordo com uma pesquisa com mais de 3.000 adultos que o banco conduziu com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram que foram alvos de um golpe de clonagem de voz por IA nos últimos 12 meses.

A pesquisa também mostrou que 46% dos entrevistados não sabiam que tais golpes existiam e que 8% enviariam tanto dinheiro quanto fosse solicitado por um amigo ou familiar, mesmo que achassem a ligação estranha.

“As pessoas postam regularmente conteúdo online com gravações de suas vozes, sem nunca imaginar que isso as torna mais vulneráveis ​​a fraudadores”, disse Lisa Grahame, diretora de segurança da informação do Starling Bank, no comunicado à imprensa.

O banco está incentivando as pessoas a concordarem com uma “frase segura” com seus entes queridos — uma frase simples, aleatória, fácil de lembrar e diferente de outras senhas — que pode ser usada para verificar sua identidade por telefone.

O credor recomenda não compartilhar a frase segura por mensagem de texto, o que pode facilitar a descoberta por golpistas, mas, se compartilhada dessa forma, a mensagem deve ser apagada assim que a outra pessoa a vir.

À medida que a IA se torna cada vez mais hábil em imitar vozes humanas, aumentam as preocupações sobre seu potencial de prejudicar as pessoas, por exemplo, ajudando criminosos a acessar suas contas bancárias e espalhar informações incorretas.

No início deste ano, a OpenAI, criadora do chatbot de IA generativa ChatGPT, revelou sua ferramenta de replicação de voz , Voice Engine, mas não a disponibilizou ao público naquele momento, citando o “potencial de uso indevido de voz sintética”.

Redação: radiocuiabanafm.com.br

Clique abaixo e leia também

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *