Apurado pelo site Radio Canada 🇨🇦
Depoimentos de pessoas convencidas de terem sido alvo de golpistas que clonaram a voz de um de seus entes queridos têm vindo de todos os lugares desde que as ferramentas que facilitam esse tipo de manipulação por meio da inteligência artificial (IA) foram democratizadas, no início de 2023 .
No entanto, ainda não há provas de que golpistas estejam usando essa tecnologia, confirmam a Sûreté du Québec (SQ) e o Service de Police de la Ville de Montréal (SPVM).
Os casos de clonagem de voz para fins maliciosos geralmente são relatados no contexto de fraude de avós , que consiste em ligar para um idoso fingindo ser neto ou neta com necessidade urgente de dinheiro, após um acidente de carro, por exemplo.
Num artigo publicado no início do ano , os Decryptors explicaram que estas inúmeras histórias não eram apoiadas por quaisquer factos.
A pesquisa recente (Nova janela)de um call center especializado em golpes de avós pelo SQ lançou, no entanto, um novo ciclo (Nova janela)exagero (Nova janela)sobre essas fraudes supostamente alimentadas por inteligência artificial. A IA é até chamada para o resgate em relatórios para clonar vozes e mostrar como isso pode ser feito facilmente.
O problema é que não há provas de que a IA seja usada para esses golpes, que funcionaram maravilhosamente bem no Canadá por mais de quinze anos. (Nova janela)…
Veja a apuração completa no site Radio Canada 🇨🇦