Verificado: Desinformação alimentada por IA: deepfakes, tecnologia de detecção e armamento da dúvida

Apurado pelo site Africa Check 🇿🇦

A organização de direitos humanos Anistia Internacional foi criticada no início de 2023 por usar imagens geradas por inteligência artificial (IA) que pareciam ser fotografias de brutalidade policial generalizada durante protestos na Colômbia em 2021. 

Esses eventos foram bem documentados pela Anistia Internacional e outros quando ocorreram. Mas a organização optou por criar imagens de manifestantes e policiais que não existiam. 

A Anistia disse que sua intenção não era colocar os manifestantes em perigo ao potencialmente revelar suas identidades. Mas em um clima de desconfiança na mídia noticiosa, havia a preocupação de que o uso da IA ​​minasse a credibilidade da organização e os eventos que ela documentava.

Especialistas alertaram sobre um futuro distópico ou assustador alimentado por IA. Um exemplo é a adulteração eleitoral. Conforme relatado pelo Serviço Público de Radiodifusão dos Estados Unidos , algumas preocupações são: “Mensagens automáticas de chamada automática, na voz de um candidato, instruindo os eleitores a votar na data errada; gravações de áudio de um candidato supostamente confessando um crime ou expressando opiniões racistas; imagens de vídeo mostrando alguém dando um discurso ou entrevista que nunca deu.”

Mas o tráfico de conteúdo alterado para fins de desinformação não é um fenômeno novo. E algumas das melhores ferramentas para detectar essas falsificações são as mesmas que foram usadas anteriormente para desmascará-las. (Consulte nosso guia para identificar imagens e vídeos gerados por IA.)..

Veja a apuração completa no site Africa Check 🇿🇦