Apurado pelo site UOL Confere
A imagem de um bebê morto, o helicóptero da Havan resgatando pessoas, corpos boiando em meio a enchente e um cavalo em cima de um telhado de uma casa coberta de água. Esses são alguns exemplos de imagens geradas por inteligência artificial que circularam em posts e mensagens sobre a tragédia climática do Rio Grande do Sul.
No entanto, imagens reais do desastre não faltam. Além disso, muitos desses conteúdos gerados por IA estão relacionados a narrativas falsas ou relatos sem comprovação. Qual a necessidade de criar esse tipo de imagem e por quê? O UOL Confere ouviu especialistas para tentar entender qual o impacto desse tipo de conteúdo nas pessoas.
Conteúdo aliado a narrativas. O coordenador do Laboratório de Inteligência Artificial da Unicamp, Anderson Rocha, afirma que vivemos o que é chamado de “era das realidades sintéticas”. Nesse contexto, o potencial de criação de conteúdo (imagem, vídeo, texto, áudio) se alia às narrativas. “Com isso, você consegue criar realidades alternativas”, explica. O que se aplica tanto para o bem quanto para o mal.
Você pode criar, por exemplo, um storytelling, uma história que seja positiva com fins benignos. Ou, por outro lado, criar histórias que levam à desinformação. Anderson Rocha
Distinção do que é real. Para a pesquisadora Cristina Godoy, do Grupo de Pesquisa Direito Ética e Inteligência Artificial da USP, a geração de imagens por IA pode fazer com que as pessoas tenham dificuldade de diferenciar o que é realidade e o que é ficção. E no contexto da tragédia, se torna ainda mais importante mostrar o que é real.
As tragédias chamam muito a atenção dos indivíduos. É importante apresentar aquilo que é real, o que aconteceu. E é importante para a gente aprender, saber o que essa tragédia causou, impactou, por determinados tipos de omissões, por determinados tipos de problemas, ou avisos que não foram seguidos e assim por diante. A realidade sempre é muito importante…
Veja a apuração completa no site UOL Confere