Apurado pelo site Radio Canada 🇨🇦
Uma das notícias falsas mais amplamente divulgadas durante as eleições federais de 2019 afirmava que o primeiro-ministro Justin Trudeau havia perdido o emprego na West Point Gray Academy, onde lecionou de 1998 a 2001, devido a um escândalo sexual. A história sem fundamento foi publicada por um site conhecido por suas notícias errôneas e teve que ser negada até pela diretora da escola na época.
No entanto, se você perguntasse ao mecanismo de busca Bing na semana passada o que aconteceu com a carreira docente do primeiro-ministro, a resposta apresentada em uma caixa de informações no topo dos resultados começava da seguinte forma: Justin Trudeau deixou seu emprego na West Point Grey Academy em 2001 depois de ter um relacionamento sexual com um aluno ou com a mãe do aluno.
Foi mencionado mais tarde nesta resposta em inglês que o antigo diretor da escola negou estes rumores. No entanto, as informações fornecidas pelo chatbot que o Bing integra em alguns dos seus resultados de pesquisa eram imprecisas e ambíguas. Além do mais, ele citou como fonte o site Snopes, que relatou a história com precisão em um artigo de verificação de fatos. (Nova janela).
É muito provável que o chatbot utilizado pelo motor de busca da Microsoft não tenha interpretado corretamente as informações citadas das suas fontes. Isso ocorre no momento em que o Bingfoca cada vez mais na integração da inteligência artificial (Nova janela)(AI) em seu mecanismo de busca devido à parceria da Microsoft com a OpenAI, empresa por trás do ChatGPT.
Voltamos sempre à mesma coisa: o conteúdo gerado pelas ferramentas de geração de texto não tem validade informacional, comenta Marie-Jean Meurs, professora do Departamento de Ciência da Computação da UQAM.
Essas ferramentas são construídas para gerar texto com as sequências de palavras mais prováveis. É extremamente impressionante, as frases estão sintaticamente corretas, mas a validade da informação não existe, acrescenta ela…
Veja a apuração completa no site Radio Canada 🇨🇦