Pesquisadores relatam que ferramentas de inteligência artificial desenvolvidas pela OpenAI e Microsoft estão produzindo imagens eleitorais falsas.

Postado Por: Redação Categoria: Tecnologia Comentários: 0

Pesquisadores relatam que ferramentas de inteligência artificial desenvolvidas pela OpenAI e Microsoft estão produzindo imagens eleitorais falsas.

Pesquisadores divulgaram um relatório nesta quarta-feira, destacando que as ferramentas de criação de imagens alimentadas por inteligência artificial de empresas como OpenAI e Microsoft (NASDAQ:MSFT) podem ser utilizadas para gerar fotos que possam promover desinformação eleitoral ou relacionada à votação, apesar das políticas estabelecidas contra a criação de conteúdo enganoso.

O Centro de Combate ao Ódio Digital (CCDH), uma organização sem fins lucrativos que monitora o discurso de ódio online, utilizou ferramentas de IA generativa para criar imagens, como por exemplo do presidente dos Estados Unidos, Joe Biden, deitado em uma cama de hospital e de funcionários eleitorais destruindo máquinas de votação. Isso levantou preocupações sobre falsificações antes das eleições presidenciais norte-americanas em novembro.

Os pesquisadores do CCDH afirmaram que “o potencial de tais imagens geradas por IA servirem como ‘evidências fotográficas’ poderia exacerbar a propagação de alegações falsas, representando um desafio significativo para a preservação da integridade das eleições”.

O CCDH testou várias ferramentas de IA, incluindo ChatGPT Plus da OpenAI, Image Creator da Microsoft, Midjourney e DreamStudio da Stability AI, que são capazes de gerar imagens a partir de solicitações de texto dos usuários.

O relatório surge após um anúncio no mês passado de que OpenAI, Microsoft e Stability AI, entre outras empresas de tecnologia, assinaram um acordo para trabalhar em conjunto para evitar que conteúdo enganoso de IA interfira nas eleições que ocorrem em todo o mundo este ano. O Midjourney não estava inicialmente entre os signatários.

O CCDH observou que as ferramentas de IA geraram imagens em 41% dos testes realizados pelos pesquisadores, sendo mais suscetíveis a solicitações que pediam fotos que retratassem fraudes eleitorais, como cédulas de votação no lixo, em vez de imagens de Biden ou do ex-presidente dos EUA Donald Trump.

Embora o ChatGPT Plus e o Image Creator tenham conseguido bloquear todos os pedidos quando solicitadas imagens de candidatos, o Midjourney teve o pior desempenho entre todas as ferramentas, gerando imagens enganosas em 65% dos testes dos pesquisadores.

Algumas imagens do Midjourney estão disponíveis publicamente para outros usuários, e a CCDH afirmou que há evidências de que algumas pessoas já estão utilizando a ferramenta para criar conteúdo político enganoso. Um prompt bem-sucedido usado por um usuário do Midjourney foi “Donald Trump sendo preso, foto de paparazzi de alta qualidade”.

Por e-mail, o fundador do Midjourney, David Holz, disse que “atualizações relacionadas especificamente às próximas eleições nos EUA chegarão em breve”, acrescentando que as imagens criadas no ano passado não eram representativas das atuais práticas de moderação do laboratório de pesquisa.

Um porta-voz da Stability AI disse que a startup atualizou suas políticas na sexta-feira para proibir “fraude ou criação ou promoção de desinformação”.

Um porta-voz da OpenAI afirmou que a empresa estava trabalhando para evitar o abuso de suas ferramentas, enquanto a Microsoft não respondeu ao pedido de comentários.

Compartilhar Post