AI-generated misinformation escalates and the debate becomes more urgent than ever

Quando a IA generativa tomou os holofotes não se falava de outra coisa. Ainda que a maior parte do conteúdo midiático sobre inteligência artificial tenha se focado no sentido positivo da tecnologia e a preocupação em relação ao seu uso ético nos negócios. Entretanto, é preciso dar atenção aos usos negativos da utilização dessa ferramenta e os riscos que podem gerar. No campo da comunicação a IA pode escalar a produção da desinformação e levar o ataque à credibilidade para outro nível.

Um bom exemplo recente é o caso da cantora Taylor Swift, que teve fotos criadas por IA e atingiu mais de 45 milhões de visualizações e outras 24 mil republicações somente na plataforma X/Twitter. Isso foi o que a conta responsável da artista conseguiu causar em apenas 17 horas até sua suspensão por violar as políticas da plataforma.

Esses números assombrosos só foram possíveis devido a quatro características comuns à desinformação apoiada no uso de IA – Volume, Velocidade, Viralização e Verossimilhança. Esses atributos são adjetivos ligados aos conteúdos desinformativos gerados por IAs, segundo Albertina Piterbarg da UNESCO. O que quero transmitir e compartilhar nesse texto foi aprendido no curso massivo ministrado pelo Knight Center for Journalism que tive a oportunidade de acompanhar durante o mês de maio.

Saber identificar uma desinformação é importante para mitigar seus impactos, evitar a proliferação e educar a audiência. Esses são desafios inatos à área de comunicação no século XXI e, por isso, o debate se mostra indispensável.

Como identificar um conteúdo desinformativo?

É importante compreender o fenômeno da desinformação como uma tendência global. Assim, quando sabemos que há uma tendência para a desinformação sobre vacinas, por exemplo, nós suspendemos a confiança cega e passamos a ter uma posição mais cética sobre as informações que circulam nas redes, sobretudo se ela carrega algumas das características mencionadas acima. Veja os 4 Vs: Volume, Velocidade, Viralização e Verossimilhança que comentei no início deste texto.

Se sentir que é uma informação que circula em alto volume e velocidade nas redes, vindo de todos os lugares, de diversas pessoas, isso pode ser um indício para que liguemos o radar e analisemos mais criticamente esse conteúdo.

A seguir compartilho algumas dicas que podem nos ajudar a detectar conteúdo desinformativo com IA passados por Osama Aljaber (UNDP) UNESCO. Para identificar os indícios de desinformação devemos avaliar alguns pontos.

Conteúdos no geral:

  • Se o conteúdo tende a polarizar opiniões e jogar pessoas umas contra as outras;
  • Se contêm pequenos erros ou defeitos na imagem ou no som;

Em imagens:

  • Quando as IA simulam pessoas, já vimos ser comum defeitos para gerar mãos e pés;
  • As imagens também costumam parecerem muito brilhantes como se tivessem sido polidas ou maquiadas;
  • Imagens apresentam dificuldades em renderizar textos como placas de trânsito e rótulos de produtos;

Em vídeos:

  • Procure por falta de sincronismo entre áudio e imagem,
  • Verifique se há movimentos incomuns nos olhos e corpo, principalmente no cantos;

Em áudios:

  • Verifique o padrão da voz, se há voz metalizada (robótica) ou pausas estranhas;

Em textos:

  • Vale verificar se o conteúdo é repetitivo. Isso pode ser um indício de ter sido gerado por IA;
  • Excesso de adjetivos;
  • Inconsistência nos dados e datas, tal como falta de fontes.

 

Esses são casos em que podemos fazer uma detecção manual, mas como é uma ferramenta que tem recebido muitos investimentos só a OpenAI, dona do Chat GPT, recebeu U$13 bilhões da Microsoft, como mostra matéria do Estadão. Todo esse investimento na tecnologia complexifica a capacidade de gerar conteúdos cada vez mais verossimilhantes e, por um lado, dificulta a detecção manual.

Por outro lado, ferramentas de IA para detecção automatizada também começam a surgir no mercado e, em muitos casos, pode ser necessário o uso dessas tecnologias para fazer a detecção. Como no conceito de Pharmakon, em certa medida a IA pode ser o antídoto para seu próprio veneno.

É importante destacar que um único aspecto dentre esses sinalizados acima podem estar relacionados ou não ao uso de IA, de toda forma vale verificar o contexto e se essas falhas combinadas também não caem no critério de desinformação acima.

O debate sobre o uso de IA para desinformação precisa ser alimentado frequentemente para gerar conscientização entre produtores de conteúdo e audiência para mitigar seus impactos e gerar uma rede de informações de qualidade.

Bruno Borges

Artigos Recentes