Quando a IA generativa tomou os holofotes não se falava de outra coisa. Ainda que a maior parte do conteúdo midiático sobre inteligência artificial tenha se focado no sentido positivo da tecnologia e a preocupação em relação ao seu uso ético nos negócios. Entretanto, é preciso dar atenção aos usos negativos da utilização dessa ferramenta e os riscos que podem gerar. No campo da comunicação a IA pode escalar a produção da desinformação e levar o ataque à credibilidade para outro nível.
Um bom exemplo recente é o caso da cantora Taylor Swift, que teve fotos criadas por IA e atingiu mais de 45 milhões de visualizações e outras 24 mil republicações somente na plataforma X/Twitter. Isso foi o que a conta responsável da artista conseguiu causar em apenas 17 horas até sua suspensão por violar as políticas da plataforma.
Esses números assombrosos só foram possíveis devido a quatro características comuns à desinformação apoiada no uso de IA – Volume, Velocidade, Viralização e Verossimilhança. Esses atributos são adjetivos ligados aos conteúdos desinformativos gerados por IAs, segundo Albertina Piterbarg da UNESCO. O que quero transmitir e compartilhar nesse texto foi aprendido no curso massivo ministrado pelo Knight Center for Journalism que tive a oportunidade de acompanhar durante o mês de maio.
Saber identificar uma desinformação é importante para mitigar seus impactos, evitar a proliferação e educar a audiência. Esses são desafios inatos à área de comunicação no século XXI e, por isso, o debate se mostra indispensável.
É importante compreender o fenômeno da desinformação como uma tendência global. Assim, quando sabemos que há uma tendência para a desinformação sobre vacinas, por exemplo, nós suspendemos a confiança cega e passamos a ter uma posição mais cética sobre as informações que circulam nas redes, sobretudo se ela carrega algumas das características mencionadas acima. Veja os 4 Vs: Volume, Velocidade, Viralização e Verossimilhança que comentei no início deste texto.
Se sentir que é uma informação que circula em alto volume e velocidade nas redes, vindo de todos os lugares, de diversas pessoas, isso pode ser um indício para que liguemos o radar e analisemos mais criticamente esse conteúdo.
A seguir compartilho algumas dicas que podem nos ajudar a detectar conteúdo desinformativo com IA passados por Osama Aljaber (UNDP) UNESCO. Para identificar os indícios de desinformação devemos avaliar alguns pontos.
Esses são casos em que podemos fazer uma detecção manual, mas como é uma ferramenta que tem recebido muitos investimentos só a OpenAI, dona do Chat GPT, recebeu U$13 bilhões da Microsoft, como mostra matéria do Estadão. Todo esse investimento na tecnologia complexifica a capacidade de gerar conteúdos cada vez mais verossimilhantes e, por um lado, dificulta a detecção manual.
Por outro lado, ferramentas de IA para detecção automatizada também começam a surgir no mercado e, em muitos casos, pode ser necessário o uso dessas tecnologias para fazer a detecção. Como no conceito de Pharmakon, em certa medida a IA pode ser o antídoto para seu próprio veneno.
É importante destacar que um único aspecto dentre esses sinalizados acima podem estar relacionados ou não ao uso de IA, de toda forma vale verificar o contexto e se essas falhas combinadas também não caem no critério de desinformação acima.
O debate sobre o uso de IA para desinformação precisa ser alimentado frequentemente para gerar conscientização entre produtores de conteúdo e audiência para mitigar seus impactos e gerar uma rede de informações de qualidade.
Bruno Borges