Nova
praga gerada por IA põe em risco a capacidade de resposta da sociedade em
momentos de crise
Eduardo Felipe Matias
No princípio, era o spam. Quando a internet ainda era vista como uma promessa utópica de conectividade global, e-mails indesejados se multiplicaram nas caixas postais. Inofensivo à primeira vista, o spam rapidamente se tornou uma praga persistente, nos azucrinando com lixo eletrônico – no auge do problema, estimava-se que 80% dos e-mails eram spam –, o que prejudicava a comunicação online, corroía a confiança dos usuários e causava prejuízos econômicos substanciais às empresas.
Com
os avanços da inteligência artificial (IA), o verbo do spam se fez imagem. Fotos,
vídeos e áudios que parecem autênticos, mas na verdade são gerados por essa
tecnologia – os chamados deepfakes –, são usados para enganar as pessoas. E,
mais recentemente, estes se transfiguraram em uma outra ameaça: os slops (acrônimo
para synthetic low-quality outputs, ou conteúdos sintéticos de baixa qualidade).
Não
se trata mais de anúncios intrusivos ou irrelevantes. Os slops quase sempre têm
caráter emocionalmente apelativo, o que os torna particularmente virais. Se o
spam poluiu nossas contas de e-mail, os slops estão contaminando nossa vida online
e, às vezes, a offline. Em um mundo onde o virtual e o real se misturam cada
vez mais, eles não só distorcem nossa percepção dos fatos como podem se aproveitar
dos momentos de maior vulnerabilidade da sociedade, como desastres naturais,
pandemias e crises políticas.
Durante
os furacões Helene e Milton, que atingiram nos últimos meses a Flórida e outros
estados norte-americanos, os slops proliferaram. Durante o primeiro, as redes
sociais foram assoladas por imagens supostamente capturadas no calor da
tragédia. Uma delas, que ficou famosa, mostrava uma jovem em um barco,
segurando seu cachorrinho enquanto navegava na inundação. No segundo, circularam
fotografias mostrando áreas dos parques de diversões da Disney parcialmente
submersas. Antes disso, durante o furacão Ian, dois anos atrás, entre as cenas
dramáticas de destruição que viralizaram, chamou a atenção uma foto de tubarões
nadando em ruas alagadas.
Curiosas,
comoventes ou assustadoras, essas imagens foram rapidamente identificadas como
falsas por especialistas, porém, mesmo após serem desmentidas, continuaram a se
espalhar – as fotos da DisneyWorld embaixo d’água foram, inclusive,
compartilhadas por uma agência de notícias estatal russa. Engano e confusão, em
um momento em que informações precisas eram cruciais para os esforços de
resgate e apoio emergencial à população.
Durante
o furacão Helene, organizações humanitárias relataram dificuldades em mobilizar
doações porque narrativas falsas distraíam o público da dimensão da tragédia.
No furacão Milton, a FEMA (Federal Emergency Management Agency), agência governamental
dos Estados Unidos responsável por coordenar a resposta a desastres naturais, acusada
injustamente de desviar para imigrantes fundos emergenciais, descreveu a
situação como a pior onda de desinformação que já havia enfrentado, prejudicando
a eficiência e o moral dos socorristas.
Imagens
tocantes podem, ainda, ser usadas para subtrair dinheiro das pessoas. Foi o que
aconteceu em 2023, após o devastador terremoto que sacudiu a Turquia e a Síria,
quando imagens de crianças soterradas foram usadas em esquemas fraudulentos de
caridade. Embora, no caso, se tratasse do reaproveitamento de fotos antigas, os
slops podem se tornar uma arma poderosa para esse tipo de golpistas.
Outro
efeito nocivo dos slops é que eles desgastam a confiança do público nas
plataformas digitais em geral e nas fontes de notícias confiáveis em particular.
Pesquisas indicam que a suspeita em relação à veracidade das informações cresce
à medida que a IA se torna mais habilidosa em gerar conteúdos falsos, criando
um ambiente onde as pessoas hesitam em acreditar até mesmo em notícias verdadeiras.
Essa erosão da credibilidade da mídia como um todo gera um ambiente de
desconfiança generalizada prejudicial para a sociedade.
Assim
como filtros de spam foram implementados para conter o fluxo de e-mails indesejados,
novas tecnologias de detecção de desinformação precisam ser inventadas e
constantemente atualizadas para lidar com a sofisticação crescente dos deepfakes.
Plataformas já começaram a adotar sistemas de verificação e rotulagem de
conteúdos gerados por IA, mas esses esforços parecem insuficientes diante da
rapidez com que os slops se disseminam.
Além
disso, é preciso, mais do que nunca, educar o público sobre os perigos de repassar
informações não verificadas, principalmente durante crises. A propagação
de slops depende, em grande parte, da sensibilização das pessoas, que, ao verem
imagens chocantes, reagem instintivamente ao compartilhá-las, sem verificar sua
autenticidade.
Essa
nova forma de “poluição informacional” não é um risco apenas à integridade da
comunicação online, mas à própria capacidade de resposta da sociedade em
momentos críticos. Se o spam foi o flagelo das primeiras décadas da internet,
os slops são sua versão moderna e amplificada, capaz de causar estragos em um
ambiente digital ainda mais interconectado e dependente de informações em tempo
real. É fundamental, por isso, combatê-los, tanto por meio do desenvolvimento
de novas tecnologias, quanto da educação digital e da promoção de uma cultura
crítica sobre o que se vê e se ouve na internet.
Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, e é professor convidado da Fundação Dom Cabral e sócio da área empresarial de Elias, Matias Advogados.
Artigo
originalmente publicado pelo Broadcast do Estadão/Agência Estado em outubro de
2024.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE