O Google anunciou que implementará, ainda este ano, um
sistema de identificação de imagens geradas ou editadas por IA nos resultados
de busca. Essa iniciativa utiliza os metadados C2PA (Coalition for Content
Provenance and Authenticity), projetados para rastrear a origem das imagens e
permitir que os usuários verifiquem se foram manipuladas ou criadas
artificialmente. O objetivo é aumentar a transparência, especialmente em um
contexto de crescente proliferação de deepfakes, que podem ser utilizados para desinformação
e fraudes. Essa movimentação do Google reflete esforços globais para garantir
que a IA seja usada de maneira ética e responsável.
No entanto, a adoção do padrão C2PA enfrenta obstáculos
significativos. Embora empresas como Microsoft, Adobe e Google apoiem o padrão,
ele ainda não é amplamente implementado em dispositivos de grandes fabricantes,
como a Apple, e plataformas digitais não exibem consistentemente os metadados
ao público. Paralelamente, recentes esforços legislativos globais como EU I.A.
Act, regulamento da União Europeia, obriga que sistemas de IA que geram
conteúdos sintéticos de áudio, imagem, vídeo ou texto assegurem que os
resultados sejam marcados de maneira legível por máquina, indicando claramente
que foram gerados ou manipulados artificialmente. Essa medida visa garantir que
as soluções técnicas sejam eficazes e interoperáveis, mas reconhece as
limitações técnicas e o estado atual da arte no desenvolvimento de IA.
Essas regulamentações ganham ainda mais relevância quando
analisamos o impacto crescente dos deepfakes. As estimativas indicam que as
perdas financeiras globais relacionadas a deepfakes saltarão de US$ 12,3
bilhões em 2023 para US$ 40 bilhões até 2027. O uso de deepfakes em fraudes e
manipulações, especialmente no setor bancário, está em ascensão, com vídeos e
áudios falsificados sendo amplamente utilizados para enganar empresas. O Tribunal
Superior Eleitoral (TSE) brasileiro, atento a essas ameaças, regulamentou a
proibição do uso de deepfakes nas eleições de 2024, impondo a obrigatoriedade
de aviso sobre o uso de IA em conteúdos eleitorais, além de sanções rigorosas
para aqueles que violarem essas regras.
O mesmo ocorre a nível global, uma vez que a Convenção-Quadro
do Conselho da Europa sobre inteligência artificial e direitos humanos,
democracia e Estado de direito (CETS Nº 225), tratado europeu que visa proteger
os direitos humanos e a democracia no uso de IA, reforça a necessidade de
transparência e supervisão em sistemas de IA. O tratado também incentiva que os
países signatários adotem mecanismos para identificar conteúdos gerados por IA,
garantindo que tecnologias como os deepfakes não sejam usadas para comprometer
a integridade de processos democráticos.
O posicionamento do Google e o avanço de regulamentações
como o EU I.A. Act, o CETS 225 e as resoluções do TSE refletem uma resposta
global coordenada às ameaças representadas pela IA, em particular pelos
deepfakes. Ao exigir que conteúdos gerados artificialmente sejam claramente
identificados, essas regulamentações buscam mitigar o risco de manipulação e
garantir que os cidadãos possam confiar nas informações que consomem. Em última
instância, essas iniciativas são essenciais para proteger a integridade dos
processos democráticos e assegurar que a IA seja utilizada de forma ética e
responsável em todas as esferas da sociedade.
Acompanhe o E,M Tech News semanalmente, seguindo os perfis do Elias, Matias Advogados no LinkedIn, Instagram e Facebook. Toda sexta-feira, o GT-IA e a área de Inovação e Startups do escritório compartilharão uma notícia atual sobre tecnologia e analisarão seus impactos jurídicos.
Fontes: This
system can sort real pictures from AI fakes — why aren’t platforms using it? -
The Verge | Deepfake
attacks will cost $40 billion by 2027 | VentureBeat | Deepfake
attacks will cost $40 billion by 2027 | VentureBeat
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Comentários/ 0