Iniciativas
internacionais de regulação da IA podem trazer consequências que vão além de
seus países signatários
Eduardo
Felipe Matias
Assiste-se,
atualmente, a um movimento global para tentar regular a inteligência artificial (IA), com múltiplas iniciativas em diversos países ao redor do mundo. No Brasil, onde também se discute o tema, devemos ficar atentos a
legislações que, mesmo que não sejam aplicáveis aqui diretamente, podem ter
efeitos sobre as empresas nacionais.
A ação
internacional mais recente nesse sentido partiu do Conselho da Europa. A Convenção-Quadro
sobre Inteligência Artificial e Direitos Humanos, Democracia e Estado de
Direito foi discutida pelos 46 Estados membros daquela organização, pela União
Europeia (UE) e por onze Estados não membros, entre os quais Estados Unidos, Argentina,
Austrália, Canadá, Japão e México.
Alinhada à
razão de ser do próprio Conselho, essa Convenção tem por objetivo que os
direitos humanos, a democracia e o estado de direito sejam respeitados durante
o chamado ciclo de vida da IA, expressão utilizada para descrever todas as suas
fases de desenvolvimento e operação, desde sua concepção, design e
desenvolvimento, passando pela implementação e possíveis atualizações, até sua
descontinuação.
Para proteger
os direitos humanos, a Convenção determina que as atividades ocorridas durante esse ciclo devem estar alinhadas com suas regras e as de outros
documentos internacionais que tratam da matéria. Um de seus pilares centrais é
a preservação da dignidade humana, devendo esses sistemas ser projetados e
utilizados de forma a evitar que as pessoas estejam sujeitas a decisões
automatizadas que possam violar seus direitos.
Isso inclui o
combate à discriminação, algo necessário à medida que está comprovado que
sistemas de IA podem reproduzir e consolidar vieses encontrados nas bases de
dados usadas em seu treinamento. A Convenção ressalta o potencial da IA de gerar
ou agravar desigualdades, obrigando a adoção de medidas para evitar que esta perpetue e amplie
preconceitos, especialmente em relação a grupos vulneráveis.
Para defender
a democracia, a Convenção prevê que a IA não deverá ser usada para minar a
integridade e a eficácia das instituições e processos democráticos. Para isso,
visa preservar a autonomia
individual, favorecendo a capacidade das pessoas de tomar decisões livres e
informadas, sem a interferência indevida de sistemas automatizados que possam
manipulá-las ou controlar suas ações de maneira opaca. Para isso, elas devem
estar cientes de quando estão interagindo com uma IA e ter a oportunidade de
questionar decisões que as afetem diretamente.
A transparência
é considerada outro princípio crucial para a democracia, o que inclui a
necessidade de identificação clara de conteúdos gerados por IA – regra que, no
contexto eleitoral, foi estabelecida neste ano pelo Tribunal Superior Eleitoral (TSE) brasileiro. Além disso, a Convenção prevê que as
pessoas sejam avisadas quando estiverem interagindo com uma IA em vez de com um
humano.
Para que seus objetivos sejam atingidos, a
Convenção estabelece uma série de medidas.
Primeiro, os
signatários deverão adotar ações para a identificação, avaliação, prevenção e
mitigação de riscos da IA. Encampando a ideia incorporada à recente regulação
de IA da UE (EU Artificial Intelligence Act), que prevê um tratamento
diferenciado conforme o nível de risco apresentado por cada sistema, a
Convenção estabelece que essas ações deverão ser graduadas e diferenciadas,
levando em conta o contexto e a aplicação pretendido.
Exige-se,
ainda, que os
sistemas de IA sejam supervisionados adequadamente. Isso inclui a avaliação e o monitoramento de
possíveis impactos adversos, procurando garantir que desenvolvedores e operadores prestarão contas e poderão ser responsabilizados
por qualquer violação ou dano causado.
Por fim, o
tratado requer a implementação de medidas voltadas à confiabilidade e à segurança
da IA. Isso inclui determinar, quando apropriado, que os sistemas sejam testados antes de
disponibilizá-los para o primeiro uso e quando forem significativamente
modificados. A intenção é fomentar a inovação segura, reconhecendo que a IA tem um lado positivo e pode contribuir para
solucionar diversos problemas da atualidade. Aumentar a confiança nesses
sistemas pode facilitar a aceitação e adesão das pessoas a essas soluções,
permitindo que estas ampliem seu alcance.
A Convenção,
que está aberta desde maio deste ano para a adesão de qualquer país que se
comprometa a cumprir suas disposições, já conta com as assinaturas de Estados
Unidos, UE e Reino Unido, entre outros. Para entrar em vigor, ela depende da posterior
ratificação por cinco países, incluindo ao menos três membros do Conselho da
Europa.
Iniciativas
desse tipo podem ter consequências que vão além de seus signatários. Dependendo
do peso dos países que a elas aderirem, as grandes empresas de tecnologia, que
operam globalmente, tendem a adotar suas regras como padrão. Além disso, elas
tendem a influenciar outras jurisdições – como aconteceu com o Regulamento
Geral sobre a Proteção de Dados (GDPR) da UE, que inspirou, inclusive, a Lei
Geral de Proteção de Dados (LGPD) brasileira. Por isso, as empresas nacionais
devem estar atentas a novas ações que venham a surgir para regular a IA, ainda
que distantes. Amanhã, elas podem estar batendo à porta.
Eduardo
Felipe Matias é autor dos livros A humanidade e suas
fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é professor convidado da Fundação Dom Cabral e sócio
da área empresarial de Elias,
Matias Advogados
Artigo
originalmente publicado pelo Broadcast do Estadão/Agência Estado em 30 de setembro
de 2024.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE