Vantagens
e desvantagens de uma regulação da inteligência artificial centralizada ou
descentralizada, e a escolha do modelo a ser adotado no Brasil
Eduardo Felipe Matias
A
regulação da inteligência artificial (IA) – tema do Projeto de Lei (PL
2.238/2023) aprovado no final do ano passado no Senado e que será agora
discutido na Câmara dos Deputados – pode se basear em um modelo centralizado ou
descentralizado, sendo importante avaliar as vantagens e desvantagens dessas
opções.
Historicamente,
a regulação da IA tem sido liderada pelas próprias empresas do setor, em um sistema
de autorregulação. Este apresenta alguns benefícios, como conferir maior
agilidade na adaptação às rápidas mudanças tecnológicas e permitir soluções
colaborativas e multidisciplinares. Ferramentas como declarações de princípios
e certificações podem, ainda, ser desenvolvidas e ajustadas com maior rapidez
do que regulamentações formais.
Entretanto,
esse modelo descentralizado apresenta falhas consideráveis, como falta de
coordenação, regras conflitantes, carência de mecanismos robustos de
fiscalização e ausência de obrigatoriedade, o que compromete sua efetividade.
Por
outro lado, a regulação centralizada da IA gera maior coerência entre normas e
mais efetividade em sua aplicação, graças ao respaldo estatal. Quando esta se
dá por meio de agências reguladoras especializadas, que usualmente mantêm
relações próximas com a indústria, isso pode ter o efeito adicional de gerar
confiança e incentivar a conformidade voluntária com as regras estabelecidas.
Além disso, essas agências costumam ter uma vantagem significativa em relação a
outros atores públicos, como legisladores e juízes, os quais, por nem sempre
possuírem conhecimento técnico suficiente, encontram limitações para lidar com
a complexidade de determinadas áreas.
Graças
a essas e outras vantagens, há algum tempo vem sendo debatida, em lugares como
os EUA, a criação de uma agência específica para regular a IA, inspirada em entidades
como a Food and Drug Administration (FDA) daquele país, cuja função é similar à
da Agência Nacional de Vigilância Sanitária (ANVISA) brasileira. A ideia é que,
assim como medicamentos precisam ser submetidos a rigorosos testes para
avaliação de segurança antes de chegarem ao mercado, novas ferramentas de IA
também deveriam passar por verificações criteriosas. Uma “Agência dos
Algoritmos” poderia avaliar minuciosamente os riscos das ferramentas de IA,
garantindo que somente as consideradas seguras fossem disponibilizadas ao
público.
No
entanto, a criação de uma nova agência enfrenta desafios significativos. O
processo de estabelecer instituições centralizadas é geralmente lento, e pode
não acompanhar o ritmo acelerado dos avanços tecnológicos. Por isso, muitos
consideram que fortalecer o papel de agências já existentes seja uma
alternativa mais adequada.
Essa,
aparentemente, é a visão que irá prevalecer na regulação brasileira da IA, já
que o PL em tramitação prevê a criação de um Sistema Nacional de Regulação e
Governança de Inteligência Artificial (SIA) integrado por órgãos e entidades do
Poder Executivo federal, entre outros atores, e coordenado pela Autoridade
Nacional de Proteção de Dados (ANPD).
Ainda
assim, agências regulatórias, em geral, podem sofrer outros contratempos. Um
deles é a dificuldade em recrutar profissionais altamente qualificados, já que
o setor público normalmente não consegue competir com os salários oferecidos
pela iniciativa privada. Isso pode limitar a capacidade técnica das agências,
especialmente em áreas emergentes como a IA, onde os especialistas estão quase
sempre vinculados a big techs, que oferecem remunerações substancialmente
superiores.
A abundância de recursos dessas empresas, que as
leva não apenas a atrair as melhores mentes da área, mas também a possuir
supercomputadores avançados e acumular enormes volumes de dados, contrasta com
a habitual falta de recursos dos órgãos reguladores, gerando uma grande assimetria
de informação. Essa disparidade é agravada pelo fato de que muitas soluções de
IA são proprietárias, permitindo que suas donas ocultem os algoritmos e seus
vieses, o que prejudica a capacidade do setor público de supervisioná-las e complica
a realização de avaliações de riscos e impactos.
Ora, compreender plenamente uma área é
fundamental para regulamentá-la. A escassez de especialistas no setor público,
somada ao acesso restrito a informações, representa um obstáculo considerável
para uma regulação eficaz da IA.
O
fenômeno da “porta giratória” também é uma questão relevante. A migração de
profissionais entre os setores público e privado pode gerar conflitos de
interesse, com reguladores evitando confrontar empresas para preservar futuras
oportunidades de emprego. Há, ainda, o risco de captura regulatória, quando
empresas utilizam lobbies, presentes ou patrocínios para influenciar decisões
das agências. Esse perigo aumenta em um modelo centralizado que, ao concentrar
o poder em um único órgão, facilita a influência das empresas, além de aumentar
o impacto de eventuais falhas regulatórias.
Para
serem eficientes e atingirem seus objetivos, as entidades que vierem a se
dedicar a essa tarefa precisarão superar desafios como esses, algo que exigirá
investimentos públicos à altura da missão de auditar algoritmos para reduzir
riscos, garantir o respeito a princípios como privacidade e não discriminação e
promover uma IA mais transparente e segura.
Eduardo
Felipe Matias é autor dos livros A humanidade e suas
fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é professor convidado da Fundação Dom Cabral e sócio
da área empresarial de Elias,
Matias Advogados
Artigo originalmente publicado no Estadão/Broadcast em 17 de janeiro
de 2025.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE