Segurança
da IA em xeque, entre lucro e responsabilidade
Eventos
recentes mostram que a necessidade de se garantir a segurança dos sistemas de
inteligência artificial pode não estar recebendo a merecida atenção
Eduardo Felipe Matias
Assim
como o mar de desinformação e discurso de ódio que foi com o tempo se formando nas
redes sociais aumentou a pressão sobre as plataformas para que estas criassem
mecanismos de verificação que tornassem seus ambientes menos tóxicos, hoje as empresas que desenvolvem a inteligência
artificial (IA) estão sob crescente escrutínio para que suas ferramentas não saiam
de controle.
A resposta das plataformas à pressão
sofrida – dada, em grande parte, por interesse próprio, a fim de não afugentar
usuários e anunciantes – foi a formação de equipes de “Trust & Safety”,
destinadas a assegurar a confiança e a segurança de seus produtos. Essas
equipes, bem ou mal, tiveram um papel positivo na tentativa de se deter, ainda
que parcialmente, uma enxurrada de ações prejudiciais por parte de alguns
atores nas redes sociais.
Já as desenvolvedoras de IA têm dado
indícios de que ainda não internalizaram suficientemente a necessidade de
garantir que seus sistemas não terão efeitos nocivos.
Um dos eventos mais relevantes deste
ano nessa área foi a saída de dois executivos chave da OpenAI, criadora do
ChatGPT. Ilya Sutskever, cofundador e cientista chefe da empresa, e Jan Leike
lideravam a equipe que tinha a missão de promover o chamado “superalinhamento”.
Esse era um esforço para que, se a meta de gerar uma superinteligência
artificial viesse a ser atingida, essa tecnologia permaneceria alinhada com os
objetivos de seus criadores e não agiria de maneira imprevisível, podendo prejudicar
a humanidade.
Uma vez que a própria OpenAI acredita
que a super IA pode surgir nesta década, e a descreve como a tecnologia mais
impactante que já se terá inventado, com o potencial de resolver muitos dos
mais importantes desafios do mundo atual, mas também de causar grandes danos, a
saída de Sutskever e Leike da empresa não parece um bom sinal.
Outro acontecimento marcante foi a recente
publicação, por antigos e atuais funcionários de empresas líderes em IA,
incluindo OpenAI e Google DeepMind, de uma carta aberta exigindo o direito de
alertar sobre ameaças identificadas nas IAs avançadas dessas empresas, apelando
para que estas permitam que eles expressem suas preocupações sobre essas
tecnologias sem correrem o risco de sofrer represálias.
Segundo eles, as empresas de IA
possuem informações substanciais sobre as capacidades e limitações de seus
sistemas, os diferentes níveis de risco e tipos de danos que estes podem
causar, e a adequação de suas medidas de proteção. Porém, essas informações não
são públicas e, atualmente, essas empresas têm pouca obrigação de compartilhá-las
com os governos e nenhuma com a sociedade civil. E os signatários da carta não confiam
que elas irão fazê-lo voluntariamente.
Na carta, eles ressaltam a importância
de se abrir canais de comunicação anônima com os conselhos das empresas, para assegurar
que sejam ouvidos internamente, e de se apoiar uma cultura crítica aberta, que permita
atuar junto a reguladores e organizações independentes de especialistas para avaliar
os riscos associados à IA, e avisar o público, se preciso, para que todos
estejam cientes dos perigos existentes.
A carta defende que, sem uma
supervisão governamental eficaz, os funcionários atuais e antigos dessas
empresas estão entre os poucos capazes de responsabilizá-las publicamente. No
entanto, lembra que a ação deles é restringida por amplos acordos de
confidencialidade, que os impedem de manifestar suas preocupações, exceto para
as próprias empresas, que podem não estar reagindo da forma adequada.
Essa reclamação pôs em questão a
validade das cláusulas encontradas nos documentos de desligamento dos
funcionários da OpenAI, que impunham uma severa punição àqueles que viessem a
quebrar o silêncio contratualmente imposto: a perda de direitos de aquisição de
participação acionária acumulados durante seu período na empresa. Assim,
aqueles que, por quererem manter sua liberdade de criticar a empresa, se recusassem
a assinar esses documentos, sacrificariam uma soma potencialmente significativa
de dinheiro. Após a repercussão da carta, a OpenAI reconheceu que tal cláusula
não deveria existir e afirmou que a redação desses documentos estaria em
processo de revisão.
A discussão também vem ganhando corpo
entre os legisladores, que talvez estejam reconsiderando a decisão tomada no
passado de não interferir no desenvolvimento da internet. A falta de regulação
inicial pode ter contribuído para a situação atual, onde as redes sociais
muitas vezes parecem um território sem lei, facilitando a disseminação de fake
news e outros problemas que hoje se busca combater. Os enormes benefícios
que a IA pode trazer devem vir acompanhados de salvaguardas que garantam que
podemos confiar que essa tecnologia será segura. Para isso, talvez não possamos
depender apenas das empresas que, nem sempre, conseguirão equilibrar essa
necessidade com a busca do lucro.
Eduardo
Felipe Matias é autor dos livros A humanidade e suas
fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é sócio da área empresarial de Elias, Matias Advogados
Artigo
originalmente publicado pelo Broadcast do Estadão/Agência Estado em 9 de julho
de 2024.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE