Carregando...

Publicações

EM SUA COLUNA NO ESTADÃO/BROADCAST, EDUARDO FELIPE MATIAS ANALISA A QUESTÃO DA SEGURANÇA DOS SISTEMAS DE IA

09 Julho 2024/ Notícias & Artigos/

Segurança da IA em xeque, entre lucro e responsabilidade

Eventos recentes mostram que a necessidade de se garantir a segurança dos sistemas de inteligência artificial pode não estar recebendo a merecida atenção

Eduardo Felipe Matias


Assim como o mar de desinformação e discurso de ódio que foi com o tempo se formando nas redes sociais aumentou a pressão sobre as plataformas para que estas criassem mecanismos de verificação que tornassem seus ambientes menos tóxicos, hoje as empresas que desenvolvem a inteligência artificial (IA) estão sob crescente escrutínio para que suas ferramentas não saiam de controle.

A resposta das plataformas à pressão sofrida – dada, em grande parte, por interesse próprio, a fim de não afugentar usuários e anunciantes – foi a formação de equipes de “Trust & Safety”, destinadas a assegurar a confiança e a segurança de seus produtos. Essas equipes, bem ou mal, tiveram um papel positivo na tentativa de se deter, ainda que parcialmente, uma enxurrada de ações prejudiciais por parte de alguns atores nas redes sociais.

Já as desenvolvedoras de IA têm dado indícios de que ainda não internalizaram suficientemente a necessidade de garantir que seus sistemas não terão efeitos nocivos.

Um dos eventos mais relevantes deste ano nessa área foi a saída de dois executivos chave da OpenAI, criadora do ChatGPT. Ilya Sutskever, cofundador e cientista chefe da empresa, e Jan Leike lideravam a equipe que tinha a missão de promover o chamado “superalinhamento”. Esse era um esforço para que, se a meta de gerar uma superinteligência artificial viesse a ser atingida, essa tecnologia permaneceria alinhada com os objetivos de seus criadores e não agiria de maneira imprevisível, podendo prejudicar a humanidade.

Uma vez que a própria OpenAI acredita que a super IA pode surgir nesta década, e a descreve como a tecnologia mais impactante que já se terá inventado, com o potencial de resolver muitos dos mais importantes desafios do mundo atual, mas também de causar grandes danos, a saída de Sutskever e Leike da empresa não parece um bom sinal.

Outro acontecimento marcante foi a recente publicação, por antigos e atuais funcionários de empresas líderes em IA, incluindo OpenAI e Google DeepMind, de uma carta aberta exigindo o direito de alertar sobre ameaças identificadas nas IAs avançadas dessas empresas, apelando para que estas permitam que eles expressem suas preocupações sobre essas tecnologias sem correrem o risco de sofrer represálias.

Segundo eles, as empresas de IA possuem informações substanciais sobre as capacidades e limitações de seus sistemas, os diferentes níveis de risco e tipos de danos que estes podem causar, e a adequação de suas medidas de proteção. Porém, essas informações não são públicas e, atualmente, essas empresas têm pouca obrigação de compartilhá-las com os governos e nenhuma com a sociedade civil. E os signatários da carta não confiam que elas irão fazê-lo voluntariamente.

Na carta, eles ressaltam a importância de se abrir canais de comunicação anônima com os conselhos das empresas, para assegurar que sejam ouvidos internamente, e de se apoiar uma cultura crítica aberta, que permita atuar junto a reguladores e organizações independentes de especialistas para avaliar os riscos associados à IA, e avisar o público, se preciso, para que todos estejam cientes dos perigos existentes.

A carta defende que, sem uma supervisão governamental eficaz, os funcionários atuais e antigos dessas empresas estão entre os poucos capazes de responsabilizá-las publicamente. No entanto, lembra que a ação deles é restringida por amplos acordos de confidencialidade, que os impedem de manifestar suas preocupações, exceto para as próprias empresas, que podem não estar reagindo da forma adequada.

Essa reclamação pôs em questão a validade das cláusulas encontradas nos documentos de desligamento dos funcionários da OpenAI, que impunham uma severa punição àqueles que viessem a quebrar o silêncio contratualmente imposto: a perda de direitos de aquisição de participação acionária acumulados durante seu período na empresa. Assim, aqueles que, por quererem manter sua liberdade de criticar a empresa, se recusassem a assinar esses documentos, sacrificariam uma soma potencialmente significativa de dinheiro. Após a repercussão da carta, a OpenAI reconheceu que tal cláusula não deveria existir e afirmou que a redação desses documentos estaria em processo de revisão.

A discussão também vem ganhando corpo entre os legisladores, que talvez estejam reconsiderando a decisão tomada no passado de não interferir no desenvolvimento da internet. A falta de regulação inicial pode ter contribuído para a situação atual, onde as redes sociais muitas vezes parecem um território sem lei, facilitando a disseminação de fake news e outros problemas que hoje se busca combater. Os enormes benefícios que a IA pode trazer devem vir acompanhados de salvaguardas que garantam que podemos confiar que essa tecnologia será segura. Para isso, talvez não possamos depender apenas das empresas que, nem sempre, conseguirão equilibrar essa necessidade com a busca do lucro.

 

Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, e é sócio da área empresarial de Elias, Matias Advogados

 

Artigo originalmente publicado pelo Broadcast do Estadão/Agência Estado em 9 de julho de 2024.



Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS