Eduardo
Felipe Matias
É possível tornar os sistemas
algorítmicos explicáveis e, embora isso possa ter um custo, este deve ser
superado pelos benefícios que uma IA mais compreensível trariam para a
sociedade
Em 1799, soldados da expedição francesa ao Egito liderada
por Napoleão Bonaparte encontraram um fragmento de monolito que viria a ficar
mundialmente conhecido como Pedra de Roseta. Datada de 196 A.C., esta continha inscrições
em três tipos de escrita diferentes: hieroglífico, demótico e grego antigo. Este
último, bem conhecido na época, serviu de chave para que estudiosos como Jean-François
Champollion desvendassem os demais textos, já que seu conteúdo era semelhante:
um decreto de um conselho de sacerdotes estabelecendo o culto ao jovem faraó
Ptolemeu V, no primeiro aniversário de sua coroação.
Até então, os hieróglifos egípcios, encontrados em templos,
túmulos e papiros – que, como na deliberação decodificada, podiam conter regras
relevantes para quem vivia naquela sociedade – eram um enigma.
Hoje, o mistério é como as decisões são tomadas pela inteligência
artificial (IA). Na última coluna, vimos como estamos sujeitos aos desígnios de
algoritmos cujo funcionamento, muitas vezes, desconhecemos, e os riscos decorrentes.
A preocupação com o crescimento desenfreado de uma IA inerentemente imprevisível,
incompreensível e, por isso, incontrolável tem feito pesquisadores se dedicarem
à busca de uma Pedra de Roseta para essa tecnologia, que a torne mais
interpretável e explicável.
Há
uma diferença entre “interpretabilidade” e “explicabilidade” em IA, embora
esses termos às vezes se utilizem indistintamente. A primeira se refere ao fato
de um modelo ser intrinsecamente entendível para os seres humanos. Alguns
sistemas são transparentes e interpretáveis “por design”. É uma característica
passiva. A segunda é a possibilidade de, ativamente e se preciso por meio de um
módulo separado, fornecer explanações – visuais, textuais ou por meio de
exemplos – sobre o funcionamento de determinado sistema mesmo que este, em si, permaneça
uma caixa-preta.
O campo de estudos que se propõe a desenvolver esse tipo de
explanação se denomina “IA
Explicável” (eXplainable artificial intelligence, ou XAI na sigla em
inglês). Para atingir seus objetivos, a XAI procura desenvolver uma série de
técnicas de aprendizado de máquina com função semelhante à que o monolito
egípcio teve para Champollion, propiciando às pessoas acesso a uma linguagem
que, sem essas ferramentas, elas naturalmente não entenderiam.
Uma
boa explicação deve esclarecer a causalidade entre a resposta obtida e as
variáveis consideradas, demonstrando quais fatores foram determinantes para uma
decisão, por que dois casos aparentemente
semelhantes produziram conclusões diferentes, e como uma mudança em um
dos inputs poderia melhorar o resultado obtido. Ajuda a corrigir erros e
garante previsões mais consistentes, aumentando nossa confiança nos algoritmos.
Colabora para que os sistemas sejam mais seguros, evitando que façam
recomendações perigosas ou adotem comportamentos nocivos. Permite, por fim,
identificar e eliminar vieses, tornando a IA mais justa e imparcial.
Princípios
como esses são objeto de outro campo emergente de pesquisa, a chamada “IA
Responsável”, que se interessa também na possibilidade de se atribuir
responsabilidade (“accountability) a esses modelos – ou a seus criadores
e operadores –, ideia alinhada a alguns movimentos legislativos recentes, como a
Regulação Geral de Proteção de Dados (GDPR, na sigla em inglês) da União
Europeia, que prevê que processos decisórios automatizados mantenham sempre um
humano “no circuito”, pronto para intervir se estes saírem dos trilhos.
Exigir
explicações da IA pode, no entanto, levar a um dilema. Simplificar
modelos a fim de que passem a ser mais acessíveis tende a piorar seu desempenho,
produzindo soluções subótimas. Além disso, explicações têm um custo. Criar sistemas mais interpretáveis
pode demandar o desvio de recursos financeiros e esforços de engenharia que
seriam dedicados a fazer a IA progredir – além de, possivelmente, criar um ônus
com o qual algumas startups não conseguiriam arcar, favorecendo as big techs e diminuindo
ainda mais a concorrência no setor. E forçar as empresas em geral a revelarem
seus algoritmos pode ser contraproducente, já que a não proteção de seus
direitos de propriedade intelectual as desestimularia a investir em IA. Tudo
isso retardaria a evolução de tecnologias com enorme potencial de aumentar o
bem-estar da sociedade.
Assim, o custo e a utilidade das explicações devem ser
sopesados, e a opção de exigi-las dependeria dos riscos e do benefício social por
elas gerado. Um modelo com alto grau de acurácia que se aplique a uma área sem grande
impacto sobre a vida das pessoas talvez prescinda de maiores explanações. Mas talvez
estejamos dispostos a aceitar que sistemas que determinam como empréstimos serão
concedidos ou prisões serão efetuadas sacrifiquem um pouco de sua eficiência e
sejam mais custosos, em troca da segurança de que não tomarão decisões
enviesadas.
Por outro lado, entender esses sistemas possibilita que as
causas e correlações por eles estabelecidas em uma aplicação, por vezes
inalcançáveis para a mente humana, venham a ser assimiladas e extrapoladas para
outros domínios, permitindo que se achem novos padrões e estratégias que podem
levar a avanços na Ciência – além do que IAs compreensíveis e responsáveis
tendem a ser mais bem aceitas, o que contribui para a adoção generalizada
dessas tecnologias e, portanto, das soluções por elas encontradas,
multiplicando seus efeitos.
Desvendar os hieróglifos egípcios nos fez compreender melhor aquela civilização, abrindo as portas a todo um universo de conhecimento até então inacessível. Decifrar a IA pode não apenas evitar que ela nos devore, mas também ajudar a iluminar nosso caminho rumo a novas descobertas.
Eduardo Felipe
Matias é autor dos livros A humanidade e
suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é sócio da área empresarial de Elias, Matias Advogados
Artigo originalmente publicado em 15 de setembro de 2023 da revista Época Negócios, na coluna Na Fronteir@. Acesse aqui: : A
busca por uma Pedra de Roseta que torne a IA mais interpretável e explicável
| Na Fronteir@ | Época NEGÓCIOS (globo.com)
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE