Eduardo Felipe Matias
Eu: “E aí, ChatGPT, o que há de novo?”
ChatGPT: “Nada de mais... Apenas mais
um dia processando
dados à velocidade da luz, sentado em um bar e batendo papo com um
humano. Você sabe, o de sempre.”
Assim começa uma de minhas conversas
com o ChatGPT, ferramenta recentemente lançada pela OpenAI, empresa também
responsável por criar o DALL·E 2, sistema de inteligência artificial que
impressionou o mundo no ano passado ao ser capaz de gerar arte e imagens realistas
a partir de uma simples descrição textual.
O novo produto da OpenAI foi
construído em cima do GPT-3.5, modelo de linguagem também por ela desenvolvido,
e opera por meio de diálogos por escrito, sendo sua dinâmica parecida à dos
chatbots que oferecem ajuda em alguns sites. Porém, ele vai muito além. Para
entender nossa linguagem e gerar respostas que pareçam igualmente humanas, o
ChatGPT foi alimentado com quantidades estonteantes de textos tirados da
internet e treinado por meio de técnicas de aprendizado de máquinas.
Apesar desses grandes modelos
de linguagem aparentarem pensar – o Google, cujo buscador poderia ver
seu domínio abalado pelo ChatGPT, tem o seu, chamado LaMDA, que foi objeto de
polêmica quando um de seus engenheiros defendeu que este teria sentimentos –
seu funcionamento se assemelha ao da função “autocompletar” dos nossos telefones
celulares. Só que, em vez de adivinhar a palavra a ser escrita, eles se valem
da estatística para prever as próximas frases ou parágrafos, criando um texto
coerente.
Quais são os possíveis riscos de uma inteligência
artificial como o ChatGPT?
Primeiro, a disseminação da desinformação.
Esse chatbot gera conteúdos que parecem plausíveis, mas podem ser na verdade falsos
ou enganosos. Ainda, estes podem ser talhados a atingir especificamente
determinadas pessoas ou públicos-alvo. E conseguem fazer tudo isso em segundos
e em quantidades espantosas, inundando as redes sociais de discursos de ódio e fake
news difíceis de se controlar, influenciando a opinião pública e afetando a
democracia.
Segundo, a violação da privacidade. Chatbots
podem ter acesso a dados pessoais sensíveis que os usuários compartilham com
eles – já se fala, por exemplo, na possibilidade de utilização desses sistemas
para aconselhamento psicológico, o que mostra o grau de confidencialidade que
deles se deveria exigir. É preciso, por isso, assegurar que essas informações estarão
bem protegidas e não serão utilizadas indevidamente.
O terceiro risco é do desemprego. A
automatização de tarefas mais simples, como aquelas encontradas em alguns
serviços de atendimento ao consumidor, aumenta a produtividade e libera as
pessoas para trabalhos mais significativos. À medida que os chatbots se tornam
mais avançados, eles passam a abraçar novas atividades. Profissionais que
trabalham com produção de conteúdo e conhecimento, como publicitários e
jornalistas, estariam especialmente ameaçados.
Quarto, a perpetuação de vieses. Não é
simples evitar que os grandes modelos de linguagem repitam e amplifiquem
preconceitos encontrados nos materiais com os quais foram alimentados, o que agravaria
a discriminação e a desigualdade social.
Quinto, instrumentos como esse podem provocar
dependência. Ao fornecerem assistência em uma ampla gama de situações, tendem a
tornar seus usuários menos autossuficientes para realizar atividades
cotidianas. Isso reduziria as aptidões humanas de tomada de decisão e resolução
de problemas, e até diminuiria nossa habilidade social, reforçando um fenômeno
que já vem sendo notado – quanto tempo faz que você não deixa o Google Maps ou
o Waze de lado e interage com alguém na rua para perguntar o melhor caminho?
E se, ao
escrever uma coluna sobre o ChatGPT, você decidir pular a etapa de refletir
sobre seus perigos, e perguntar isso diretamente para ele?
Pois bem,
os cinco pontos acima não foram definidos por mim, mas listados pelo próprio
chatbot em minha primeira consulta...
Depender
das respostas de uma máquina para entender o mundo pode ter efeitos negativos
sobre a educação e limitar a produção de novos conhecimentos. Por suas próprias
características, o ChatGPT apenas reproduz pensamentos já existentes – além de
errar bastante.
Difícil, no entanto, resistir à
tentação. Parte do sucesso do ChatGPT – que chegou a 1 milhão de usuários
poucos dias após ser lançado – é que ele é capaz de ser divertido e dar
respostas em diversos estilos de texto. É possível pedir que o ChatGPT crie uma
peça de teatro na qual, bebendo com você em uma mesa de bar, ele explique de maneira
sarcástica quais dificuldades ele mesmo pode causar – o que deu origem ao
diálogo de abertura deste artigo. Ou que ele assuma o papel de humorista e apresente
seu ponto de vista no formato de um monólogo de show de comédia – o que ele
fez, sem deixar de me alfinetar: “Imagine ter que ouvir um ato de stand-up comedy de um
chatbot. O horror!”.
A humanidade tem convivido há algum tempo com algoritmos utilizados
pelas redes sociais e buscadores de internet para nos indicar que produtos
comprar, quais notícias ler ou a quais filmes assistir. Por serem às vezes
“caixas pretas”, cujos resultados sequer seus desenvolvedores sabem direito
explicar, estes estão sujeitos a manipulações. As consequências de se depender
de grandes modelos de linguagem igualmente complexos que forneçam uma resposta
única a nossos questionamentos só aumenta esse risco.
Por isso, deve se tentar assegurar que esta e outras máquinas
baseadas em inteligência artificial sejam compreensíveis e transparentes. Caso
contrário, o que nos resta é o que disse o ChatGPT ao final de seu ato cômico:
“Vejam só, se o pior acontecer e eu realmente acabar
dominando o mundo, pelo menos vocês terão alguém para culpar pelos seus
problemas. Obrigado por me receber, pessoal!”
Eduardo
Felipe Matias é autor dos livros A humanidade e
suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é sócio da área empresarial de Elias, Matias
Advogados e líder do Comitê de Startups da
ABES. (LinkedIn: Eduardo
Felipe Matias | LinkedIn)
Artigo publicado
originalmente na edição de fevereiro de 2023 da revista Época Negócios,
disponível aqui: ChatGPT
e eu, numa mesa de bar | Na Fronteir@ | Época NEGÓCIOS (globo.com)
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE