Recentemente, o Google enfrentou uma onda de críticas após sua
nova funcionalidade de busca com IA cometer erros graves, como aconselhar
pessoas a comer pedras e colocar cola na pizza. Esses incidentes destacam as
limitações fundamentais e os riscos da comercialização apressada da IA
generativa. A funcionalidade, chamada de Visões Gerais de IA, utiliza o modelo
de linguagem Gemini para gerar respostas escritas, resumindo informações
encontradas online. No entanto, a fluência textual dos modelos de linguagem
pode mascarar inverdades e erros, tornando a tecnologia perigosa quando as
fontes online são contraditórias ou inadequadas.
A admissão de falhas por parte do Google, feita por Liz Reid,
vice-presidente e chefe de busca, revelou que a IA cometeu erros ao interpretar
consultas ou nuances da linguagem na web. Embora a empresa tenha testado
extensivamente a funcionalidade antes do lançamento, os erros evidenciam a
necessidade de mecanismos rigorosos de controle e validação. A dependência de
conteúdo gerado por usuários, levantou questões significativas sobre a precisão
e a confiabilidade das respostas fornecidas pela IA.
Os desafios enfrentados pelo Google também têm implicações
jurídicas importantes, especialmente em relação à Seção 230 do Communications
Decency Act dos EUA. Esta legislação norte-americana, que foi fundamental na
origem e para o crescimento da internet, protege plataformas online de
responsabilidade pelo conteúdo postado por terceiros. No entanto, quando
plataformas integram IA generativa que produz conteúdo baseado em entradas de
usuários, a linha entre proteção e responsabilidade pode se tornar tênue. A confiança
excessiva em conteúdo gerado por essas ferramentas sem mecanismos adequados de
filtragem e verificação pode expor as desenvolvedoras a riscos legais e de
reputação.
Outras ferramentas baseadas em IA generativa, como o ChatGPT da
OpenAI e outras baseadas em grandes modelos de linguagem, também estão sujeitas
a cometer esses erros. A confiança com que essas IA podem apresentar
informações errôneas é uma preocupação universal, sublinhando a necessidade de
desenvolvimento e implementação cuidadosas dessas tecnologias. Especialistas
como Richard Socher e consultores de busca como Barry Schwartz e Lily Ray
apontam que, embora a IA possa dar respostas rápidas, evitar erros graves
requer muito trabalho e cuidado. A falta de uma compreensão real do mundo e a
presença de informações não confiáveis na web são desafios significativos para
esses modelos “de fronteira”.
Em resposta aos erros, o Google implementou melhorias, incluindo a detecção de consultas sem sentido, a limitação do uso de conteúdo gerado por usuários para evitar conselhos enganosos e restrições adicionais para consultas sobre saúde e notícias. No entanto, esses ajustes destacam a complexidade de garantir que a IA funcione de maneira confiável e segura. Em resumo, o caso do Google ilustra tanto o potencial quanto os perigos da IA generativa. As desenvolvedoras precisam ser extremamente cautelosas, implementando mecanismos rigorosos de controle e validação para evitar desinformação e proteger a integridade de seus produtos e serviços. Além disso, é crucial que as empresas considerem as implicações legais para navegar com sucesso no complexo panorama da IA e da responsabilidade digital.
Acompanhe o E,M Tech
News semanalmente, seguindo os perfis do Elias, Matias Advogados no LinkedIn, Instagram e Facebook. Toda sexta-feira, o GT-IA e a área de Inovação e
Startups do escritório compartilharão uma notícia atual sobre tecnologia e
analisarão seus impactos jurídicos.
Fontes:
Wired
| Googles
AI Overviews Will Always Be Broken. Thats How AI Works
G1
| Cobras
são mamíferos e gatos na lua: Google é criticado após erros em respostas
geradas por IA
TC
| Google
admits its AI Overviews need work, but we’re all helping it beta test
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Comentários/ 0