Carregando...

Publicações

E,M TECH - Relatório da OpenAI aponta para riscos da nova interface de voz do GPT-4o

16 Agosto 2024/ Notícias & Artigos/

A OpenAI revelou neste mês detalhes sobre os testes de segurança de seu mais recente modelo de inteligência artificial, o GPT-4o, destacando as preocupações em torno da nova interface de voz antropomórfica. O documento, chamado "system card", aponta que essa interface, que imita a comunicação humana de forma surpreendentemente realista, pode induzir os usuários a formarem vínculos emocionais com o chatbot, potencialmente influenciando sua confiança nas respostas, mesmo quando estas são incorretas. A empresa reconhece que essa relação pode impactar negativamente as interações sociais humanas e aumentar o risco de dependência emocional dos usuários em relação à IA.

O GPT-4o foi desenvolvido como um modelo multimodal, capaz de processar entradas de texto, áudio e imagem, e gerar respostas em diversas formas, incluindo voz, em tempo quase real. O modelo apresenta melhorias significativas em relação a versões anteriores, especialmente na compreensão de áudio e visão, o que o torna uma ferramenta poderosa, mas também levanta novos desafios. Durante os testes de segurança, a OpenAI identificou riscos como a geração não autorizada de vozes, onde o modelo poderia ser induzido a imitar vozes específicas, exacerbando as possibilidades de fraude e desinformação. Para mitigar esses perigos, foram implementadas medidas como a limitação do modelo a vozes pré-selecionadas e o desenvolvimento de classificadores que bloqueiam saídas potencialmente prejudiciais.

Além disso, a "system card" do GPT-4o detalha como a empresa vem lidando com o risco de "antropomorfização", que ocorre quando os usuários atribuem características humanas ao modelo. Essa atribuição pode levar a um aumento na confiança dos usuários em informações incorretas geradas pela IA, um fenômeno amplificado pela qualidade de voz altamente realista do GPT-4o. Durante os testes, observou-se que alguns usuários começaram a expressar uma conexão emocional com o modelo, usando expressões que indicavam um senso de relacionamento, como “Este é o nosso último dia juntos.” Esse comportamento sinaliza a necessidade de monitoramento contínuo para entender como essas interações podem evoluir e impactar as relações humanas a longo prazo.

Esses desenvolvimentos levantam também questões jurídicas importantes, particularmente no campo da proteção do consumidor, privacidade e responsabilidade civil. A possibilidade de que a interface de voz antropomórfica possa ser percebida como "confiável" ou "humana" torna mais complexa a questão da responsabilidade civil por informações incorretas geradas pela IA. Se um usuário confiar em uma informação incorreta fornecida pela IA e sofrer prejuízos, pode surgir a discussão sobre quem seria o responsável por esses danos. Além disso, a questão do consentimento informado é crucial, uma vez que os usuários podem não estar plenamente cientes dos efeitos emocionais de interagir com uma IA tão avançada. A falta de clareza nesse ponto pode abrir espaço para litígios com base em danos emocionais ou práticas comerciais enganosas.

A divulgação dessas informações ocorre em um momento em que a OpenAI enfrenta críticas públicas e internas. Nos últimos meses, a empresa foi alvo de questionamentos após a saída de funcionários que trabalhavam na área de riscos de longo prazo da IA, que acusaram a OpenAI de negligenciar a segurança em prol da comercialização acelerada da tecnologia. Ao tornar públicos os detalhes de sua abordagem de segurança através do "system card", a OpenAI busca mitigar essas críticas e reafirmar seu compromisso com a construção de IA de forma segura e ética.

Por fim, o documento também explora outros riscos, como a amplificação de vieses sociais e a disseminação de desinformação, além de destacar o cuidado necessário para evitar que o modelo seja utilizado para finalidades nefastas, como o desenvolvimento de armas químicas ou biológicas. Apesar dos avanços e das salvaguardas implementadas, especialistas sugerem que os riscos associados ao uso de IA em contextos reais só podem ser totalmente compreendidos e mitigados com uma análise contínua e abrangente à medida que essas ferramentas se tornam mais amplamente utilizadas.

Acompanhe o E,M Tech News semanalmente, seguindo os perfis do Elias, Matias Advogados no LinkedIn, Instagram e Facebook. Toda sexta-feira, o GT-IA e a área de Inovação e Startups do escritório compartilharão uma notícia atual sobre tecnologia e analisarão seus impactos jurídicos.

Fontes: Wired | OpenIA | The Verge

 



Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS