Carregando...

Publicações

E,M TECH NEWS - Ex-funcionários de empresas líderes em IA exigem direito de alertar público sobre riscos

14 Junho 2024/ Notícias & Artigos/ INOVAÇÃO E STARTUPS

Em carta aberta que repercutiu na última semana, um grupo de funcionários e ex-funcionários de algumas das principais empresas de Inteligência Artificial (IA) do mundo fez um apelo incomum, exigindo que lhes seja concedido o "direito de alertar sobre a IA avançada". Este grupo, composto por atuais e ex-funcionários da OpenAI e Google DeepMind, está preocupado com os riscos potenciais da IA generativa, apesar de reconhecer seu imenso potencial para o bem.

Os signatários da carta pedem que as empresas de IA permitam que eles expressem suas preocupações sobre a tecnologia a diversos órgãos, incluindo conselhos das empresas, reguladores, organizações independentes de especialistas e, se necessário, diretamente ao público, sem sofrer represálias. Eles argumentam que informações críticas sobre as capacidades e limitações dos sistemas de IA, bem como sobre a adequação das medidas de proteção e os níveis de risco, precisam ser compartilhadas de maneira mais transparente.

Os signatários levantaram quatro pontos principais: a necessidade de comunicação com os conselhos das empresas para garantir que suas preocupações sejam ouvidas internamente; a importância de informar os reguladores para que possam implementar medidas de segurança adequadas; a colaboração com organizações independentes de especialistas para validar e verificar os riscos associados à IA; e, em casos extremos, a comunicação direta com o público para garantir que todos estejam cientes dos potenciais perigos.

Na carta, eles ressaltam que as empresas de IA detêm informações substanciais e não públicas sobre suas tecnologias, mas têm poucas obrigações de compartilhar esses dados com governos e nenhuma com a sociedade civil. Eles afirmam que, sem uma supervisão governamental eficaz, os funcionários atuais e antigos são alguns dos poucos capazes de responsabilizar essas empresas perante o público. Contudo, amplos acordos de confidencialidade os impedem de expressar suas preocupações, exceto para as próprias empresas que podem não estar abordando esses problemas de maneira adequada.

Essa reclamação provoca questões jurídicas relevantes sobre a validade das cláusulas que impõem o “silêncio” aos funcionários e a severa punição prevista, de perda dos direitos de aquisição de participação acionária já adquiridos. Embora acordos de confidencialidade sejam comuns no Vale do Silício, ameaçar os funcionários com essa perda como forma de mantê-los em silêncio é uma prática incomum, tanto que, após o lançamento da carta, a OpenAI reconheceu que tal cláusula não deveria existir em seus documentos de desligamento e afirmou que a redação destes estaria em processo de revisão.

É importante lembrar que a discussão sobre o que priorizar, se a rapidez nos avanços da IA generativa ou a segurança e confiabilidade das ferramentas nela baseadas, teve um capítulo importante em maio deste ano, quando Ilya Sutskever e Jan Leike, líderes da equipe de superalinhamento da OpenAI, anunciaram suas saídas da empresa. Esta equipe tinha a responsabilidade de garantir que a IA permanecesse alinhada com os objetivos de seus criadores, evitando comportamentos imprevisíveis e prejudiciais à humanidade.


Acompanhe o E,M Tech News semanalmente, seguindo os perfis do Elias, Matias Advogados no LinkedIn, Instagram e Facebook. Toda sexta-feira, o GT-IA e a área de Inovação e Startups do escritório compartilharão uma notícia atual sobre tecnologia e analisarão seus impactos jurídicos.

 

Fontes:

Vox | OpenAI insiders are demanding a “right to warn” the public

Righttowarn | A Right to Warn about Advanced Artificial Intelligence

Vox | ChatGPT can talk, but OpenAI employees sure can’t

OpenAi | Introducing Superalignment

Wired | OpenAI Employees Warn of a Culture of Risk and Retaliation

0 0


Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS