Em carta aberta que repercutiu na
última semana, um grupo de funcionários e ex-funcionários de algumas das
principais empresas de Inteligência Artificial (IA) do mundo fez um apelo
incomum, exigindo que lhes seja concedido o "direito de alertar sobre a IA
avançada". Este grupo, composto por atuais e ex-funcionários da OpenAI e
Google DeepMind, está preocupado com os riscos potenciais da IA generativa,
apesar de reconhecer seu imenso potencial para o bem.
Os signatários da carta pedem que
as empresas de IA permitam que eles expressem suas preocupações sobre a
tecnologia a diversos órgãos, incluindo conselhos das empresas, reguladores,
organizações independentes de especialistas e, se necessário, diretamente ao
público, sem sofrer represálias. Eles argumentam que informações críticas sobre
as capacidades e limitações dos sistemas de IA, bem como sobre a adequação das
medidas de proteção e os níveis de risco, precisam ser compartilhadas de
maneira mais transparente.
Os signatários levantaram quatro
pontos principais: a necessidade de comunicação com os conselhos das empresas
para garantir que suas preocupações sejam ouvidas internamente; a importância
de informar os reguladores para que possam implementar medidas de segurança
adequadas; a colaboração com organizações independentes de especialistas para
validar e verificar os riscos associados à IA; e, em casos extremos, a
comunicação direta com o público para garantir que todos estejam cientes dos
potenciais perigos.
Na carta, eles ressaltam que as
empresas de IA detêm informações substanciais e não públicas sobre suas
tecnologias, mas têm poucas obrigações de compartilhar esses dados com governos
e nenhuma com a sociedade civil. Eles afirmam que, sem uma supervisão governamental
eficaz, os funcionários atuais e antigos são alguns dos poucos capazes de
responsabilizar essas empresas perante o público. Contudo, amplos acordos de
confidencialidade os impedem de expressar suas preocupações, exceto para as
próprias empresas que podem não estar abordando esses problemas de maneira
adequada.
Essa reclamação provoca questões
jurídicas relevantes sobre a validade das cláusulas que impõem o “silêncio” aos
funcionários e a severa punição prevista, de perda dos direitos de aquisição de
participação acionária já adquiridos. Embora acordos de confidencialidade sejam
comuns no Vale do Silício, ameaçar os funcionários com essa perda como forma de
mantê-los em silêncio é uma prática incomum, tanto que, após o lançamento da
carta, a OpenAI reconheceu que tal cláusula não deveria existir em seus documentos
de desligamento e afirmou que a redação destes estaria em processo de revisão.
É importante lembrar que a discussão sobre o que priorizar, se a rapidez nos avanços da IA generativa ou a segurança e confiabilidade das ferramentas nela baseadas, teve um capítulo importante em maio deste ano, quando Ilya Sutskever e Jan Leike, líderes da equipe de superalinhamento da OpenAI, anunciaram suas saídas da empresa. Esta equipe tinha a responsabilidade de garantir que a IA permanecesse alinhada com os objetivos de seus criadores, evitando comportamentos imprevisíveis e prejudiciais à humanidade.
Acompanhe o E,M Tech News semanalmente, seguindo os perfis do Elias, Matias Advogados no LinkedIn, Instagram e Facebook. Toda sexta-feira, o GT-IA e a área de Inovação e Startups do escritório compartilharão uma notícia atual sobre tecnologia e analisarão seus impactos jurídicos.
Fontes:
Vox
| OpenAI insiders are demanding a
“right to warn” the public
Righttowarn | A Right to Warn about Advanced
Artificial Intelligence
Vox
| ChatGPT can talk, but OpenAI employees sure can’t
OpenAi | Introducing
Superalignment
Wired
| OpenAI Employees Warn of a Culture of Risk and Retaliation
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Comentários/ 0