22 de setembro de 2024
Compartilhe:

A OpenAI, uma das líderes no desenvolvimento de inteligência artificial (IA), está enfrentando críticas internas por supostamente ter apressado os testes de segurança de seu novo modelo GPT-4 Omni para cumprir um prazo de lançamento. Funcionários da OpenAI levantaram preocupações sobre a prioridade da empresa em relação à segurança pública e a eficácia das políticas de autorregulação no setor de tecnologia.

Em 2023, a OpenAI se comprometeu com a administração do presidente americano Joe Biden a testar rigorosamente novas versões de IA para evitar danos potenciais. Essa promessa incluía impedir que a IA ajudasse na criação de armas biológicas ou facilitasse ataques cibernéticos.

Pressão interna e protocolos de segurança

Membros da equipe de segurança da OpenAI relataram ao jornal americano The Washington Post sentir-se pressionados a apressar os novos protocolos de teste do modelo GPT-4 Omni para cumprir uma data de lançamento pré-determinada em maio.

Segundo fontes anônimas do The Post dentro da empresa, o processo de teste foi significativamente encurtado, gerando preocupações entre os funcionários sobre a integridade e confiabilidade das avaliações de segurança.

Antes da conclusão dos testes de segurança, a OpenAI organizou um evento comemorativo para o lançamento do GPT-4 Omni, destacando uma mudança nas prioridades da empresa. Essa celebração prematura foi vista como um fracasso no compromisso da empresa com os protocolos de segurança.

Leia mais:

  • O que é a Sora, a inteligência artificial da OpenAI que cria vídeos?
  • ChatGPT: como assinar o plano pago da inteligência artificial da OpenAI
  • Q*: o que sabemos sobre a superinteligência artificial da OpenAI?

Mudança na cultura da empresa

O incidente reflete uma mudança cultural mais ampla na OpenAI, onde os interesses comerciais parecem estar predominando sobre a segurança pública. Essa mudança é notável, dado que a OpenAI teve origem como uma organização sem fins lucrativos.

A situação levanta questões sobre a eficácia da autorregulação na indústria de tecnologia. Andrew Strait, diretor associado do Instituto Ada Lovelace, destacou ao The Post os riscos de permitir que empresas estabeleçam seus próprios padrões de segurança, apontando a falta de garantias de que as políticas internas estão sendo seguidas corretamente.

Posição da administração Biden e compromissos voluntários

Joe Biden, presidente dos EUA. (Imagem: Shutterstock.com)

O presidente Joe Biden pediu novas legislações para abordar os riscos da IA. A porta-voz da Casa Branca, Robyn Patterson, reiterou a expectativa da administração de que as empresas de tecnologia cumpram os compromissos voluntários de testes de segurança independentes e transparência pública.

O presidente Biden foi claro com as empresas de tecnologia sobre a importância de garantir que seus produtos sejam seguros, seguros e confiáveis antes de lançá-los ao público. As principais empresas fizeram compromissos voluntários relacionados aos testes independentes de segurança e à transparência pública, os quais ele espera que cumpram.

Robyn Patterson, porta-voz da Casa Branca ao The Washington Post

A OpenAI, junto com empresas como Anthropic, Nvidia, Palantir, Google DeepMind e Meta, fez compromissos voluntários com a Casa Branca para proteger os modelos de IA. Esses compromissos são um precursor da ordem executiva de IA emitida em outubro, que visa garantir a segurança pública contra abusos da IA generativa.

Insatisfação dos funcionários da OpenAI

O novo modelo, GPT-4 Omni, deveria ser a primeira aplicação significativa do quadro de preparação da OpenAI, que inclui avaliações por especialistas humanos e auditores terceirizados. Apesar disso, as avaliações foram condensadas em uma única semana, o que os funcionários consideraram insuficiente para testes de segurança abrangentes.

A insatisfação entre os funcionários levou a uma carta aberta exigindo que as empresas de IA liberem os trabalhadores dos acordos de confidencialidade, permitindo que eles relatem riscos de segurança aos reguladores e ao público.

Notavelmente, os ex-executivos da OpenAI, Jan Leike e William Saunders, demitiram-se, citando preocupações com processos de segurança apressados e a priorização de lançamentos de produtos sobre a segurança.

Resposta da OpenAI

OpenAI respondeu aos questionamentos levantados por seus funcionários. (Imagem: TY Lim / Shutterstock.com)

Um representante da OpenAI reconheceu que o processo de teste foi “apertado”, mas o considerou suficiente.

Em resposta às críticas, a porta-voz da OpenAI, Lindsey Held, afirmou em um comunicado ao Washington Post que a empresa “não cortou atalhos em nosso processo de segurança, embora reconheçamos que o lançamento tenha sido estressante para nossas equipes”.

Para cumprir os compromissos com a Casa Branca, ela acrescentou que a empresa “realizou extensos testes internos e externos” e reteve algumas funcionalidades multimídia “inicialmente para continuar nosso trabalho de segurança”.

A OpenAI anunciou que sua iniciativa de preparação visa trazer rigor científico ao estudo de riscos catastróficos de IA, definidos como incidentes que causam danos econômicos significativos ou danos severos. Apesar desses esforços, alguns pesquisadores de IA argumentam que os riscos existenciais são especulativos e desviam a atenção de danos mais imediatos.

A OpenAI lançou duas novas equipes de segurança focadas em danos concretos e riscos existenciais de sistemas avançados de IA. No entanto, as recentes demissões e críticas internas destacam desafios em equilibrar a segurança com os prazos de desenvolvimento de produtos.

O post Funcionários questionam compromisso da OpenAI com a segurança de IA apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/07/12/pro/funcionarios-questionam-compromisso-da-openai-com-a-seguranca-de-ia/