29 de outubro de 2025
OpenAI atualiza agente Operator com novo modelo de IA mais
Compartilhe:

A OpenAI anunciou nesta quarta-feira (29) dois novos modelos de inteligência artificial projetados para ajudar desenvolvedores a classificar riscos à segurança online em suas plataformas.

Chamados gpt-oss-safeguard-120b e gpt-oss-safeguard-20b, os modelos são versões refinadas dos gpt-oss lançados em agosto e têm tamanhos diferentes, refletidos nos nomes.

Pré-visualização para pesquisadores oferece controle e visibilidade sobre como a IA classifica riscos em plataformas digitais – Imagem: JarTee/Shutterstock

Transparência e controle com modelos de peso aberto

  • Os modelos são do tipo “peso aberto”, o que significa que seus parâmetros estão disponíveis publicamente.
  • Isso permite maior transparência e controle sobre como as saídas e previsões são geradas, embora não sejam totalmente de código aberto, cujo código-fonte pode ser modificado pelos usuários.
  • Segundo a OpenAI, as organizações podem configurar os modelos para suas políticas específicas, obtendo uma visão direta de como cada decisão é tomada.
  • Por exemplo, sites de avaliações podem filtrar comentários falsos e fóruns de videogames podem classificar postagens sobre trapaças.

Leia também:

  • Como usar ChatGPT para criar imagem no estilo do Studio Ghibli
  • Como fazer música com ChatGPT
  • Como usar o modo adulto no ChatGPT – entenda o que muda nas conversas com a IA
Logo da OpenAI em um smartphone que está em cima do teclado de um notebook
Modelos permitem que desenvolvedores identifiquem conteúdos problemáticos e aumentem a segurança online (Imagem: Ascannio/Shutterstock)

Parcerias e comunidade de segurança

O desenvolvimento dos modelos contou com a colaboração da ROOST (Robust Open Online Safety Tools), do Discord e do SafetyKit.

Inicialmente, os modelos estão em pré-visualização para pesquisa, com a OpenAI buscando feedback de pesquisadores e profissionais de segurança. A ROOST também está criando uma comunidade de modelos para apoiar o uso seguro da IA em espaços online.

O lançamento surge em um momento em que a OpenAI enfrenta críticas sobre crescimento rápido e ética, após a conclusão de sua recapitalização, que consolidou sua estrutura como organização sem fins lucrativos com participação majoritária em negócios lucrativos.

Segundo Camille François, presidente da ROOST, “À medida que a IA se torna mais poderosa, as ferramentas de segurança e a pesquisa em segurança devem evoluir na mesma velocidade – e devem ser acessíveis a todos.” Usuários elegíveis podem baixar os pesos dos modelos no Hugging Face.

Logo da OpenAI em um smartphone na horizontal
Novos modelos da OpenAI fortalecem ética e segurança da IA (Imagem: jackpress / Shutterstock.com)

O post OpenAI lança modelos de IA para detectar riscos e proteger comunidades online apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/10/29/seguranca/openai-lanca-modelos-de-ia-para-detectar-riscos-e-proteger-comunidades-online/