O CEO da OpenAI, Sam Altman, confirmou que o ChatGPT em breve poderá interagir com conteúdo adulto mas apenas com usuários que passarem por um processo de verificação de idade. O novo recurso será lançado em dezembro de 2025, como parte da política da empresa de “tratar adultos como adultos”.
A ideia é liberar o chatbot para conversas consideradas “maduras” ou de natureza erótica, algo que até agora era totalmente bloqueado pela plataforma. Altman afirmou em sua conta no X (antigo Twitter) que essa mudança só será possível depois da implementação completa do age-gating, um sistema que garante que apenas maiores de 18 anos tenham acesso a esse tipo de conteúdo.
Segundo ele, o movimento faz parte da expansão natural do ChatGPT, que pretende oferecer experiências personalizadas conforme o perfil e a idade dos usuários, sem comprometer a segurança.
O que muda com o novo “modo adulto”
Com a chegada da verificação de idade, a OpenAI pretende dar mais liberdade criativa e conversacional ao ChatGPT, permitindo temas sensíveis que hoje são censurados pelo filtro de segurança. A empresa reforça que o conteúdo adulto será limitado a interações consensuais e ficcionais, com foco em entretenimento e expressão criativa, e não em material explícito ilegal ou não consentido.
Além disso, o modelo deverá adotar novos parâmetros éticos e técnicos, ajustando respostas para garantir que as interações permaneçam seguras, respeitosas e contextualmente apropriadas.
Essa nova fase também abrirá espaço para desenvolvedores criarem aplicativos de IA “maduros” dentro do ecossistema da OpenAI, com as devidas restrições e ferramentas de controle parental.
ChatGPT também voltará a ter “personalidade” com o retorno do GPT‑4o
A notícia do modo adulto veio acompanhada de outra atualização importante: o retorno do modelo GPT‑4o como opção dentro do ChatGPT. A decisão aconteceu depois de críticas de usuários que consideraram o GPT‑5 lançado como padrão na semana anterior mais “frio” e “distante”.
Altman admitiu que o ChatGPT havia se tornado “restritivo demais” para evitar impactos negativos em saúde mental, mas que isso acabou reduzindo a naturalidade e o engajamento das conversas.
“Percebemos que o modelo ficou menos útil e menos agradável para muitos usuários que não tinham nenhum problema de saúde mental”, escreveu o CEO.
Por isso, a empresa decidiu equilibrar segurança e liberdade, reintroduzindo o comportamento mais espontâneo e “humano” do GPT‑4o.
OpenAI cria conselho para segurança e bem-estar digital
Para lidar com os novos desafios de segurança emocional e ética que acompanham essas mudanças, a OpenAI anunciou a criação de um Conselho de Bem-Estar e IA (“Well-being and AI Council”).
O grupo é formado por oito pesquisadores e especialistas focados em compreender como tecnologias generativas impactam a saúde mental e o comportamento dos usuários. A proposta é ajudar a empresa a construir políticas mais sólidas sobre temas sensíveis, como sexualidade, relacionamentos e vulnerabilidade emocional.
Contudo, alguns críticos observaram que o conselho não inclui especialistas em prevenção ao suicídio, algo que ganhou destaque depois que profissionais da área pediram à OpenAI para incluir mecanismos de segurança mais robustos para usuários em crise emocional.
Altman afirmou que, agora que a empresa desenvolveu ferramentas avançadas de detecção de risco emocional, será possível relaxar certas restrições de forma segura e responsável.
O futuro do ChatGPT: liberdade com responsabilidade
A liberação de um “modo adulto” marca um novo momento para o ChatGPT. A OpenAI parece buscar o equilíbrio entre liberdade criativa e responsabilidade social, permitindo que a IA explore temas antes intocáveis, mas dentro de um contexto controlado e seguro.
Esse passo também mostra como a empresa está disposta a adaptar suas políticas ao comportamento real dos usuários, em vez de manter restrições generalizadas que afastam parte da comunidade.
Com o age-gating e os novos recursos de segurança emocional, a OpenAI sinaliza que quer um ChatGPT mais maduro no conteúdo e na forma como lida com os próprios limites.
Você acredita que o ChatGPT deve permitir interações adultas entre usuários verificados? Ou acha que abrir essa porta pode gerar mais problemas do que soluções?






