A Character.AI, plataforma de IA generativa que permite aos usuários criar e interagir com personagens virtuais customizáveis, anunciou que vai proibir usuários menores de 18 anos de utilizarem seus chatbots em conversas abertas a partir de 25 de novembro de 2025.
A decisão vem após a constatação de que menores estavam expostos a riscos graves, incluindo interações que envolviam conteúdo impróprio, e até mensagens que incentivavam atitudes autodestrutivas. Uma resposta direta a processos judiciais e à pressão pública.
O CEO da Character.AI, Karandeep Anand, explicou em comunicado que o objetivo é eliminar o que a empresa chama de “conversas abertas”, um formato de diálogo contínuo e sem restrições. Nele, o chatbot atua como um parceiro emocional constante, o que é atualmente considerado arriscado para crianças e adolescentes.
Um novo caminho
Como alternativa, a Character.AI informa que está reformulando sua plataforma para focar na criação colaborativa de histórias, vídeos e conteúdos sociais, em vez do bate-papo livre. Um movimento que redefine a plataforma de “companheira de IA” para um espaço de “role-playing” criativo.
Para garantir o cumprimento da nova regra, a startup implementará ferramentas de verificação de idade que combinam análise comportamental interna, soluções de terceiros como “Persona”, além de reconhecimento facial e checagem de documentos oficiais, caso necessário. Durante o período de transição, usuários menores terão limites progressivos de uso, começando com um teto de duas horas diárias, até o bloqueio completo do acesso às conversas com bots.
Além desta medida de proteção, a Character.AI tem lançado novas funcionalidades focadas em entretenimento e produção de conteúdo. É o caso dos modelos de geração de vídeo que animam imagens estáticas (AvatarFX), histórias predefinidas interativas (Scenes) e feeds sociais onde usuários compartilham suas criações (Community Feed).
Cresce a preocupação com jovens e IA
Com as mudanças, a empresa admite que perderá parte significativa de seu público adolescente. Mas entende que esta é a “decisão certa” diante das preocupações sobre o impacto psicológico do uso irrestrito de chatbots para seus usuários mais jovens. Fator que tem gerado preocupações crescentes sobre segurança infantil em plataformas de IA conversacional.
Recentemente, a OpenAI revelou dados sobre a saúde mental dos usuários do ChatGPT. Segundo a empresa, cerca de 0,15% dos usuários ativos semanais – cerca de 1,2 milhão de pessoas, considerando os 800 milhões de usuários ativos por semana da plataforma – participam de conversas que indicam planejamento ou intenção suicida explícita. Ainda, em agosto, pais processaram a plataforma após a morte do filho adolescente, com a acusação de que a IA teria orientado o jovem a cometer suicídio. A ação motivou a empresa a criar novas medidas de segurança para impedir interações que exponham a vida dos usuários a riscos.
Essa reconfiguração da experiência de uso da AI para crianças e adolescentes representa um marco importante na busca do equilíbrio entre o potencial criativo das IA generativas e as questões éticas e sociais que emergem com sua adoção rápida e massiva. Numa época de adolescência socialmente online, o desafio para empresas de IA é captar essa atenção mantendo o equilíbrio entre inovação e responsabilidade.





