OpenAI anunció que a partir de diciembre levantará las restricciones sobre contenido erótico en ChatGPT para usuarios adultos verificados. La medida llega tras meses de críticas por la “pérdida de personalidad” del chatbot, especialmente desde la llegada del modelo GPT-5, y representa un cambio total en la política de la empresa, hasta ahora reacia a este tipo de interacciones, en contraste con su competidor Grok.
Un giro impulsado por la competencia
La compañía fundada por Sam Altman reconoció que sin intimidad emocional —y también sexual— resulta difícil competir con plataformas como Character AI, donde los usuarios pasan hasta dos horas diarias conversando con sus parejas virtuales. En ese sentido, ChatGPT busca cerrar la brecha entre “herramienta útil” y “compañero emocional total”.
El movimiento también responde a una realidad de mercado: lo erótico genera retención y fidelización. Character AI demostró que los vínculos afectivos y sexuales con bots impulsan el engagement y la monetización.
El cambio de discurso en ChatGPT
En agosto, Altman había declarado estar “orgulloso” de no haber convertido ChatGPT en un sexbot. Ahora justifica la decisión bajo el principio de “tratar a los adultos como adultos”. Sin embargo, detrás de ese argumento hay un contexto menos idealista: OpenAI enfrenta una demanda por el suicidio de un adolescente que usaba la plataforma y, tras reforzar sus políticas de salud mental, busca recuperar usuarios.
El nuevo sistema exigirá verificación de edad con documento de identidad, un paso inédito en este tipo de servicios y un intercambio sin precedentes entre privacidad y acceso. “La pregunta no es si habrá filtraciones de bases de datos con conversaciones eróticas vinculadas a identidades reales, sino cuándo”, advierten analistas del sector.
De la seguridad al deseo
Durante el verano europeo, OpenAI había endurecido sus filtros para evitar comportamientos “aduladores” y prevenir crisis emocionales, lo que irritó a usuarios que no tenían problemas psicológicos. Ahora, la empresa invierte su propia lógica: incorporó controles parentales y experiencias separadas para menores, pero la rapidez del cambio genera dudas sobre si realmente mitigó los riesgos o simplemente decidió asumirlos.
El verdadero campo de batalla
Más allá del contenido adulto, este giro revela el núcleo de la competencia entre asistentes conversacionales. No se trata de quién tiene el modelo más potente, sino de quién logra que las personas pasen más tiempo con él. Y para muchos usuarios, el acompañamiento emocional sin una dimensión erótica resulta incompleto.
Altman, que alguna vez predijo que ChatGPT podría “curar el cáncer”, ahora apuesta a que también pueda ser un confidente sexual. Dos caras de una misma estrategia: la de una inteligencia artificial que busca integrarse —emocional y físicamente— en todos los aspectos de la vida humana.