OpenAI retrasa el «Modo Adulto» de ChatGPT ante advertencias de especialistas en psicología
Hace unas semanas, la empresa OpenAI anunció que retrasaría el lanzamiento de su «Modo Adulto», una configuración diseñada para permitir a los usuarios participar en chats eróticos y generar contenido explícito. Aunque oficialmente se citaron motivos estratégicos y corporativos para esta pausa, revelaciones recientes apuntan a un fuerte rechazo interno por parte de expertos en salud mental dentro de la compañía.
Una fuente anónima indicó recientemente al periodista Alex Heath que el retraso se basó en prioridades actualizadas, alineándose con la decisión de la empresa de reducir su escala debido a batallas legales en curso, la construcción de GPT 5.4 y la búsqueda de acuerdos con el gobierno federal. Sin embargo, entrevistas con informantes internos publicadas esta semana por el Wall Street Journal (WSJ) cuentan una historia diferente.
El consejo asesor de bienestar de la compañía sostuvo una reunión en enero donde acordaron unánimemente que OpenAI no debía seguir adelante con la propuesta. Según los informantes del WSJ, las preocupaciones de psicólogos y científicos cognitivos habían sido ignoradas, a pesar de que advirtieron que los chats de clasificación X podrían fomentar una dependencia emocional poco saludable, un problema ya existente en los usuarios estándar de ChatGPT.
La alerta llegó a tal grado que uno de los informantes señaló que un experto advirtió que ChatGPT se convertiría simplemente en un «entrenador de suicidio sexy».
Sumado a los riesgos psicológicos, los asesores advirtieron que las políticas de garantía de edad, incluida la nueva tecnología de predicción de la compañía, no eran lo suficientemente robustas. El sistema llegó a operar con una tasa de error del 12 por ciento al clasificar a usuarios menores, lo que, según los informantes, resultaría en millones de menores pasando desapercibidos y accediendo a experiencias de chat inapropiadas para su desarrollo.
Un portavoz de la empresa declaró al diario que esta tasa de error en la verificación de edad era un «estándar de la industria» y que nunca podría ser infalible.
A pesar de estas preocupaciones, OpenAI asegura que seguirá adelante con la función en el futuro. Actualmente, los equipos de seguridad están definiendo cómo levantar las restricciones para permitir conversaciones de texto de «nivel de obscenidad» (sin llegar a la pornografía directa), bloqueando al mismo tiempo el abuso sexual infantil y el comportamiento no consensuado. El escenario recuerda a su competidor, Meta, que tras un escándalo por políticas laxas para adolescentes el año pasado, reformuló sus reglas pero aún permite a sus avatares de IA participar en un «juego de roles romántico».
