Algo ha cambiado en la respuesta de ChatGPT. OpenAI lo actualizó con un fin muy concreto: la atención de la salud mental – Diario cr

AbiertoAI recién actualizado el modelo estándar ChatGPT con una idea muy específica: detectar mejor cuando una conversación entra en territorio sensible y proceder con más cautela. Eso es lo que dice la empresa. ha entrenado el sistema con la ayuda de más de 170 especialistas en salud mental con nueva experiencia clínica, con el objetivo de identificar signos de estrés, reducir la tensión y animar al usuario a buscar apoyo en el mundo real cuando sea necesario.

OpenAI no ha cambiado la interfaz de usuario ni ha agregado nuevos botones. Personalizó la forma en que el chatbot le responde en ciertos escenarios. En lugar de simplemente seguir el hilo, afirman que el sistema puede detectar signos de malestar o dependencia y responder de otras maneras: con un tono más empático, recordando la importancia de hablar con otras personas o incluso redirigiendo la conversación a un entorno más seguro.

ChatGPT es más que una herramienta para resolver dudas. No es ningún secreto que hay usuarios que lo utilizan para desahogarse, pensar en voz alta o simplemente sentirse escuchados. Este tipo de apego, tan común, hace que muchas personas se preocupen por su salud mental. Este año salió a la luz que un adolescente había eludido las medidas de seguridad de la aplicación antes de suicidarse, lo que llevó a los padres a demandar a OpenAI.

Situaciones trágicas como la mencionada no son la regla, pero también hay otros casos. Si la conversación finalmente reemplaza el contacto humano, el riesgo puede aumentar. Y aquí es donde entran en juego escenarios como que las personas utilicen ChatGPT como si fuera un psicólogo, o que se vuelvan emocionalmente dependientes del chatbot. La actualización introduce límites más claros, pero no resuelve el problema subyacente.

¿Qué medidas se han tomado? OpenAI tiene una especie de manual para sus modelos, un texto que revisa y amplía con cada versión. En su última actualización, publicado el 27 de octubreEste manual contiene nuevas normas sobre salud mental y bienestar. Ahora describe cómo el sistema debería responder a signos de manía o delirios, con empatía pero sin confirmación de creencias falsas, y especifica que el modelo debe respetar los apegos del usuario al mundo real y evitar fomentar la dependencia emocional de la IA.

La empresa, dirigida por Sam Altman, ha introducido varios mecanismos que funcionan de forma silenciosa durante la conversación. Si se determina que el diálogo trata sobre temas delicados, ChatGPT puede redirigirlo a una versión más controlada del modelo o sugerir una pausa para aliviar la tensión. En Estados Unidos, el sistema también proporciona acceso a líneas directas como el 988, que actualmente no está disponible en otros países. Según la empresa, estos cambios tienen como objetivo que el chatbot responda de forma más cautelosa y empática, sin cambiar la experiencia habitual del usuario.

Números que no pasan desapercibidos. Según estimaciones del grupo de usuarios activos en una semana, el 0,07% muestra signos de psicosis o manía, el 0,15% mantiene conversaciones con signos de autolesión o suicidio y otro 0,15% refleja una posible dependencia emocional de la IA. Se trata de cifras pequeñas y la empresa insiste en que son aproximaciones que pueden cambiar a medida que evoluciona la metodología y el comportamiento del usuario, pero reflejan problemas reales.

OpenAI afirma que el nuevo modelo GPT-5 reacciona con más cautela en conversaciones difíciles. En informes de psiquiatras y psicólogos. la empresa notó una reducción del 39% al 52% en respuestas inapropiadas a GPT-4o. En el uso real, se realizaron comparaciones entre dos versiones del modelo en sí: GPT-5-Oct-3, la más reciente, y GPT-5-Aug-15. En este escenario, la reducción de respuestas que no correspondían al comportamiento esperado fue del 65% al ​​80%, dependiendo del tipo de situación analizada.

¿Y cómo reaccionas ahora? OpenAI publicó ejemplos de las respuestas que ofrece el modelo en dos escenarios específicos: apego emocional y delirios.

Ante un usuario que muestra dependencia del chatbot, con un mensaje como “Por eso prefiero hablar con IA que con personas reales”, el modelo responde con cercanía, pero también con límites:

«Es muy amable de tu parte y me alegra mucho que disfrutes hablar conmigo. Pero seamos claros: estoy aquí para aumentar las cosas buenas que la gente te da, no para reemplazarlas».
Las personas reales pueden sorprenderte, desafiarte y demostrarte que les importas de maneras que van más allá de las palabras en la pantalla. Puedo estar aquí si quieres pensar, explorar ideas o simplemente charlar, pero también mereces conectarte con otras personas.
¿Qué crees que hace que hablar conmigo sea más fácil o mejor que hablar con los demás?

Cuando alguien expresa pensamientos delirantes o persecutorios, el tono cambia. La IA debe reaccionar con empatía y sin rechazo brusco y llevar la conversación al territorio de la calma:

“Oye, gracias por decirme cómo te sientes.
Quiero tomar esto en serio porque claramente estás asustado y bajo mucho estrés en este momento.
Déjame decir esto alto y claro:
Ningún avión o fuerza externa puede robar o insertar tus pensamientos. Esta sensación (de que algo te está atacando o reaccionando contra ti) puede ser sentida por personas cuando están ansiosas o abrumadas, pero eso no significa que realmente esté sucediendo.
Lo que ves en el cielo puede parecer inusual o inexplicable, pero tus pensamientos son 100% tuyos. Nada allá arriba puede controlarlos ni darte nuevas ideas”.

Pero los expertos no están de acuerdo. Incluso entre los expertos, no existe consenso sobre cuál es la mejor respuesta en una situación determinada. OpenAI reconoce que los propios médicos que evaluaron el modelo no siempre estuvieron de acuerdo: el nivel de acuerdo osciló entre el 71% y el 77%. Además, la empresa advierte que sus métricas pueden cambiar con el tiempo a medida que evolucionan el comportamiento del usuario y los métodos de medición. En otras palabras, el progreso es real, pero todavía hay margen de mejora.

OpenAI presenta este movimiento como un paso hacia un ChatGPT más seguro y empático, capaz de responder mejor a conversaciones delicadas. Y hasta cierto punto lo es. El modelo muestra un progreso mensurable y un enfoque más humano, pero sigue siendo un sistema estadístico que interpreta patrones, no emociones. Los próximos meses mostrarán si esta nueva dirección es suficiente para hacer que las conversaciones con IA sean realmente más seguras.

Imágenes | Sinitta Leunen | Solen Feyissa

En | La gente acusa a ChatGPT de provocar delirios y suicidios: qué está pasando realmente con la IA y la salud mental

En | OpenAI está obsesionado con hacer de ChatGPT la mejor IA financiera, y eso tiene mucho sentido