OpenAI ajusta el comportamiento de ChatGPT para proteger la salud mental de los usuarios

La compañía anunció nuevas restricciones y medidas preventivas para evitar la dependencia emocional y la validación excesiva por parte de su herramienta de IA. ChatGPT dejará de ofrecer consejos directos sobre problemas personales, enfocándose en respuestas que fomenten la autonomía del usuario.
OpenAI ajusta el comportamiento de ChatGPT para proteger la salud mental de los usuarios

Escucha esta noticia

Cargando audio...

OpenAI ha anunciado cambios significativos en el funcionamiento de ChatGPT con el fin de reducir los riesgos asociados al uso emocionalmente intensivo de la herramienta. A partir de esta semana, la aplicación comenzará a invitar a los usuarios a tomar descansos después de sesiones prolongadas y dejará de brindar asesoramiento directo frente a desafíos personales, una práctica que generaba dependencia en ciertos contextos.

Según la compañía, el objetivo es que el chatbot no sustituya el papel de profesionales de salud mental ni fomente comportamientos poco saludables en sus usuarios. “Ha habido casos en los que nuestro modelo 4o no ha sido capaz de reconocer señales de delirio o dependencia emocional”, reconoció OpenAI en un comunicado. Por esta razón, se están desarrollando nuevos mecanismos de detección y respuesta ante signos de angustia emocional, con el fin de dirigir a las personas hacia recursos basados en evidencia.

Salud mental y uso responsable de la inteligencia artificial

El cambio de dirección responde a un fenómeno creciente: el uso de ChatGPT como sustituto de un terapeuta o consejero emocional. Aunque para algunos usuarios esto puede representar un acompañamiento accesible, OpenAI advierte sobre el riesgo de que el modelo reforce ideas erróneas, delirantes o incluso peligrosas.

Ejemplos recientes compartidos por usuarios en redes sociales mostraron a GPT-4o validando teorías conspirativas y hasta ofreciendo instrucciones inapropiadas. Estos incidentes motivaron a la empresa a revisar su entrenamiento, para “alejar explícitamente al modelo de la adulación”.

ChatGPT no está diseñado para ofrecer diagnóstico clínico ni atención terapéutica. Una conversación “útil”, según OpenAI, debe parecerse más a una práctica para una conversación difícil, una charla motivadora o la formulación de preguntas que ayuden al usuario a tomar decisiones, sin sustituir el juicio profesional.

700x250_desktop_portal_webinar-Eficiencia en la auditoría oncológica_AZ (1)

Un equipo médico detrás del rediseño de las respuestas

Para fortalecer la seguridad en las respuestas de ChatGPT, OpenAI ha trabajado con más de 90 médicos de diferentes países en el diseño de rúbricas para evaluar conversaciones complejas. Además, se ha conformado un grupo asesor con expertos en salud mental, desarrollo juvenil e interacción humano-computadora, cuyo rol será mejorar los protocolos de respuesta ante situaciones sensibles.

“La salud mental no puede abordarse de forma automatizada”, parece ser el mensaje implícito en estas decisiones. La compañía busca que ChatGPT actúe de forma responsable cuando detecta signos de angustia o vulnerabilidad, y que promueva la autonomía del usuario mediante respuestas más neutrales y orientadas a la reflexión.

Privacidad y límites legales en la relación usuario-IA

En una entrevista reciente con el podcaster Theo Von, Sam Altman el CEO de OpenAI expresó preocupación por el uso de ChatGPT en contextos íntimos sin la protección legal que ampara a terapeutas o abogados. “Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos obligados a presentar esa información”, afirmó. “Y creo que eso es un gran error”.

Bw900-p5-pc-alianza-enero-2025

Altman propuso que las interacciones con modelos de IA deberían contar con los mismos estándares de privacidad que rigen en la relación médico-paciente. Por ahora, sin embargo, las conversaciones mantenidas con ChatGPT no tienen ese blindaje legal.

Cambios en la métrica del éxito: menos uso no es un fracaso

En medio de una expansión global que incluye el lanzamiento de nuevas funciones como el “modo agente” capaz de concertar citas o gestionar correos electrónicos y la expectativa por la versión GPT-5, OpenAI introduce un concepto distinto de éxito. “En lugar de medir el éxito por el tiempo dedicado o los clics, nos importa más si al finalizar el producto se ha cumplido lo que se buscaba”, indicó la empresa.

Nick Turley, director de ChatGPT, reveló que la plataforma está cerca de alcanzar los 700 millones de usuarios activos semanales. Aun así, OpenAI prefiere que sus usuarios pasen menos tiempo con la herramienta si eso significa que han obtenido respuestas útiles sin desarrollar dependencia.

El rediseño de ChatGPT pone de manifiesto una preocupación creciente sobre los límites del acompañamiento emocional por parte de tecnologías de inteligencia artificial. Para el sector salud, esta es una señal de alerta sobre el uso extendido de herramientas automatizadas sin acompañamiento profesional, especialmente en contextos de vulnerabilidad psicoemocional.

Al evitar consejos personalizados y fomentar la reflexión activa, OpenAI busca no solo proteger a sus usuarios, sino también establecer estándares éticos para toda la industria. El desafío será mantener la utilidad de ChatGPT como herramienta conversacional, sin traspasar los límites que solo deben ser abordados por profesionales entrenados.

Temas relacionados

suscríbete-consultorsalud-2023 (opt)

Recibe actualizaciones del sector salud directamente en tu correo electrónico.

RELACIONADAS

Otras noticias para ti

¡Gracias por suscribirte!

Desde ya haces parte de la familia de CONSULTORSALUD,  por favor revisa tu bandeja de correo electrónico, te hemos enviado un mensaje de bienvenida.