ChatGPT daría respuestas médicas más empáticas: estudio

ChatGPT daría respuestas médicas más empáticas estudio
[favorite_button]
Comentar

Una investigación publicada en JAMA Internal Medicine ofrece una nueva perspectiva sobre el rol que podría adquirir ChatGPT y la inteligencia artificial como asistentes en medicina. Para ello, se compararon las respuestas escritas por los profesionales de la salud y las proporcionadas por la herramienta salud del mundo real.

Sorprendentemente, un panel de expertos y profesionales sanitarios de alto nivel eligió a las respuestas entregadas por ChatGPT en el 79% de las veces, ya que las consideraron más empáticas y de mejor calidad que las ofrecidas por los médicos.

Para ello, los autores de la investigación se propuso responder a la pregunta: ¿Puede ChatGPT responder con precisión a las preguntas que los pacientes envían a sus médicos?; en caso afirmativo, los modelos de IA podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor que soporta el talento humano en salud.

¿Cómo se llegó a esta nueva conclusión sobre ChatGPT?

Durante el diseño de la encuesta aplicada a la herramienta de inteligencia artificial, el equipo recurrió a una de las redes sociales más populares en Estados Unidos: AskDocs de Reddit. En este espacio digital, millones de pacientes publican preguntas médicas que solamente pueden ser respondidas por técnicos o profesionales de la salud.

Posterior a ello, se tomó una muestra aleatoria de 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. La evaluación de la herramienta de IA se llevó a cabo de manera literal; es decir, se proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta. Como se mencionó al inicio del artículo, un grupo de tres profesionales de la salud evaluó cada pregunta y las respuestas correspondientes, sin saber si la respuesta procedía de un médico o de ChatGPT.

Como parte del estudio, los profesionales elegidos compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían. La calidad de las respuestas de ChatGPT fue significativamente superior a la de las respuestas de los médicos: las respuestas de calidad buena o muy buena fueron 3,6 veces superiores para ChatGPT que para los médicos (médicos 22,1% frente a ChatGPT 78,5%). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces superiores para ChatGPT que para los médicos (médicos 4,6% frente a ChatGPT 45,1%).

“Estos resultados sugieren que herramientas como ChatGPT pueden redactar eficientemente consejos médicos personalizados de alta calidad para su revisión por parte de los médicos clínicos, y estamos comenzando ese proceso en UCSD Health”, dijo el Dr. Christopher Longhurst, Director Médico y Director Digital de UC San Diego Health. “Nuestro estudio se encuentra entre los primeros en mostrar cómo los asistentes de IA pueden resolver potencialmente los problemas de prestación de atención médica en el mundo real”, puntualizó.

El estudio fue dirigido por el Dr. John W. Ayers, del Instituto Qualcomm de la Universidad de California en San Diego, ofrece una primera visión del papel que podrían desempeñar los asistentes de IA en la medicina.

Temas relacionados

Compartir Noticia

Facebook
Twitter
LinkedIn
WhatsApp
Noticias destacadas
Más Noticias

Escríbanos y uno de nuestros asesores le contactará pronto

Reciba atención inmediata mediante nuestros canales oficiales aquí:

Tu carrito de compras está vacío.

Volver a la tienda