Autor del artículo: Ashwini Manish Jantikar, Roshan Kumar Mahat, Suchismita Panda, Vedika Rathore

Fuente: Advances in Physiology Education

Tipo : Artículo

Fecha de publicación : 19/07/2023

– ChatGPT muestra un buen rendimiento en exámenes de medicina, aunque con limitaciones en preguntas complejas.

– ChatGPT encuentra dificultades en preguntas complejas.

– Se requieren mejoras y desarrollos adicionales para mejorar la confiabilidad y precisión de en la resolución de tareas complejas.

El objetivo de este estudio es evaluar el rendimiento de ChatGPT en la resolución de preguntas en exámenes universitarios. Se evalúa su rendimiento en el Examen de Licencia Médica de los Estados Unidos (USMLE), llegando al 60% de aciertos. También se evalúa en otro examen universitario de bioquímica, el "examination of phase I Bachelor of Medicine and Bachelor of Surgery" con un resultado del 75% (mejor puntuación en las preguntas de rellenar huecos en blanco o con varias opciones a elegir y mayor dificultad con preguntas complejas). Los resultados muestran que puede ser una herramienta útil para ayudar a los estudiantes a comprender conceptos complejos y mejorar su rendimiento académico. [Texto generado con ayuda de IA]

Acceso al artículo