Autor del artículo: Ashwini Manish Jantikar, Roshan Kumar Mahat, Suchismita Panda, Vedika Rathore
Fuente: Advances in Physiology Education
Tipo : Artículo
Fecha de publicación : 19/07/2023
– ChatGPT muestra un buen rendimiento en exámenes de medicina, aunque con limitaciones en preguntas complejas.
– ChatGPT encuentra dificultades en preguntas complejas.
– Se requieren mejoras y desarrollos adicionales para mejorar la confiabilidad y precisión de en la resolución de tareas complejas.
El objetivo de este estudio es evaluar el rendimiento de ChatGPT en la resolución de preguntas en exámenes universitarios. Se evalúa su rendimiento en el Examen de Licencia Médica de los Estados Unidos (USMLE), llegando al 60% de aciertos. También se evalúa en otro examen universitario de bioquímica, el "examination of phase I Bachelor of Medicine and Bachelor of Surgery" con un resultado del 75% (mejor puntuación en las preguntas de rellenar huecos en blanco o con varias opciones a elegir y mayor dificultad con preguntas complejas). Los resultados muestran que puede ser una herramienta útil para ayudar a los estudiantes a comprender conceptos complejos y mejorar su rendimiento académico. [Texto generado con ayuda de IA]
Para comentar se requiere una cuenta.
Ingrese a Open Athens UEEs necesario iniciar sesión para interactuar con este comentario. Por favor inicie sesión e intente de nuevo