Un estudio reciente reveló que el modelo de inteligencia artificial Gemini, desarrollado por Google DeepMind, omite el 94 % de las citas a fuentes originales en sus respuestas, lo que plantea una grave crisis de atribución en la generación de contenidos por IA. Esta falta de transparencia compromete la trazabilidad del conocimiento, la integridad académica y la confianza del público en los resultados generados por estos sistemas. Los investigadores responsables del análisis instan a las empresas tecnológicas a implementar mecanismos más sólidos de citación automática y rendición de cuentas para garantizar un uso ético y responsable de la inteligencia artificial.
Para comentar se requiere una cuenta.
Ingrese a Open Athens UEEs necesario iniciar sesión para interactuar con este comentario. Por favor inicie sesión e intente de nuevo