Un estudio reciente reveló que el modelo de inteligencia artificial Gemini, desarrollado por Google DeepMind, omite el 94% de las citas a fuentes originales en sus respuestas, lo que plantea una grave crisis de atribución en la generación de contenidos por IA. Esta falta de transparencia compromete la trazabilidad del conocimiento, la integridad académica y la confianza del público en los resultados generados por estos sistemas. Los investigadores responsables del análisis instan a las empresas tecnológicas a implementar mecanismos más sólidos de citación automática y rendición de cuentas para garantizar un uso ético y responsable de la inteligencia artificial.

 

Acceso al contenido