Hace tiempo que ChatGpt y otros motores de búsqueda basados en IA son herramientas habituales de trabajo para estudiantes e investigadores a la hora de localizar información. 

Tras años de uso de motores más tradicionales como Google, donde la información aparece indexada según criterios que responden a contenido, pertinencia y habilidad del responsable de SEO y se acercan más o menos a lo que busca el usuario, los motores basados en IA utilizan otro tipo de algoritmos que responden a las preguntas que hacen los usuarios, dando como respuestas válidas y comprobadas la información que devuelven. ¿Problema? Que no siempre estas respuestas son válidas, son reales y están comprobadas. 

Sobre esta última premisa se basa el artículo que nos comparten dos investigadoras, que han hecho un experimento solicitando determinadas búsquedas a varias IA y han comprobado los resultados. Y en esos resultados han sacado conclusiones que no son demasiado halagüeñas: estos chatbots se inventan las respuestas en muchas ocasiones incluso en las versiones de pago.

La IA pone a disposición de los investigadores herramientas muy útiles, pero es necesario asumir que pueden cometer errores y comprobar siempre los datos resulta una obligación.

Acceso