Un estudio de la Revista de Periodismo de Columbia señala que la media es del 60%.

Uno de los logros de los chatbots es su faceta como interfaz entre persona y máquina, cómo usan lenguaje natural para comunicarse, de forma que imprimen a sus respuestas una apariencia de solidez, coherencia y veracidad que para muchos usuarios es más que suficiente para concluir que lo que dice debe ser cierto. Pero quien haya hecho el ejercicio de verificar sus respuestas, acudiendo a los enlaces que la IA muestra como fuentes de información, habrá encontrado en muchas ocasiones que la fuente no contiene la información que se supone debe tener.

Esto plantea la duda, en primer lugar, de dónde la ha sacado y, en segundo, de si se lo ha inventado. Ahora podemos cuantificar cuánto se equivocan las IA al citar fuentes de información gracias a un estudio de la Revista de Periodismo de Columbia (CJR), cuyos resultados no son nada halagüeños. De media, los motores de búsqueda con IA yerran más de un 60 % de las veces, alcanzando en el peor de los casos un 94 %.

Acceso a la noticia