Autor del artículo: Cade Metz

Fuente: New York Times

Tipo : Noticia

Fecha de publicación : 06/11/2023  

 

– Los chatbots suelen inventarse información, con tasas de alucinación que oscilan entre el 3% y el 27% en diferentes empresas de IA.

– La naturaleza impredecible de las respuestas dificulta la determinación de la frecuencia con la que los chatbots proporcionan información falsa.

– La necesidad de precaución y concienciación a la hora de confiar en chatbots para tareas críticas.

Se ha detectado un fallo habitual en los diferentes chatbots creados en base a Inteligencia Artificial y es que en un porcentaje de ocasiones (del 3 al 27 por ciento) se inventan la información que dan a aquellos que las preguntan. Los expertos lo han llamado chatbot behavior “hallucination” que puede suponer un problema con aquellos que trabajan con documentos judiciales, información médica o datos comerciales confidenciales.

 

Acceso al documento