Autor del artículo: Cade Metz
Fuente: New York Times
Tipo : Noticia
Fecha de publicación : 06/11/2023
– Los chatbots suelen inventarse información, con tasas de alucinación que oscilan entre el 3% y el 27% en diferentes empresas de IA.
– La naturaleza impredecible de las respuestas dificulta la determinación de la frecuencia con la que los chatbots proporcionan información falsa.
– La necesidad de precaución y concienciación a la hora de confiar en chatbots para tareas críticas.
Se ha detectado un fallo habitual en los diferentes chatbots creados en base a Inteligencia Artificial y es que en un porcentaje de ocasiones (del 3 al 27 por ciento) se inventan la información que dan a aquellos que las preguntan. Los expertos lo han llamado chatbot behavior “hallucination” que puede suponer un problema con aquellos que trabajan con documentos judiciales, información médica o datos comerciales confidenciales.
Para comentar se requiere una cuenta.
Ingrese a Open Athens UEEs necesario iniciar sesión para interactuar con este comentario. Por favor inicie sesión e intente de nuevo