Palabras como «no» y «not» pueden hacer que los modelos de lenguaje de IA fracasen inesperadamente en entornos de alto riesgo, como el diagnóstico médico.
Investigadores del MIT han realizado un estudio en el que se ha comprobado que es muy probable que los modelos de visión-lenguaje cometan ese error en situaciones del mundo real porque no entienden la negación.
Se demuestra que si estos modelos se entrenan con imágenes cuyos pies de foto incluyan negaciones, los resultados mejoran. El equipo creó un conjunto de datos de imágenes con sus correspondientes pies de foto que incluían palabras de negación que describían objetos perdidos, lo que conllevó una mejora en el rendimiento de los modelos para recuperar imágenes que no contienen determinados objetos. También aumentó la precisión en la respuesta a preguntas de opción múltiple con negaciones entre sus opciones.
Para comentar se requiere una cuenta.
Ingrese a Open Athens UEEs necesario iniciar sesión para interactuar con este comentario. Por favor inicie sesión e intente de nuevo