https://d115jpn9r81ew0.cloudfront.net/data/headers/1991/BANNER_PREGUNTA_A_LOS_BIB.png
Mostrando 3 de 3 resultados

Observatorio IA

imagen-decorativa
05/15/2025
profile-icon Marina Marcuello
  • Palabras como «no» y «not» pueden hacer que los modelos de lenguaje de IA fracasen inesperadamente en entornos de alto riesgo, como el diagnóstico médico.

Investigadores del MIT han realizado un estudio en el que se ha comprobado que es muy probable que los modelos de visión-lenguaje cometan ese error en situaciones del mundo real porque no entienden la negación.

Se demuestra que si estos modelos se entrenan con imágenes cuyos pies de foto incluyan negaciones, los resultados mejoran. El equipo creó un conjunto de datos de imágenes con sus correspondientes pies de foto que incluían palabras de negación que describían objetos perdidos, lo que conllevó una mejora  en el rendimiento de los modelos para recuperar imágenes que no contienen determinados objetos. También aumentó la precisión en la respuesta a preguntas de opción múltiple con negaciones entre sus opciones.

Acceso a la noticia

IA
imagen-decorativa
09/23/2024
La difusión estable ha transformado la creación de imágenes a partir de texto descriptivo, mientras que modelos como GPT-2, GPT-3 y GPT-4 han demostrado un gran rendimiento en tareas lingüísticas, como se ha visto con ChatGPT.
IA
imagen-decorativa
09/20/2024
Los modelos de lenguaje avanzados, son sistemas de aprendizaje automático que imitan la escritura y el diálogo humanos, han despertado gran interés últimamente debido a su utilidad y lo novedoso de su funcionamiento
IA