Autor del artículo: Reuters
Fuente: Reuters
Tipo: Noticia
Fecha de publicación: 04/06/2024
- La carta advierte sobre los riesgos asociados con la IA no regulada.
- Las empresas de IA tienen "obligaciones débiles" para compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas.
- El grupo insta a las empresas de IA a permitir que empleados actuales y antiguos expresen preocupaciones relacionadas con riesgos y a no hacer cumplir acuerdos de confidencialidad.
Un grupo de empleados y exempleados de empresas de IA como OpenAI y Google DeepMind han expresado su preocupación por los riesgos de la IA, citando motivos económicos que dificultan una supervisión eficaz. En su carta abierta destacan peligros como la desinformación, la pérdida de independencia de la IA y el aumento de las desigualdades que podrían llevar a la "extinción humana". La carta critica a las empresas de IA por su escasa transparencia e insta a que se establezca un proceso para abordar los problemas de riesgo sin imponer acuerdos de confidencialidad. Además, OpenAI informó de la interrupción de cinco operaciones encubiertas de influencia que utilizaban modelos de IA para actividades engañosas.
Para comentar se requiere una cuenta.
Ingrese a Open Athens UEEs necesario iniciar sesión para interactuar con este comentario. Por favor inicie sesión e intente de nuevo