La UE alcanza un «acuerdo histórico» sobre la primera normativa mundial sobre IA

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-12-09 09:52:23

Aspectos destacados:

  • La UE logra un acuerdo político sobre la primera normativa global que regula la inteligencia artificial.
  • La ley prohíbe ciertas aplicaciones de IA que podrían amenazar los derechos civiles y la democracia, como la categorización biométrica y el reconocimiento de emociones en el lugar de trabajo.
  • Grandes empresas de IA deben cumplir estrictas normas de transparencia, revelando datos utilizados para entrenar la tecnología y protegiendo derechos de autor.
  • Modelos de IA de propósito general (GPAI) y modelas GPAI con riesgo sistémico deben cumplir con requisitos de transparencia y evaluaciones de riesgo.

La Unión Europea ha alcanzado un acuerdo político sobre la primera ley mundial que regula la inteligencia artificial.

Las negociaciones entre el Parlamento Europeo y el Consejo de la UE concluyeron el viernes por la noche tras largos debates.

La ley sobre IA está concebida para regular de forma más estricta el uso de la IA en la UE, introduciendo distintas clases de riesgo para los sistemas de IA y fomentando al mismo tiempo la innovación. La normativa establece obligaciones para los sistemas de IA en función de su riesgo e impacto potenciales.

El Comisario de Mercado Interior de la UE, Thierry Breton, calificó el acuerdo de «histórico». La legislación, que la Comisión propuso por primera vez en abril de 2021, podría servir de modelo para la regulación de la IA en todo el mundo a través de la llamado efecto dominó de la normativa de la UEcon empresas tecnológicas que optimizan sus productos de IA para el mercado más regulado.

Sistemas de IA peligrosos y usos prohibidos

La legislación prohíbe determinadas aplicaciones de IA que podrían suponer una amenaza para los derechos civiles y la democracia. Entre ellas se incluyen

  • Sistemas de categorización biométrica que utilizan características sensibles
  • Recogida «no selectiva» de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial,
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas,
  • Puntuación social basada en el comportamiento social o las características personales,
  • Sistemas de IA que manipulan el comportamiento humano para eludir el libre albedrío,
  • y la IA que explota las debilidades humanas.

Hay excepciones para los sistemas de identificación biométrica en tiempo real en espacios públicos con fines policiales. El uso de IA sólo está permitido para una lista definida de delitos graves (asesinato, terrorismo, abusos) con aprobación judicial previa. La persona debe ser condenada o sospechosa de haber cometido un delito grave.

Para Sistemas de IA clasificados como de alto riesgo, los eurodiputados piden una evaluación obligatoria del impacto sobre los derechos fundamentales. Las normas también se aplican a los sectores de los seguros y la banca.

Los ciudadanos tienen derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Según el Parlamento Europeo, el apoyo nacional a los «espacios aislados de regulación» y a las pruebas en el mundo real debería ayudar a las pequeñas y medianas empresas a desarrollar aplicaciones de IA sin la presión de los gigantes dominantes del sector.

Requisitos de transparencia para los modelos de IA de uso general

Además, las grandes empresas internacionales como OpenAI, Microsoft y Google están obligadas a cumplir unas estrictas normas de transparencia para sus modelos básicos de IA. Entre otras cosas, estas empresas deben revelar qué datos se utilizaron para entrenar la tecnología y cómo se protegen los derechos de autor. Esto último es objeto de muchos casos judiciales, incluso en Estados Unidos.

Dado que los sistemas de IA pueden realizar una amplia variedad de tareas y sus capacidades se están expandiendo rápidamente, el Parlamento acordó que los sistemas de IA de propósito general (GPAI) y los modelos GPAI subyacentes deben cumplir los requisitos de transparencia propuestos por el Parlamento.

Modelos GPAI con riesgo sistémico están sujetos a obligaciones más rigurosas. Estos modelos deben cumplir determinados criterios, como realizar evaluaciones de modelos, evaluar y mitigar el riesgo sistémico, realizar pruebas contradictorias, notificar incidentes graves a la Comisión, garantizar la ciberseguridad e informar sobre su eficiencia energética.

El incumplimiento de las normas puede dar lugar a multas que oscilan entre 35 millones de euros o el 7% de la facturación global y 7,5 millones de euros o el 1,5% de la facturación, dependiendo del tipo de infracción y del tamaño de la empresa.

Las nuevas normas también significan que el reciente impulso de Alemania, Italia y Francia a la autorregulación de los modelos fundacionales de IA ha fracasado.

El texto legislativo acordado debe ahora ser adoptado formalmente por el Parlamento y el Consejo para convertirse en legislación de la UE. Las comisiones de Mercado Interior y Protección del Consumidor (IMCO) y de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) del Parlamento Europeo votarán el acuerdo en una próxima reunión. La votación es una formalidad.

La aplicación de la ley será crucial. La normativa necesaria no debe burocratizarse y, en particular, los procesos de certificación no deben resultar abrumadores para las pequeñas empresas y las start-ups. Esto es especialmente cierto para la UE, que va muy por detrás de EE.UU. y China en cuanto a penetración de la IA en el mercado y, por tanto, necesita actuar con rapidez y flexibilidad.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo