Moldeando el Futuro de la IA: Primera Ley Europea de Inteligencia Artificial

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

La Ley de IA de la UE es la primera ley integral de IA a nivel mundial. Esta legislación clasifica los sistemas de IA según los niveles de riesgo y establece obligaciones para los proveedores y usuarios.

La Comisión Europea busca regular la IA para fomentar mejores condiciones para su desarrollo y uso. La Ley de IA asegura la seguridad, transparencia, trazabilidad, no discriminación y eco-amigabilidad en los sistemas de IA utilizados dentro de la UE.

El Parlamento busca asegurar que los sistemas de IA sean seguros y transparentes, y está interesado en crear una definición uniforme y tecnológicamente neutral para la IA, aplicable a los futuros sistemas de IA.

Los sistemas de IA se clasifican en cuatro tipos de riesgo: inaceptable, alto, IA generativa, y riesgo limitado. Los sistemas de ‘riesgo inaceptable’ serán prohibidos. Los sistemas de ‘alto riesgo’ serán evaluados antes de su colocación en el mercado y a lo largo de su ciclo de vida. La IA generativa, como ChatGPT, deberá cumplir con requisitos de transparencia, y los sistemas de ‘riesgo limitado’ están sujetos a requisitos mínimos de transparencia.

Clasificación de Riesgo en la Ley de IA: Ajustando las Reglas para Adaptarse a los Niveles de Riesgo

Una parte significativa de la Ley de IA es la clasificación de los sistemas de IA de acuerdo con los riesgos que representan para los usuarios. Los sistemas de IA se categorizan en cuatro tipos de riesgo—inaceptable, alto, IA generativa, y riesgo limitado—con cada categoría sujeta a diferentes niveles de regulación.

Los sistemas de IA que representan un ‘riesgo inaceptable’ se consideran amenazas para las personas y, por lo tanto, se prohíben. Estos incluyen sistemas que manipulan las características cognitivas y comportamentales o grupos específicos vulnerables, sistemas de puntuación social, y sistemas de identificación biométrica remota en tiempo real. Pueden permitirse excepciones para ciertos sistemas de identificación biométrica ‘post’ remota utilizados para procesar delitos graves, con aprobación judicial.

Los sistemas de IA de ‘alto riesgo’, que podrían impactar negativamente en la seguridad o los derechos fundamentales, se categorizan en dos subgrupos. El primero incluye sistemas de IA utilizados en productos que caen bajo la legislación de seguridad de productos de la UE. El segundo subgrupo incluye sistemas de IA en ocho áreas específicas que requieren registro en una base de datos de la UE. Estos sistemas de IA de alto riesgo serán evaluados antes de su colocación en el mercado y a lo largo de su ciclo de vida.

La IA generativa, como ChatGPT de OpenAI, tendrá que cumplir con requisitos de transparencia como la divulgación de contenido generado por IA, la prevención de la generación de contenido ilegal, y la publicación de resúmenes de datos protegidos por derechos de autor utilizados para el entrenamiento.

Finalmente, los sistemas de IA de ‘riesgo limitado’ están sujetos a requisitos mínimos de transparencia para permitir a los usuarios tomar decisiones informadas. Incluyen sistemas de IA que generan o manipulan contenido de imagen, audio, o video.

El Camino a Seguir: Los Próximos Pasos de la Ley de IA y su Impacto

El 14 de junio de 2023, los eurodiputados adoptaron la posición de negociación del Parlamento sobre la Ley de IA, marcando el comienzo de las discusiones con los países de la UE en el Consejo sobre la forma final de la ley. El objetivo es llegar a un acuerdo para finales de año.

Deja una opinión

Deje una respuesta

🤖 AI MAFIA
Logo