Regular la inteligencia artificial: Cómo la UE acaba de acercarnos

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-07-18 02:09:57

El mes pasado, un proyecto de Ley de Inteligencia Artificial de la Unión Europea fue aprobado en el Parlamento Europeo. Podría decirse que el proyecto de ley representa el paso más completo y radical hacia la regulación de la IA en el mundo. Se espera que la Ley definitiva se apruebe a finales de este año, con consecuencias de gran alcance para las normas reguladoras internacionales.

Altman advirtió en una comisión del Senado estadounidense que «si esta tecnología sale mal, puede salir muy mal… queremos ser claros al respecto».

La Ley llega en un momento en que los principales líderes tecnológicos en el desarrollo de la IA expresan cada vez más su preocupación por los peligros de la IA para la humanidad. De hecho, son muchos. Tras dimitir de Google a principios de año, el «Padrino de la IA», Geoffrey Hinton, advirtió a de los graves perjuicios que plantea la tecnología, y argumentó: «No creo que deban escalar [AI] hasta que no sepan si pueden controlarla». OpenAI, el creador de ChatGPT, ahora comercializa su IA generativa como «crear [Artificial General Intelligence] que beneficie a toda la humanidad». Sin embargo, el CEO de la compañía, Sam Altman, recientemente llamó a una mayor regulación gubernamental de la IA. En mayo, Altman advirtió en una comisión del Senado estadounidense de que «si esta tecnología sale mal, puede salir muy mal… queremos ser claros al respecto».

No cabe duda de que el uso de la IA puede reportar enormes beneficios, especialmente en campos como los siguientes sanidad. Sin embargo, matemáticos, informáticos y gigantes mundiales de la tecnología que hasta ahora se habían centrado en esos beneficios -entre ellos el matemático Terence Tao, ganador de la Medalla Fields 2006- están rompiendo cada vez más el «tabú» y hablar sobre su preocupación por los efectos nocivos de esta tecnología para la humanidad.

Mientras Australia y otros Estados se plantean colmar la laguna normativa sobre IA e intentan crear las condiciones previas para una IA segura, responsable y que rinda cuentas, ¿qué pueden aprender del proyecto de Ley de IA de la UE?

Sam Altman, CEO de OpenAI, habla durante una audiencia del Subcomité Judicial del Senado en Washington, DC, el 16 de mayo de 2023 (Eric Lee/Getty Images)

A pesar de presumir de ser la tercera economía del mundo, la Unión Europea ha antepuesto los derechos humanos a las ventajas tecnológicas. Entre otras medidas, el proyecto de Ley de IA de la UE pretende introducir tres categorías de riesgo. En primer lugar, cuando los modelos de IA se consideren riesgo inaceptablese prohíben. Un ejemplo de ello sería un sistema basado en IA que el gobierno de China ha introducido para llevar a cabo un tipo de régimen de crédito social o de puntuación social. La Ley de IA de la UE pretende prohibir a las autoridades de toda la UE la introducción de tales sistemas de puntuación social, así como de sistemas de identificación biométrica «en tiempo real» en espacios públicos con fines policiales.

El proyecto de Ley implicaría que los sistemas de IA considerados aplicaciones de alto riesgo tendrían que cumplir determinadas obligaciones legales.

Australia y otros países podrían considerar la adopción de un enfoque similar. Esto no sólo garantizaría que la IA está en consonancia con los valores democráticos y sociales de Australia, sino que también establecería que los sistemas de IA que realizan acreditaciones sociales están prohibidos por la legislación australiana. También podría disuadir del uso maligno de la IA, como el que descrito en por el académico jurídico Simon Chesterman como el «armamentismo de la IA – entendido en sentido estricto como el desarrollo de sistemas de armas autónomas letales que carecen de un ‘control humano significativo’ y, en sentido más amplio, como el desarrollo de sistemas de IA que plantean un riesgo real de ser incontrolables o incontenibles».

En segundo lugar, el proyecto de ley significaría que los sistemas de IA considerados aplicaciones de alto riesgo tendrían que adherirse a obligaciones legales particulares. Esto requiere necesariamente que un modelo de IA se desarrolle de forma que pueda explicarse, sea transparente, justo e imparcial, y demuestre normas de responsabilidad en términos de formación y operatividad.

En tercer lugar, los modelos considerados sin riesgo o de riesgo mínimoque es la inmensa mayoría de los sistemas de IA, permanecerían sin restricciones. Esta categoría incluiría los modelos de IA utilizados en juegos de ordenador, por ejemplo.

En lugar de limitar la innovación, este proceso de categorización del riesgo de los sistemas de IA a través de una norma legal proporcionaría a las empresas y a los consumidores reglas claras sobre lo que se considera IA fiable, responsable y que rinde cuentas, especialmente en un mundo que cada vez confía menos en la tecnología. Un estudio reciente de la Universidad de Queensland, titulado Confianza en la Inteligencia Artificial: A Global Study 2023El 61% de los encuestados desconfiaba de la IA y el 71% creía que era necesario regularla.

El proyecto de ley de la UE sobre IA no es, ni mucho menos, una bala de plata. Sin embargo, es un primer paso vital y significativo para prevenir los peores efectos de la IA sobre la humanidad e inicia un debate necesario sobre cómo nos gustaría controlar su futuro.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo