En un reciente documento, un grupo de destacados investigadores y expertos en IA subrayan la necesidad de centrarse en la gestión de riesgos, la seguridad y el uso ético de la IA.
En su documento «Managing AI Risks in an Era of Rapid Progress» (Gestión de los riesgos de la IA en una era de rápido progreso), los investigadores advierten de riesgos sociales como la injusticia social, la inestabilidad, la desigualdad global y la actividad delictiva a gran escala.
Reclaman avances en la investigación sobre seguridad y ética de la IA y una supervisión gubernamental eficaz para hacer frente a estos riesgos. También piden a las grandes empresas tecnológicas y a los financiadores públicos que inviertan al menos un tercio de sus presupuestos de investigación y desarrollo de IA en seguridad y uso ético.
Precaución con los sistemas autónomos de IA
El equipo de investigación advierte específicamente contra la IA en manos de «unos pocos actores poderosos» que podrían afianzar o exacerbar las desigualdades globales, o facilitar la guerra automatizada, la manipulación masiva a medida y la vigilancia omnipresente.
En este contexto, advierten específicamente contra los sistemas autónomos de IA que podrían exacerbar los riesgos existentes y crear otros nuevos.
Estos sistemas plantearán «retos de control sin precedentes», y la humanidad podría no ser capaz de mantenerlos bajo control si persiguen objetivos indeseables. Según el documento, no está claro cómo puede conciliarse el comportamiento de la IA con los valores humanos.
«Incluso los desarrolladores bienintencionados pueden construir sin querer sistemas de IA que persigan objetivos no deseados, sobre todo si, en un intento de ganar la carrera de la IA, descuidan las costosas pruebas de seguridad y la supervisión humana», dice el documento.
Entre los principales retos técnicos que hay que afrontar figuran la supervisión y la honestidad, la solidez, la interpretabilidad, la evaluación de riesgos y la gestión de los nuevos desafíos. Los autores sostienen que la solución de estos problemas debe convertirse en un objetivo central de la IA.
Además de los avances técnicos, afirman que se necesitan urgentemente medidas de gobernanza para evitar la imprudencia y el mal uso de las tecnologías de IA. Los autores abogan por que las instituciones nacionales y las estructuras internacionales de gobernanza hagan cumplir las normas y garanticen el desarrollo y la aplicación responsables de los sistemas de IA.
Los gobiernos deberían poder preseleccionar
Para que la regulación sea eficaz, los gobiernos deberían exigir el registro de modelos, la protección de los denunciantes, la notificación de incidentes y la supervisión del desarrollo de modelos y del uso de superordenadores.
Los reguladores también deben tener acceso a los sistemas avanzados de IA antes de su despliegue para detectar capacidades peligrosas.
Esto ya está ocurriendo en China, aunque se trata predominantemente de una revisión de políticas, y el gobierno estadounidense también ha anunciado que preseleccionará los modelos de IA que puedan ser relevantes para la seguridad nacional.
Nuevas normas de seguridad para los sistemas de IA
Es necesario establecer varios mecanismos de gobernanza para los sistemas de IA con capacidades peligrosas. Entre ellos figuran la creación de normas de seguridad nacionales e internacionales, la responsabilidad legal de los desarrolladores y propietarios de IA, y posibles controles de acceso y concesión de licencias para sistemas de IA especialmente potentes.
Los autores subrayan la necesidad de que las principales empresas de IA formulen inmediatamente compromisos «si-entonces» que especifiquen las medidas de seguridad específicas que se adoptarán si sus sistemas de IA cruzan determinadas líneas rojas. Estos compromisos deberían someterse a una verificación detallada e independiente.
Por último, los autores subrayan que los avances en seguridad y gobernanza van a la zaga del rápido desarrollo de las capacidades de la IA. Para que la IA produzca resultados positivos y no desastres, afirman, los esfuerzos y las inversiones deben centrarse en la gestión de los riesgos sociales y en el uso seguro y ético de estas tecnologías.
«Hay un camino responsable, si tenemos la sabiduría de tomarlo», escriben los autores, entre los que se encuentran Yoshua Bengio y Geoffrey Hinton, ganadores del Premio Turing, y Stuart Russel, reputado investigador de IA de la UC Berkeley.
Crítica al exceso de miedo a la IA
Es precisamente a estos tres investigadores, y a otros que esgrimen argumentos similares, a los que el científico jefe de Metas AI, Yann LeCun, acusó recientemente de proporcionar munición a grandes empresas de IA como OpenAI para imponer medidas reguladoras más estrictas que frenarían el desarrollo de sistemas de IA de código abierto.
En su opinión, se trata de una «captura reguladora» y un hecho peligroso. Según LeCun, el mayor riesgo para la sociedad es que unas pocas empresas se hagan con el control de la tecnología que puede dar forma al futuro de la sociedad.
LeCun cree que los sistemas actuales son útiles, pero que se sobreestiman sus capacidades y, por tanto, su potencial de riesgo. Está trabajando en una nueva arquitectura de IA que pretende que los sistemas de IA aprendan de forma similar a los humanos, superando con creces a los actuales sistemas de IA en eficacia y eficiencia.