Los riesgos de la IA son reales, pero controlables

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-07-21 09:02:10

Los riesgos creados por la inteligencia artificial pueden parecer abrumadores. ¿Qué ocurre con las personas que pierden su trabajo a manos de una máquina inteligente? ¿Podría la IA afectar a los resultados de unas elecciones? ¿Y si una futura IA decide que ya no necesita a los humanos y quiere deshacerse de nosotros?

Todas estas preguntas son válidas y hay que tomárselas en serio. Pero hay buenas razones para pensar que podemos hacerles frente: No es la primera vez que una gran innovación introduce nuevas amenazas que hay que controlar. Ya lo hemos hecho antes.

Ya fuera la introducción de los automóviles o el auge de los ordenadores personales e Internet, la gente ha superado otros momentos de transformación y, a pesar de muchas turbulencias, al final ha salido mejor parada. Poco después de la aparición de los primeros automóviles, se produjo el primer accidente de tráfico. Pero no prohibimos los coches: adoptamos límites de velocidad, normas de seguridad, requisitos para la obtención del carné de conducir, leyes sobre la conducción bajo los efectos del alcohol y otras normas de circulación.

Ahora estamos en la primera fase de otro cambio profundo, la Era de la IA. Es análoga a aquellos tiempos inciertos anteriores a los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápidamente que no está claro qué ocurrirá a continuación. Nos enfrentamos a grandes cuestiones planteadas por la forma en que funciona la tecnología actual, las formas en que la gente la utilizará con malas intenciones y las formas en que la IA nos cambiará como sociedad y como individuos.

En un momento así, es natural sentirse inquieto. Pero la historia demuestra que es posible resolver los retos creados por las nuevas tecnologías.

Ya he escrito antes sobre cómo la IA va a revolucionar nuestras vidas. Ayudará a resolver problemas -en sanidad, educación, cambio climático y otros- que antes parecían insolubles. La Fundación Gates lo está convirtiendo en una prioridad, y nuestro director general, Mark Suzman, compartió recientemente cómo está sobre su papel en la reducción de la desigualdad.

Tendré más que decir en el futuro sobre los beneficios de la IA, pero en este post, quiero reconocer las preocupaciones que escucho y leo más a menudo, muchas de las cuales comparto, y explicar cómo pienso sobre ellas.

Una cosa que queda clara de todo lo que se ha escrito hasta ahora sobre los riesgos de la IA -y se ha escrito mucho- es que nadie tiene todas las respuestas. Otra cosa que tengo clara es que el futuro de la IA no es tan sombrío como algunos piensan ni tan halagüeño como otros. Los riesgos son reales, pero soy optimista y creo que se pueden gestionar. A medida que vaya analizando cada preocupación, volveré sobre algunos temas:

  • Muchos de los problemas causados por la IA tienen un precedente histórico. Por ejemplo, tendrá un gran impacto en la educación, pero también lo tuvieron las calculadoras de mano hace unas décadas y, más recientemente, permitir los ordenadores en las aulas. Podemos aprender de lo que ha funcionado en el pasado.
  • Muchos de los problemas causados por la IA también pueden gestionarse con ayuda de ésta.
  • Tendremos que adaptar las leyes antiguas y adoptar otras nuevas, del mismo modo que las leyes existentes contra el fraude tuvieron que adaptarse al mundo en línea.

En este post, voy a centrarme en los riesgos que ya están presentes, o que pronto lo estarán. No me voy a ocupar de lo que ocurrirá cuando desarrollemos una IA capaz de aprender cualquier tema o tarea, a diferencia de las IA actuales creadas a propósito. Tanto si llegamos a ese punto en una década como en un siglo, la sociedad tendrá que enfrentarse a cuestiones profundas. ¿Y si una super IA establece sus propios objetivos? ¿Y si entran en conflicto con los de la humanidad? ¿Deberíamos crear una super IA?

Pero pensar en estos riesgos a largo plazo no debería ir en detrimento de los más inmediatos. Me referiré a ellos ahora.

Los deepfakes y la desinformación generados por la IA podrían socavar las elecciones y la democracia.

La idea de que la tecnología puede utilizarse para difundir mentiras y falsedades no es nueva. La gente lleva siglos haciéndolo con libros y folletos. Con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales se hizo mucho más fácil.

La IA toma este problema del texto falso y lo amplía, permitiendo prácticamente a cualquiera crear audio y vídeo falsos conocidos como deepfakes. Si recibes un mensaje de voz que suena como tu hijo diciendo «Me han secuestrado, por favor, envía 1.000 dólares a esta cuenta bancaria en los próximos 10 minutos, y no llames a la policía», va a tener un impacto emocional horrible mucho más allá del efecto de un correo electrónico que diga lo mismo.

A mayor escala, los deepfakes generados por IA podrían utilizarse para intentar inclinar una elección. Por supuesto, no hace falta una tecnología sofisticada para sembrar la duda sobre el legítimo ganador de unas elecciones, pero la IA lo hará más fácil.

Ya existen vídeos falsos que muestran imágenes falsas de políticos conocidos. Imaginemos que la mañana de unas elecciones importantes se hace viral un vídeo en el que uno de los candidatos atraca un banco. Es falso, pero los medios de comunicación y la campaña tardan varias horas en demostrarlo. ¿Cuánta gente lo verá y cambiará su voto en el último minuto? Podría inclinar la balanza, sobre todo en unas elecciones reñidas.

Cuando el cofundador de OpenAI, Sam Altman, testificó recientemente ante un comité del Senado de Estados Unidos, senadores de ambos partidos se centraron en el impacto de la IA en las elecciones y la democracia. Espero que este tema siga avanzando en la agenda de todos.

Desde luego, no hemos resuelto el problema de la desinformación y los deepfakes. Pero hay dos cosas que me hacen ser prudentemente optimista. Una es que la gente es capaz de aprender a no tomárselo todo al pie de la letra. Durante años, los usuarios de correo electrónico cayeron en estafas en las que alguien se hacía pasar por un príncipe nigeriano y prometía una gran recompensa a cambio de compartir el número de la tarjeta de crédito. Pero con el tiempo, la mayoría de la gente aprendió a mirar dos veces esos correos electrónicos. A medida que las estafas se volvían más sofisticadas, también lo hacían muchos de sus objetivos. Tendremos que hacer lo mismo con los deepfakes.

Otra cosa que me hace albergar esperanzas es que la IA pueda ayudar a identificar los deepfakes, además de a crearlos. Intel, por ejemplo, ha desarrollado un detector de deepfakes y la agencia gubernamental DARPA trabajando en tecnología para identificar si el vídeo o el audio han sido manipulados.

Será un proceso cíclico: Alguien encuentra la forma de detectar falsificaciones, otro descubre cómo contrarrestarlas, otro desarrolla contramedidas, y así sucesivamente. No será un éxito perfecto, pero tampoco estaremos indefensos.

La IA facilita el lanzamiento de ataques contra personas y gobiernos.

Hoy en día, cuando los piratas informáticos quieren encontrar fallos explotables en el software, lo hacen por fuerza bruta, escribiendo código que golpea las debilidades potenciales hasta que descubren una manera de entrar. Para ello hay que recorrer muchos callejones sin salida, lo que requiere tiempo y paciencia.

Los expertos en seguridad que quieren contrarrestar a los hackers tienen que hacer lo mismo. Cada parche de software que instalas en tu teléfono o portátil representa muchas horas de búsqueda, por parte de personas con buenas y malas intenciones por igual.

Los modelos de IA acelerarán este proceso ayudando a los hackers a escribir un código más eficaz. También podrán utilizar información pública sobre las personas, como dónde trabajan y quiénes son sus amigos, para desarrollar… phishing ataques más avanzados que los actuales.

La buena noticia es que la IA puede utilizarse tanto para fines buenos como malos. Los equipos de seguridad de los gobiernos y del sector privado necesitan disponer de las herramientas más modernas para encontrar y corregir fallos de seguridad antes de que los delincuentes puedan aprovecharse de ellos. Espero que la industria de la seguridad del software amplíe el trabajo que ya está haciendo en este frente: debería ser una de sus principales preocupaciones.

Esta es también la razón por la que no deberíamos intentar impedir temporalmente que la gente implemente nuevos desarrollos en IA, como algunos han propuesto. Los ciberdelincuentes no dejarán de crear nuevas herramientas. Tampoco lo hará la gente que quiere utilizar la IA para diseñar armas nucleares y ataques bioterroristas. El esfuerzo para detenerlos debe continuar al mismo ritmo.

Existe un riesgo relacionado a nivel global: una carrera armamentística por la IA que pueda utilizarse para diseñar y lanzar ciberataques contra otros países. Todos los gobiernos quieren tener la tecnología más potente para poder disuadir los ataques de sus adversarios. Este incentivo para no dejar que nadie se adelante podría desencadenar una carrera para crear armas cibernéticas cada vez más peligrosas. Todo el mundo saldría perdiendo.

Es un pensamiento aterrador, pero tenemos la historia para guiarnos. Aunque el régimen mundial de no proliferación nuclear tiene sus fallos, ha evitado la guerra nuclear total que tanto temía mi generación cuando éramos niños. Los gobiernos deberían plantearse la creación de un organismo mundial para la IA similar al Agencia Internacional de la Energía Atómica.

La IA le quitará el trabajo a la gente.

En los próximos años, el principal impacto de la IA en el trabajo será ayudar a las personas a hacer su trabajo de forma más eficiente. Esto será así tanto si trabajan en una fábrica como en una oficina gestionando llamadas de ventas y cuentas por pagar. Con el tiempo, la IA será tan buena expresando ideas que podrá escribir tus correos electrónicos y gestionar tu bandeja de entrada por ti. Podrá escribir una solicitud en inglés sencillo, o en cualquier otro idioma, y generar una presentación enriquecida sobre su trabajo.

Como argumenté en mi post de febrero, es bueno para la sociedad que aumente la productividad. La gente tiene más tiempo para hacer otras cosas, en el trabajo y en casa. Y la demanda de personas que ayuden a los demás -enseñanza, cuidado de pacientes y apoyo a los ancianos, por ejemplo- nunca desaparecerá. Pero es cierto que algunos trabajadores necesitarán apoyo y reciclaje mientras hacemos esta transición hacia un lugar de trabajo impulsado por la IA. Esa es una función de los gobiernos y las empresas, y tendrán que gestionarla bien para que los trabajadores no se queden atrás, para evitar el tipo de trastorno en la vida de las personas que se ha producido durante el declive de los empleos manufactureros en Estados Unidos.

Además, hay que tener en cuenta que no es la primera vez que una nueva tecnología provoca un gran cambio en el mercado laboral. No creo que el impacto de la IA sea tan dramático como la Revolución Industrial, pero sin duda será tan grande como la introducción del PC. Las aplicaciones de procesamiento de textos no acabaron con el trabajo de oficina, pero lo cambiaron para siempre. Empresarios y empleados tuvieron que adaptarse, y lo hicieron. El cambio provocado por la IA será una transición llena de baches, pero hay muchas razones para pensar que podemos reducir los trastornos en la vida y el sustento de las personas.

La IA hereda nuestros prejuicios e inventa cosas.

Las alucinaciones -término que se utiliza cuando una IA afirma con seguridad algo que simplemente no es cierto- suelen ocurrir porque la máquina no entiende el contexto de tu petición. Pídele a una IA que escriba una historia corta sobre unas vacaciones en la luna y puede que te dé una respuesta muy imaginativa. Pero pídele que te ayude a planificar un viaje a Tanzania y puede que intente enviarte a un hotel que no existe.

Otro riesgo de la inteligencia artificial es que refleje o incluso agrave los prejuicios existentes contra las personas de determinadas identidades de género, razas, etnias, etcétera.

Para entender por qué se producen las alucinaciones y los prejuicios, es importante saber cómo funcionan los modelos de IA más comunes hoy en día. En esencia, son versiones muy sofisticadas del código que permite a tu aplicación de correo electrónico predecir la siguiente palabra que vas a escribir: Escanean enormes cantidades de texto -casi todo lo que está disponible en Internet, en algunos casos- y lo analizan para encontrar patrones en el lenguaje humano.

Cuando planteas una pregunta a una IA, ésta se fija en las palabras que has utilizado y luego busca trozos de texto que se asocien a menudo con esas palabras. Si escribes «enumera los ingredientes de las tortitas», se dará cuenta de que las palabras «harina, azúcar, sal, levadura en polvo, leche y huevos» aparecen a menudo con esa frase. Entonces, basándose en lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta. (Los modelos de IA que funcionan de esta manera utilizan lo que se llama un transformador. GPT-4 es uno de esos modelos).

Este proceso explica por qué una IA puede experimentar alucinaciones o parecer parcial. No tiene contexto para las preguntas que le haces o las cosas que le dices. Si le dices que ha cometido un error, puede que te diga: «Lo siento, lo he escrito mal». Pero es una alucinación: no ha escrito nada. Sólo lo dice porque ha escaneado suficiente texto como para saber que «Lo siento, he escrito mal» es una frase que la gente suele escribir después de que alguien le corrija.

Del mismo modo, los modelos de IA heredan los prejuicios del texto con el que se entrenan. Si uno lee mucho sobre, digamos, médicos, y el texto menciona mayoritariamente a médicos varones, entonces sus respuestas asumirán que la mayoría de los médicos son hombres.

Aunque algunos investigadores piensan que las alucinaciones son un problema inherente, yo no estoy de acuerdo. Soy optimista y creo que, con el tiempo, se podrá enseñar a los modelos de IA a distinguir la realidad de la ficción. OpenAI, por ejemplo, está haciendo un trabajo prometedor en este frente.

Otras organizaciones, incluida la Instituto Alan Turing y el Instituto Nacional de Normas y Tecnología están trabajando en el problema de los prejuicios. Uno de los enfoques consiste en incorporar valores humanos y razonamientos de alto nivel a la IA. Es análogo al modo en que trabaja un ser humano consciente de sí mismo: Puede que supongas que la mayoría de los médicos son hombres, pero eres lo bastante consciente de ello como para saber que tienes que luchar contra ello intencionadamente. La IA puede funcionar de forma parecida, sobre todo si los modelos los diseñan personas de orígenes diversos.

Por último, todo el que utilice IA debe ser consciente del problema de la parcialidad y convertirse en un usuario informado. El ensayo que le pidas a una IA que redacte puede estar tan plagado de prejuicios como de errores factuales. Tendrás que comprobar tanto los prejuicios de la IA como los tuyos propios.

Los estudiantes no aprenderán a escribir porque la IA hará el trabajo por ellos.

A muchos profesores les preocupan las formas en que la IA socavará su trabajo con los alumnos. En una época en la que cualquiera con acceso a Internet puede utilizar la IA para escribir un primer borrador respetable de una redacción, ¿qué impedirá que los alumnos lo entreguen como su propio trabajo?

Ya existen herramientas de IA que están aprendiendo para saber si algo ha sido escrito por una persona o por un ordenador, de modo que los profesores puedan saber cuándo sus alumnos no están haciendo su propio trabajo. Pero algunos profesores no intentan impedir que sus alumnos utilicen la IA en sus escritos, sino que la fomentan.

En enero, una veterana profesora de inglés llamada Cherie Shields escribió un artículo en Semana de la Educación sobre cómo utiliza ChatGPT en clase. Ha ayudado a sus alumnos en todo, desde empezar una redacción hasta escribir esquemas e incluso darles feedback sobre su trabajo.

«Los profesores tendrán que adoptar la tecnología de IA como una herramienta más a la que los alumnos tienen acceso», escribió. «Al igual que antes enseñábamos a los alumnos a hacer una búsqueda correcta en Google, los profesores deberían diseñar lecciones claras sobre cómo el bot ChatGPT puede ayudar en la redacción de ensayos». Reconocer la existencia de la IA y ayudar a los estudiantes a trabajar con ella podría revolucionar nuestra forma de enseñar.» No todos los profesores tienen tiempo para aprender y utilizar una nueva herramienta, pero educadores como Cherie Shields sostienen que los que sí lo tienen se beneficiarán mucho.

Me recuerda a la época en que las calculadoras electrónicas se generalizaron en los años setenta y ochenta. A algunos profesores de matemáticas les preocupaba que los alumnos dejaran de aprender aritmética básica, pero otros adoptaron la nueva tecnología y se centraron en las habilidades de pensamiento que hay detrás de la aritmética.

Hay otra forma en que la IA puede ayudar con la escritura y el pensamiento crítico. Especialmente en estos primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere artículos y luego trabajar con sus alumnos para comprobar los hechos. Organizaciones educativas sin ánimo de lucro como Khan Academy y Proyecto REA que yo financio, ofrece a profesores y alumnos herramientas en línea gratuitas que hacen gran hincapié en la comprobación de las afirmaciones. Pocas habilidades son más importantes que saber distinguir lo verdadero de lo falso.

Tenemos que asegurarnos de que el software educativo ayude a cerrar la brecha de rendimiento, en lugar de empeorarla. El software actual está orientado sobre todo a potenciar a los estudiantes que ya están motivados. Puede desarrollar un plan de estudio para ti, indicarte buenos recursos y evaluar tus conocimientos. Pero aún no sabe cómo atraerte hacia una asignatura que no te interesa. Ese es un problema que los desarrolladores tendrán que resolver para que estudiantes de todo tipo puedan beneficiarse de la IA.

¿Qué será lo próximo?

Creo que hay más razones que de sobra para ser optimistas y pensar que podemos gestionar los riesgos de la IA al tiempo que maximizamos sus beneficios. Pero tenemos que movernos rápido.

Los gobiernos tienen que acumular experiencia en inteligencia artificial para poder elaborar leyes y reglamentos informados que respondan a esta nueva tecnología. Tendrán que lidiar con la desinformación y las falsificaciones, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Por citar sólo un ejemplo: La ley tiene que ser clara sobre qué usos de las falsificaciones profundas son legales y sobre cómo deben etiquetarse las falsificaciones profundas para que todo el mundo entienda cuándo algo que está viendo u oyendo no es auténtico.

Los líderes políticos tendrán que estar preparados para mantener un diálogo informado y reflexivo con sus electores. También tendrán que decidir en qué medida colaboran con otros países en estas cuestiones y en qué medida lo hacen solos.

En el sector privado, las empresas de IA deben realizar su trabajo de forma segura y responsable. Esto incluye proteger la privacidad de las personas, asegurarse de que sus modelos de IA reflejan los valores humanos básicos, minimizar los prejuicios, extender los beneficios al mayor número de personas posible y evitar que la tecnología sea utilizada por delincuentes o terroristas. Las empresas de muchos sectores de la economía tendrán que ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Y los clientes deben saber siempre cuándo están interactuando con una IA y no con un humano.

Por último, animo a todo el mundo a seguir la evolución de la IA en la medida de lo posible. Es la innovación más transformadora que veremos en nuestras vidas, y un debate público sano dependerá de que todo el mundo conozca la tecnología, sus beneficios y sus riesgos. Los beneficios serán enormes, y la mejor razón para creer que podemos gestionar los riesgos es que ya lo hemos hecho antes.

Deja una opinión

Deje una respuesta

🤖 AI MAFIA
Logo