Tanto los directivos de los gigantes tecnológicos como los investigadores sienten aprensión por las posibles repercusiones negativas de la Inteligencia Artificial (IA). Una carta abierta publicada por el Future of Life Institute el pasado mes de marzo y firmada por más de 3.000 personas a principios de julio, entre ellas el consejero delegado (CEO) de SpaceX, Telsa y Twitter, Elon Musk; el cofundador de Apple, Steve Wozniak; y el escritor Yuval Noah Harari, afirmaba que la IA presenta «profundos riesgos para la sociedad y la humanidad». Aumentan los temores sobre las consecuencias de la IA, desde los sesgos, la desinformación y la pérdida de empleos hasta las armas autónomas.
En Indonesia, la IA se ha utilizado ampliamente en muchos sectores, desde la sanidad a la educación, sin embargo, la comidilla de los últimos tiempos ha sido ChatGPT, una aplicación creada por OpenAI, en torno a sus desventajas y ventajas.
Los expertos de Indonesia responden de distintas maneras a las preocupaciones sobre los efectos negativos de la IA. Un experto en IA del Instituto de Tecnología Sepuluh Nopember (ITS), el profesor Mauridhi Hery Purnomo, reconoció las posibles amenazas, pero tachó de excesivas las reacciones, sobre todo cuando se comparó la IA con una bomba nuclear. «Por eso existe la frase ‘el hombre detrás de la pistola’. (Las máquinas de IA) no pueden funcionar solas», declaró Mauridhi durante una conversación con periodistas de Tempo en junio en Yakarta.
Por su parte, el Presidente de la Colaboración para la Investigación y la Innovación en la Industria de la Inteligencia Artificial (Korika), el profesor Hammam Riza, afirmó que la IA puede compararse a la tecnología nuclear. Puede utilizarse para crear una bomba atómica devastadora, pero en tiempos de paz puede aprovecharse para producir energía renovable. «La IA puede verse de esta manera», dijo Hamman a Abdul e Iwan Kurniawan el 19 de junio.
Mauridhi Hery Purnomo, Profesor, ITS
El hombre detrás de la pistola
¿Cuál es el progreso actual de la IA?
Cada país tiene sus propios intereses. Ya sea dinero para financiar nuevas investigaciones o afición. Yo estuve mucho tiempo en Japón. ¿Es pecado si hago un programa para lograr algo pero otros lo usan para ciertos placeres? La población de Japón está disminuyendo. La gente está sustituyendo a sus esposas o maridos por muñecas.
¿En qué se centra su investigación?
Soy muy activo en el campo de la tercera edad. Un estudiante bajo mi tutoría creó robots asistentes. Y es difícil hacerlo sin IA. ITS también fabricó 70 robots que se utilizan en los principales hospitales de Indonesia para ayudar a las enfermeras.
Cuando llegó el Covid, las enfermeras tenían que llevar todo tipo de ropa. Pero con los robots, solo había que rociarlas. Y puedes entablar conversación con ellos.
¿Cuál es nuestro principal progreso?
Por cierto, me dedico sobre todo a la medicina y la educación. Desarrollamos (materiales) didácticos para
niños de guardería relacionados especialmente con la pandemia. Acabamos de desarrollar un juego virtual. Utiliza una cámara, un monitor y un televisor. Es un juego de RV (realidad virtual). Los niños de guardería aún no saben leer, escribir ni calcular. Así que se les enseña a usar la RV con IA dentro.
¿Hay algún sector que no haya sido tocado por la IA?
Supongo que no hay excepción.
Actualmente hay mucho revuelo en torno a ChatGPT. ¿Cuál es tu crítica?
Muchas. Por ejemplo, escribe tu nombre y el mío. Todos tus escritos en un periódico saldrán bajo tu nombre y todos los trabajos científicos bajo el mío.
¿Está muy influenciado por la información que ya existe?
Sí, el conocimiento depende de la información.
¿Cuál es la cuestión ética que más le preocupa de la IA?
En realidad, me preocupan mis hijos. Los padres dirían: «Usa esto (ChatGPT) para hacer los deberes». Los padres son unos vagos. Eso es más peligroso.
¿Cuál es el peligro?
Para su futuro. Les da pereza. La gente es perezosa hasta para usar calculadoras.
Varias personalidades internacionales han firmado una carta abierta porque se considera que la IA puede destruir a la humanidad. ¿Cuál es su reacción?
No lo creo. Es excesivo.
Una de las preocupaciones son las armas autónomas.
Sí. Por eso existe la frase «el hombre detrás del arma». (Las armas de IA) no pueden funcionar por sí solas. En tiempos de guerra, su uso depende de la persona que está detrás. Las órdenes en las guerras vienen de los presidentes.
¿No son los impactos de la IA, incluido el ChatGPT, motivo de grave preocupación?
Sí, como he dicho antes. Debería haber señales porque hay una ética que seguir incluso en el mundo de la IA. Pero aún no tenemos (un código ético).
Entonces, ¿estas preocupaciones son reales?
Sí. La pregunta es: «¿Es pecado si fabrico algo (para investigación) y se utiliza para otra cosa?». Si hay señales que digan que es pecado, el (fabricante) seguro que debe tirar la toalla.
Entonces, ¿son necesarias las regulaciones de la IA?
Lo son. (Código de) ética.
¿No son normas?
Normativa para la cibernética. Ética para la IA.
¿Existe (un código ético)?
Internacionalmente sí. Nosotros no.
¿Cuáles son las cuestiones más fundamentales que deben regularse en la ética de la IA?
Las relacionadas con la ciberseguridad. Aquí, a veces se hace un mal uso de los datos personales. Por ejemplo, me fotografían. Pero, a menos que yo dé permiso, ¿dónde se colocaría? Enseño a mis alumnos (sobre ética). Cuando estuve en Japón, les recordé que no fotografiaran a niños pequeños porque eran hijos de otras personas. Si sus fotos aparecían en algún sitio, se podría culpar a sus profesores. Eso es ética, ¿no? ¿La tenemos nosotros? No.
*****
<!-más–>
Hammam Riza, Presidente de Korika
Debería autorizarse como los alimentos y los medicamentos
¿Cuál es la situación del desarrollo de la IA en Indonesia?
Podemos distinguir la IA en función de los resultados. Está la IA descriptiva, que ofrece análisis descriptivos. A continuación, la IA predictiva pronostica resultados. A continuación, la IA prescriptiva ofrece recomendaciones. Esta IA prescriptiva es la IA generativa. «Escríbeme un artículo», y lo hará por ti.
Entonces también puede predecir los resultados de las elecciones presidenciales.
Podría si hay datos. Por ejemplo, tomar las dos elecciones anteriores y ver cómo fueron las guerras en las redes sociales en las elecciones de 2014 y 2019, quiénes eran los candidatos y de qué partidos eran. Si podemos extraer esa característica, podemos enseñársela (a la máquina). Pero el problema es que los candidatos son diferentes.
¿Cuál es la utilización más destacada de la IA en Indonesia?
No somos conscientes de que ya estamos utilizando la IA. Lo que ocurre es que la utilizamos implícitamente en aplicaciones móviles.
¿Por ejemplo?
Cada vez que utilizamos Google Search, ya estamos utilizando IA. O cuando vemos vídeos en YouTube o compramos billetes en páginas web de viajes. Ya conoce nuestros caracteres y preferencias. Creo que el punto fuerte de la IA es la personalización.
¿Cuál es la diferencia entre las herramientas de IA generativa y otras herramientas de IA?
Hay que dar indicaciones a las herramientas de IA generativa. Hay que hacer preguntas. Generará frases ChatGPT u obras de arte. «Quiero una foto mía arriba con este fondo», y la creará.
En general, ¿cuáles son las ventajas y desventajas de la IA?
En cuanto a las ventajas, creo que aumenta la productividad. También ayuda a potenciar la creatividad. Yo utilizo ChatGPT para preparar presentaciones. En cuanto a los medios, facilita mucho la comprobación de todo lo relacionado con un tema determinado. Aunque puedes utilizar motores de búsqueda, con la IA puedes ser más organizado.
¿Incluso con tus compras?
(Te hace) estar más informado porque te da opciones para tomar decisiones.
Pero también puede orientarte hacia determinados productos.
Ese es el origen de su problema. Lo llamamos sesgo. Aprende de los datos que introducimos. Si nos inclinamos por un determinado grupo o un producto, dará respuestas en consecuencia. Por ejemplo, si enseñamos a un niño desde pequeño a comer verduras, seguirá comiéndolas. A diferencia de mi hijo, al que nunca le dieron verduras. No comía verduras. Yo tampoco.
¿Cuáles son las desventajas?
Los datos pueden estar sesgados. Inexactos. Por lo tanto, los resultados, incluidas sus recomendaciones, pueden ser erróneos. Eso es porque de hecho tiene limitaciones en términos de poder de razonamiento, y la lógica, que se ha solucionado a través de GPT4.
¿Cuál es la causa del sesgo y la inexactitud?
Debido a la introducción de datos inexactos. En esencia, se trata de una máquina de aprendizaje que aprende de los datos que introducimos.
En cuanto a la ética, ¿cuáles son los problemas más evidentes de ChatGPT?
Por ejemplo, si preguntamos quiénes son los candidatos presidenciales o quién tiene razón entre Ucrania y Rusia en la guerra. Si los datos no son neutrales, también daría respuestas sesgadas.
¿Hay otras cuestiones éticas?
Los usuarios pueden carecer de ética. Por ejemplo, los estudiantes hacen los deberes con la aplicación. Eso les convierte en plagiarios. También puede inhibir el pensamiento crítico porque se vuelven dependientes de ella.
¿Cuáles son las principales quejas que le han transmitido en relación con ChatGPT?
Algunas personas no tienen fe en ello. Quizá porque ven que puede sustituirles o que podrían perder su trabajo. O que la IA controlará el mundo. El mundo puede llegar a su fin si todo es sustituido por robots. La IA generativa ya es capaz de comunicarse con nosotros. Aunque ya han existido robots, no podían comunicarse como lo hace ChatGPT. Unido a esta capacidad, puede hacerse con muchos puestos de trabajo.
¿Has oído aquí alguna queja por la pérdida de puestos de trabajo a causa de la IA?
Todavía no. Por ejemplo, en nuestro país hay muchos agricultores. La IA ofrece una agricultura inteligente en la que se utilizan drones para cartografiar o controlar los cultivos en busca de enfermedades. A los agricultores les lleva mucho tiempo hacerlo. Podemos pensar que la automatización aumentará la productividad. Pero, ¿y si ahora tenemos 1.000 agricultores que trabajan en una determinada extensión de terreno y son sustituidos por la tecnología dejando sólo 100? Muchos ven esto como una perdición.
¿Cómo superar si la tecnología de IA se hace con los puestos de trabajo?
(Las personas) deben mejorar sus habilidades.