Un alto cargo del Pentágono advierte contra el uso de la IA generativa en el ejército

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-10-23 15:44:46

El alto funcionario estadounidense para el despliegue de IA en el Pentágono advirtió en una charla contra el uso de grandes modelos lingüísticos en el ejército.

El Dr. Craig Martell, Jefe de Inteligencia Artificial y Digital (CDAO) del Departamento de Defensa de EE.UU., dio una sobria charla en DEFCON sobre el bombo publicitario que rodea a la IA generativa, como los grandes modelos lingüísticos. Advirtió contra su uso sin métodos de validación eficaces.

Como CDAO, Martel es el «alto funcionario responsable de la aceleración de la adopción por parte del DoD de datos, análisis e IA para generar ventajas en la toma de decisiones, desde la sala de juntas hasta el campo de batalla».

Martel, que antes de ocupar su cargo actual dirigió proyectos de IA en LinkedIn, Dropbox y Lyft, entre otros, subrayó que aunque los grandes modelos lingüísticos como ChatGPT pueden generar texto de forma notable, esta capacidad no implica verdadera inteligencia. Sus resultados contienen a menudo inexactitudes y conclusiones irracionales, y los modelos no han sido entrenados para pensar de forma lógica.

Aunque hay muchos casos de uso útiles, como la codificación, y su equipo acaba de iniciar un proyecto para buscar sistemáticamente aplicaciones útiles, Martel afirma que los humanos tendemos a menudo a equiparar la fluidez lingüística con la racionalidad. Esto podría llevarnos a pensar que los modelos lingüísticos son más inteligentes de lo que son y, por tanto, a sobrestimar sus capacidades. Martel afirma que debemos tener cuidado con esta tendencia y no antropomorfizar a los chatbots.

La exageración de los modelos lingüísticos es peligrosa

Martell advirtió de los peligros de introducir irresponsablemente la IA en el ejército. También señaló la gran carga cognitiva que supone para los humanos comprobar manualmente los modelos lingüísticos en busca de errores.

Por eso abogó por el desarrollo de mecanismos fiables para validar automáticamente los resultados antes de utilizarlos. Este llamamiento formaba parte de su mensaje central: los modelos lingüísticos necesitan una cultura de desarrollo responsable y sin exageraciones.

La comunidad de la IA debe desarrollar condiciones de aceptabilidad

Según él, la comunidad de la IA necesita desarrollar normas para validar la seguridad de los modelos en diferentes contextos, incluidas unas condiciones de aceptabilidad claramente definidas similares a las que existen para la conducción autónoma.

Los modelos lingüísticos tienen un gran potencial científico, pero aún no son productos acabados. Antes de que puedan utilizarse en áreas sensibles, dijo, es importante explorar sus limitaciones y hacerlos fiables. Para él, la comunidad de hackers es un socio importante en este esfuerzo: «Hoy estoy aquí porque necesito que los hackers de todo el mundo nos digan cómo se rompen estas cosas. Porque si no sabemos cómo se rompe, no podemos aclarar las condiciones de aceptabilidad. Y si no tenemos claras las condiciones de aceptabilidad, no podemos empujar a la industria a construir lo correcto para que podamos desplegarlo y utilizarlo».

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo