Puntos Claves:
- Google DeepMind crea una organización enfocada en la seguridad y ética de la inteligencia artificial denominada Seguridad y Alineación de la IA.
- La iniciativa surge en respuesta a preocupaciones sobre el potencial de las herramientas GenAI para difundir desinformación.
- Se formarán nuevos equipos de investigación y se desarrollarán salvaguardias para modelos como Gemini de Google, además de abordar desafíos futuros como la AGI (inteligencia artificial general).
Construyendo un Marco de Seguridad para la Inteligencia Artificial
Con el aumento de preocupaciones sobre la facilidad con la que la inteligencia artificial podría ser utilizada para esparcir desinformación, Google DeepMind ha establecido una nueva entidad. Bajo el nombre de Seguridad y Alineación de la IA, esta organización tiene el objetivo de fomentar la confiabilidad en las herramientas de IA y disminuir los riesgos potenciales asociados.
Mientras que Google ha disminuido su número de empleados en el último trimestre fiscal, ha decidido invertir en la seguridad de la inteligencia artificial, señalando un enfoque serio en este asunto crítico. La recién formada Seguridad y Alineación de la IA se prepara para afrontar los desafíos éticos y técnicos, formando equipos de expertos tanto existentes como nuevos, especializados en la materia.
Afrontando el Peligro de la Desinformación y la Ética de la IA
Un foco primordial de esta organización será diseñar y aplicar medidas cautelares en los modelos de inteligencia artificial de Google, como su modelo estrella Gemini. Los esfuerzos a corto plazo se centrarán en prevenir asesoramiento médico incorrecto, proteger la seguridad de los menores y evitar el refuerzo de prejuicios e injusticias en la sociedad.
La Seguridad y Alineación de la IA no solo se dedicará a las amenazas actuales, sino que también se enfocará en prevenir futuros riesgos como la participación de IA en actividades terroristas o la desestabilización social. Con nuevas contrataciones y un enfoque especial en la inteligencia artificial general (AGI), Google busca adelantarse a posibles escenarios perjudiciales vinculados al avance de la IA.
Innovación y Cautela en la Exploración de la AGI
Los esfuerzos por mantener el desarrollo tecnológico al día frente a la competencia de IA también quedan reflejados en la creación simultánea de dos equipos trabajando en problemas similares. El nuevo equipo de seguridad en la AGI coexistirá con el equipo de Alineación Escalable de Londres, cada uno aportando sus perspectivas únicas para controlar la IA superinteligente.
Anca Dragan, quien fuera investigadora en Waymo y profesora en UC Berkeley, liderará el equipo centrado en la alineación de valores humanos y IA. Su experiencia y su visión de trabajar simultáneamente en riesgos actuales y futuros subraya la complejidad de los desafíos que enfrenta Google en este terreno.
En una encuesta de YouGov, el 85% de los estadounidenses dijo que estaban muy preocupados o algo preocupados por la propagación de deepfakes de video y audio engañosos. Una encuesta separada de The Associated Press-NORC Center for Public Affairs Research encontró que casi el 60% de los adultos piensan que las herramientas de IA aumentarán el volumen de información falsa y engañosa durante el ciclo electoral de Estados Unidos en 2024.
Las encuestas indican una creciente preocupación por la proliferación de deepfakes y la desinformación vinculada a la IA. Compañías como Cnvrg.io, subsidiaria de Intel, están investigando cómo otras empresas perciben y planean lidiar con estos desafíos, reflejando la urgencia de una seguridad robusta en el ámbito de las herramientas de inteligencia artificial.
En resumen, Google DeepMind se propone construir un futuro donde la IA no solo sea avanzada, sino también segura y alineada con los valores humanos a través de su nueva organización Seguridad y Alineación de la IA. Con enfoques innovadores y un liderazgo experto, se espera una revolución en la forma en que interactuamos y nos beneficiamos de la inteligencia artificial.
Puntos Claves:
- Preocupaciones sobre la privacidad, confiabilidad y costos relacionados con la implementación de aplicaciones de Inteligencia Artificial Generativa (GenAI).
- Dudas en la toma de decisiones de los empleados debido a información inexacta proporcionada por aplicaciones de GenAI.
- Desafíos en la seguridad de la IA y la promesa de DeepMind de enfocarse más en este aspecto en el futuro.
Incertidumbres y Riesgos en la Adopción de Tecnología GenAI
En la vanguardia de la adopción tecnológica, se encuentran las aplicaciones de Inteligencia Artificial Generativa (GenAI). Pese a su potencial transformador, aproximadamente un cuarto de los individuos consultados han manifestado serias inquietudes. Los temores se centran en aspectos críticos como la privacidad, la fiabilidad, los altos costes de despliegue y la falta de competencias técnicas para explotar estos sistemas a fondo.
Preocupaciones Ejecutivas ante la Información de GenAI
Un estudio realizado por Riskonnect, una firma especializada en software de gestión de riesgos, revela que más de la mitad de los directivos entrevistados expresaron su preocupación por las decisiones empresariales que se basan en datos erróneos provenientes de estas aplicaciones de inteligencia artificial avanzada.
Dificultades Prácticas con las Herramientas GenAI en la Industria
No son infundadas estas reservas. Según una publicación reciente de The Wall Street Journal, la suite Copilot de Microsoft, que funciona con tecnología GenAI semejante a Gemini, ha demostrado carencias al cometer errores en tareas como resumir reuniones y generar fórmulas de hojas de cálculo. Estos fallos son resultado de la «alucinación», un fenómeno característico de las aplicaciones GenAI que consiste en la generación de datos ficticios o incorrectos, y muchos especialistas consideran que este problema podría no tener solución definitiva.
La Respuesta de DeepMind a los Desafíos de Seguridad en IA
A frente de los retos de seguridad en la inteligencia artificial, DeepMind no ofrece una solución infalible. La entidad sí se compromete a destinar más recursos para abordar estos desafíos y a establecer un esquema evaluativo del riesgo de seguridad para modelos GenAI «pronto». Quizás lo clave reside en abordar los sesgos cognitivos humanos inherentes a los datos de entrenamiento, adquirir estimaciones precisas de incertidumbre, implementar sistemas de monitoreo en tiempo real capaces de identificar errores y asegurar diálogos de confirmación para decisiones críticas, así como evaluar continuamente las capacidades del modelo para evitar comportamientos peligrosos.
Con todo, la confianza de los usuarios, la opinión pública y las entidades reguladoras dependerá mucho de la severidad de esos comportamientos imprevistos y de quién sea afectado negativamente. «Nuestros usuarios esperanzadamente experimentarán un modelo cada vez más útil y seguro con el tiempo», comenta Dragan, de DeepMind, con optimismo. La realidad, sin embargo, decidirá si estas promesas serán suficientes.