
2023-11-12 15:05:47
El cofundador de OpenAI, Greg Brockman, habló con el presidente francés Emmanuel Macron sobre las oportunidades y los riesgos de la inteligencia artificial. Abordó tres puntos principales: regulación, despliegue y predicciones.
Brockman destacó el potencial de modelos de IA como el GPT-4 para revolucionar diversos campos como la medicina, el derecho y la agricultura. Citó su experiencia personal y estudios recientes que demuestran que la IA puede mejorar la calidad del trabajo y reducir costes.
Al mismo tiempo, subrayó la importancia de la seguridad y la regulación en el desarrollo de la IA, comparándola con la criptografía. En este caso también existe el escenario del doble uso, es decir, la posibilidad de utilizar la tecnología tanto para fines buenos como malos.
Por ejemplo, una IA como GPT-4 puede responder preguntas o traducir idiomas. Pero también podría utilizarse para cosas como inventar noticias falsas o crear imágenes falsas.
Brockman sugirió que los modelos de IA más capaces y avanzados, que él denomina modelos de IA de frontera, deberían estar sujetos a una supervisión especial. Sin embargo, esto no debería hacerse a expensas de otros modelos, especialmente los de la comunidad de código abierto.
A veces se acusa a OpenAI y a otras grandes empresas de IA de «captura normativa», es decir, de utilizar la regulación política para crear obstáculos insuperables para los desarrolladores más pequeños y de código abierto con el fin de proteger su propio modelo de negocio. Brockman aborda indirectamente estas acusaciones aquí.
El despliegue iterativo es la mejor medida de seguridad
Según Brockman, la decisión de seguridad más importante de OpenAI es el enfoque de desarrollo iterativo que utiliza desde GPT-2.
Este enfoque implica la publicación gradual de mejores versiones de la tecnología de IA, ya sea directamente mediante la publicación de versiones modelo o a través de la API o de una interfaz como ChatGPT, la recopilación de comentarios sobre la seguridad y la utilidad, y la participación del mundo en el proceso de desarrollo.
Esta es la única forma de que se entiendan el potencial y los beneficios, cree Brockman. «Así que he aceptado que los titulares de las noticias hablen del miedo, pero sólo cuando la gente utilice la tecnología entenderá realmente por qué la queremos».
Como ejemplo positivo, Brockman cita el enfoque iterativo de OpenAI que condujo al lanzamiento de ChatGPT, que desencadenó una conversación mundial sobre la IA y la seguridad de la IA. En este contexto, Brockman subraya la importancia de la aportación democrática en el proceso de desarrollo.
Predecir las capacidades de la IA
Brockman reconoció que la historia de la IA está plagada de predicciones erróneas de expertos. La propia OpenAI ha cambiado de rumbo con cada modelo de GPT, y espera que GPT-5 difiera de los modelos anteriores en aspectos que aún no pueden predecirse.
Se necesita más inversión en ciencia, incluyendo predicciones científicas, evaluaciones de seguridad y rendimiento rigurosamente definidas y mediciones objetivas, para guiar el desarrollo, despliegue y regulación de los modelos de IA de vanguardia en el futuro.
Brockman destaca especialmente la predicción de OpenAI sobre las capacidades clave de GPT-4 antes de que el modelo estuviera completamente entrenado. «Cada vez aprendemos más a ver a la vuelta de la esquina. Invertimos mucho en construir una pila de aprendizaje profundo que se escalara de forma predecible.»
Pero lo más importante, dice, es hablar y trabajar con muchas partes interesadas del gobierno, la sociedad civil, la industria y el mundo académico. «El mundo sigue siendo más inteligente que cualquiera de nosotros individualmente».