En su conferencia para desarrolladores, OpenAI anunció GPT-4 Turbo, un modelo de GPT-4 más barato, rápido e inteligente. Los desarrolladores obtienen un montón de nuevas funciones de la API a un coste mucho menor.
El nuevo GPT-4 Turbo ya está disponible como vista previa a través de la API de OpenAI y directamente en ChatGPT. Según Sam Altman, CEO de OpenAI, GPT-4 Turbo es «mucho más rápido» e «inteligente».
El lanzamiento de Turbo también explica los rumores sobre una fecha de actualización de ChatGPT: GPT-4 Turbo está actualizado hasta abril de 2023. El ChatGPT original sólo tenía conocimientos hasta septiembre de 2021. Altman dijo que OpenAI planea actualizar el modelo con más regularidad en el futuro.
Probablemente lo más destacado para los desarrolladores sea la significativa reducción de precio que viene con GPT-4 Turbo: los tokens de entrada (procesamiento de texto) para Turbo son tres veces más baratos, y los tokens de salida (generación de texto) son dos veces más baratos.
El nuevo modelo Turbo cuesta 0,01 dólares por cada 1.000 tokens, frente a los 0,03 dólares del GPT-4 para los tokens de entrada, y 0,03 dólares para los tokens de salida, frente a los 0,06 dólares del GPT-4. También es mucho más barato que GPT-4 32Ka pesar de tener una ventana de contexto cuatro veces mayor (véase más adelante).
Otro aspecto destacado para los desarrolladores: OpenAI es ampliando la GPT-4 Turbo API para incluir el procesamiento de imágenes, la integración de DALL-E 3 y la conversión de texto en voz. El modelo «gpt-4-vision-preview» puede analizar y generar imágenes y crear habla de tipo humano a partir de texto.
OpenAI también está trabajando en un programa experimental de ajuste de GPT-4 y en un programa de modelo personalizado para organizaciones con grandes conjuntos de datos propios. El ajuste GPT-3.5 se ampliará al modelo 16K.
GPT-4 Turbo recibe mucha más atención
Probablemente el cambio técnico más importante es un aumento de la llamada ventana contextuales decir, el número de palabras que GPT-4 Turbo puede procesar a la vez y tener en cuenta a la hora de generar resultados. Anteriormente, la ventana de contexto era de un máximo de 32.000 tokens. GPT-4 Turbo tiene 128.000 tokens.
Esto equivale a hasta 100.000 palabras o 300 páginas en un libro estándar, según Altman. También dijo que el modelo 128K-GPT-4 Turbo es «mucho más preciso» en términos de contexto general.
OpenAI también confirma el modelo GPT-4 All, que ya está disponible y se ha podido ver antes de la conferencia. El modelo All cambia automáticamente entre los distintos modelos de GPT para código de programa (Advanced Data Analysis) o generación de imágenes (DALL-E 3), en función de los requisitos del usuario. Antes, los usuarios tenían que seleccionar manualmente el modelo adecuado antes de introducir los datos.
El hecho de que GPT-4 Turbo sea ahora oficial también es interesante porque formaba parte de un rumor anterior de que OpenAI había abandonado un modelo disperso de nivel GPT-4 llamado «Arrakis», que se suponía que era más eficiente pero no funcionó, en favor de Turbo.
API de asistentes y protección de derechos de autor
OpenAI también introdujo la API Assistants para ayudar a los desarrolladores a integrar funciones de IA asistida en sus aplicaciones. La API habilita hilos persistentes e infinitos, lo que permite a los desarrolladores superar las limitaciones de la ventana contextual.
Los asistentes tienen acceso a nuevas herramientas como Code Interpreter, que escribe y ejecuta código Python en un entorno compartimentado; Retrieval, que enriquece al asistente con conocimientos externos; y Function Call, que permite a los asistentes llamar a funciones personalizadas.
Vídeo: OpenAI
La API Assistants se basa en la misma funcionalidad que los productos GPT de OpenAI. Los desarrolladores pueden probar la beta de la API Assistants en Assistants Playground sin escribir ningún código. La beta ya está disponible.
Según Sam Altman, CEO de OpenAI, los asistentes son un primer paso hacia agentes de IA completos y añadirán nuevas capacidades en el futuro.
Otro nuevo servicio es el «Escudo de derechos de autor», que defiende a los clientes frente a reclamaciones legales relacionadas con la infracción de derechos de autor de contenidos generados con modelos de OpenAI y paga por ellas. Esta protección se aplica a las funciones disponibles públicamente de ChatGPT Enterprise y de la plataforma para desarrolladores.
Microsoft y Google también han anunciado este tipo de protecciones. Son una señal de la confianza de Big AI en ganar los pleitos actuales y futuros.
Puede ver la keynote completa en el siguiente vídeo: