Microsoft busca un plan B para una IA más rentable que GPT-4 de OpenAI para Reducir Costes

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-09-27 18:03:31

Microsoft posee algo menos de la mitad de OpenAI, pero al parecer sigue trabajando en un Plan B para una IA más eficiente.

La razón, según The Information, es que los modelos de IA de OpenAI, como el GPT-4, son caros de ejecutar. El medio afirma que sus fuentes son un empleado y otro que se ha marchado recientemente.

El jefe de investigación de Microsoft, Peter Lee, ha encargado a «muchos» de los 1.500 investigadores de la empresa que desarrollen sistemas de IA conversacional más pequeños y baratos, aunque es probable que sean menos capaces que el GPT-4.

Microsoft está incorporando capacidades de IA a casi todos sus productos, e incluso ha lanzado un Copilot para Windows basado en el chat. Con más de mil millones de usuarios potenciales, el coste del funcionamiento de la IA podría dispararse, anulando cualquier beneficio económico derivado, por ejemplo, de un uso más amplio e intensivo. Google se enfrenta a un reto similar al introducir la IA generativa en Google Search.

Una buena IA es cara

Al parecer, el cambio está aún en sus primeras fases. Sin embargo, los equipos de producto de Microsoft ya están probando modelos internos de IA en productos como Bing Chat.

Según Mikhail Parakhin, jefe de búsquedas de Microsoft, Bing Chat utiliza actualmente el 100% de GPT-4 en los modos Creativo y Precisión. En el modo Equilibrado, que es probablemente el que eligen la mayoría de los usuarios, Microsoft utiliza su «modelo Prometheus», una «colección de habilidades y técnicas», así como sus modelos lingüísticos Turing como complemento.

Los modelos Turing son menos potentes que GPT-4 y están diseñados para reconocer y responder preguntas sencillas y pasar las preguntas más difíciles a GPT-4, que no siempre funciona bien.

Microsoft también presentó recientemente el Phi-1, de 1.300 millones de parámetros, un modelo de código pequeño y eficiente que fue entrenado con datos de calidad de libro de texto. Alcanza el rendimiento de código de modelos mucho más grandes en Python, pero está muy por debajo de GPT-4.

Además, Microsoft está experimentando con modelos como Orca que se basa en la Llama 2 de Meta y de la que se dice que alcanza parcialmente el nivel de GPT-3.5 y GPT-4, aunque es más pequeña y eficiente. Sin embargo, los resultados de los benchmarks y la experiencia real de los usuarios pueden ser muy diferentes.

Al parecer, el director de investigación, Peter Lee, ordenó que gran parte de las 2.000 tarjetas gráficas Nvidia de que disponía su unidad de investigación se utilizaran para desarrollar esos modelos más eficientes, capaces de realizar tareas más sencillas que GPT-4, como la atención al cliente. Estos recursos son supuestamente escasos en comparación con los destinados a OpenAI.

Tensiones Entre Microsoft y OpenAI Mientras Compiten por el Mercado de IA Empresarial

Según el Wall Street Journal, Microsoft posee el 49% de OpenAI. La información también da por hecho que la relación entre ambas empresas se prolongará durante muchos años.

No obstante, se dice que existen algunas tensiones porque Microsoft y OpenAI no siempre coordinan el desarrollo de sus productos y luchan directamente por el mismo público objetivo con productos como ChatGPT Enterprise y Bing Chat Enterprise.

Uno de estos ejemplos: Recientemente, Microsoft publicó en Github una interfaz gratuita «Private ChatGPT» basada en Azure que se promocionaba por tener ventajas de privacidad sobre ChatGPT. La página de Github ha sido retirada. Microsoft no respondió a las múltiples peticiones de comentarios sobre Private ChatGPT y por qué fue retirada.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo