La IA híbrida es el futuro de la tecnología responsable y centrada en el usuario

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-29 12:34:36

Con un enfoque continuo en la ética y la regulación de la IA, las empresas necesitan soluciones en tiempo real para una mayor transparencia y responsabilidad en la forma en que la tecnología crea sus resultados. Las preocupaciones por la parcialidad, la imparcialidad y la seguridad son prioritarias, especialmente a medida que la IA se integra más en nuestra vida cotidiana.

Pero como cualquier tecnología, la IA conlleva incógnitas. Uno de los temas importantes a los que se enfrenta la IA hoy en día es la necesidad de una mayor transparencia y responsabilidad en la forma en que la tecnología crea sus productos. La preocupación por la parcialidad, la imparcialidad y la seguridad es una de las principales preocupaciones, especialmente a medida que la IA se integra más en nuestra vida cotidiana.

Para hacer frente a estas preocupaciones, está surgiendo un nuevo enfoque de la IA que combina lo mejor de ambos mundos: la potencia y escalabilidad de los grandes modelos lingüísticos (LLM) y la precisión y capacidad de explicación de las técnicas tradicionales de aprendizaje automático. Las tecnologías híbridas -en cuya creación participan seres humanos- tienen el potencial de revolucionar nuestra forma de innovar, dando paso a herramientas de IA más responsables y centradas en el usuario que nunca.

El núcleo de este método es la idea de aprovechar los puntos fuertes de los LLM en colaboración con el aprendizaje automático tradicional para crear sistemas de IA más robustos y fiables. Los grandes modelos lingüísticos, como GPT-4, aprovechan algunos de los algoritmos de aprendizaje profundo más avanzados jamás creados, capaces de comprender el lenguaje escrito y generar texto similar al humano. El aprendizaje automático tradicional implica el entrenamiento de modelos en grandes conjuntos de datos y el uso de métodos estadísticos para realizar predicciones, ofreciendo interpretabilidad, escalabilidad y robustez en el manejo de datos

Combinando o superponiendo estos enfoques, los creadores de productos de IA pueden crear sistemas útiles y transparentes. Los grandes modelos lingüísticos proporcionan la escalabilidad y la flexibilidad necesarias para procesar cantidades masivas de datos y generar textos similares a los humanos. Al mismo tiempo, las técnicas tradicionales de aprendizaje automático ofrecen oportunidades de equidad y transparencia a través de modelos interpretables, una importancia explicable de las características y la capacidad de mitigar los sesgos mediante una cuidadosa ingeniería de las características, el diseño de algoritmos y la anotación de datos.

Y aunque los LLM pueden acabar solucionando los problemas de sesgo y equidad mediante pruebas en el mundo real, llevará tiempo hacerlo bien. Para los productos de cara al usuario que llegan a millones de personas, un enfoque híbrido permite correcciones rápidas en cuestión de horas o días, dando prioridad a la confianza del usuario.

Mejora del texto generado por GPT con sistemas híbridos de IA

En Grammarly, combinamos múltiples tecnologías para trabajar juntas y crear resultados más fiables y relevantes contextualmente. Llevamos a cabo una investigación cuando introdujimos los LLM en nuestra tecnología propia para validar nuestra hipótesis de que las técnicas por capas conducen a mejores resultados globales. Para ello, evaluamos cuantitativamente la contribución de cada tecnología en el sistema.

Por diseño, el texto generado por GPT debe estar «en gran medida libre de errores» (Thomas Hügle, 2023). La experimentación cuantitativa confirma que rara vez se producen errores gramaticales graves en los resultados.

Nuestros resultados concuerdan con esto: el texto creado por IA generativa produce relativamente pocos problemas relacionados con la gramática o la ortografía, como era de esperar. Sin embargo, al pasar posteriormente el texto por los sistemas propios de IA y aprendizaje automático de Grammarly, nuestra investigación indicó que se podían realizar mejoras adicionales de estilo y seguridad (en aspectos como el lenguaje inclusivo, la voz pasiva y el tono). En esencia, la IA híbrida ofrece la oportunidad de mejorar la calidad general de los resultados de GPT.

Aunque se necesita un análisis más profundo con la vista puesta en las sugerencias de escritura de la IA que pueden no ser precisas -o falsos positivos y negativos-, la abundancia de problemas estilísticos generados se corresponde con las preocupaciones de calidad sobre el texto generado por GPT.

La creación de una IA responsable y centrada en el usuario requiere la participación humana

Pero no se trata sólo de la tecnología, sino de las personas que hay detrás. La IA responsable es un esfuerzo interdisciplinar que implica a equipos multifuncionales, desde científicos de datos, lingüistas e ingenieros hasta gestores de productos y diseñadores.

En el centro de este esfuerzo está la necesidad de evaluar y mitigar el sesgo y mejorar la imparcialidad, tanto en los datos utilizados para entrenar los modelos de IA como en el diseño de los propios sistemas de IA. Esto requiere una profunda comprensión de las implicaciones éticas de la IA y el compromiso de crear tecnologías seguras, fiables y centradas en el usuario. Es importante implicar a los expertos internos y a los equipos de investigación en cada paso del desarrollo de productos de IA para garantizar un enfoque responsable y humano que tenga en cuenta los intereses de los usuarios y de la sociedad.

Empresas de todos los sectores están empezando a adoptar este enfoque híbrido de la IA. Desde la sanidad a las finanzas, pasando por el transporte, las organizaciones reconocen el potencial de este enfoque para crear tecnologías más responsables y centradas en el usuario. Y a medida que más empresas adopten este enfoque, podemos esperar ver una innovación y un progreso aún mayores en el campo de la IA.

De cara al futuro de la IA, una cosa está clara: un enfoque híbrido que combine la potencia de los LLM con la precisión de otros enfoques de aprendizaje automático es la forma más responsable y centrada en el usuario de crear productos impulsados por la IA. Al aprovechar los puntos fuertes de ambos enfoques, podemos crear sistemas de IA que sean potentes, transparentes e inclusivos. Y trabajando juntos para evaluar y mitigar los prejuicios y mejorar la equidad, podemos garantizar que la IA se utilice de forma responsable y ética.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo