La moderación de contenidos podría experimentar una rápida transformación con GPT-4

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-08-19

OpenAI demuestra que GPT-4 puede evaluar las publicaciones en redes sociales de acuerdo con una política de contenidos. Se supone que el sistema es mucho más rápido y flexible que los moderadores humanos.

Para establecer GPT-4 como un sistema de moderación fiable, OpenAI realiza primero una alineación con expertos humanos: En primer lugar, OpenAI hace que expertos humanos en política de contenidos revisen los contenidos a moderar.

A continuación, GPT-4, incitado con la política de contenidos, realiza la misma evaluación. El modelo es confrontado con la evaluación del experto humano y debe explicar cualquier desviación de la misma.

Basándose en esta explicación, la política de contenidos puede ajustarse para que el modelo obtenga la misma puntuación que el humano en futuros casos de moderación. Cuando las puntuaciones humana y GPT-4 se alinean de forma fiable, el modelo puede utilizarse en la práctica.

La moderación se adapta a los cambios de política en horas en lugar de meses

Según OpenAI, el sistema de moderación mejora y aprende continuamente a medida que perfecciona y aclara las políticas de contenidos. La adopción mucho más rápida de los cambios de política puede ahorrar mucho tiempo: El modelo puede aplicar un cambio de política en cuestión de horas. Los moderadores humanos deben recibir formación, un proceso que puede llevar meses.

Para que el esfuerzo computacional sea manejable, OpenAI se basa en un modelo más pequeño que, tras ser afinado con las predicciones del modelo más grande, asume la ejecución de las tareas de moderación.

El uso de la IA para moderar contenidos no es nuevo. Meta, por ejemplo, lleva muchos años utilizando el aprendizaje automático para identificar y eliminar temas críticos lo antes posible.

Sin embargo, estos sistemas son especializados y no siempre fiables. Los grandes modelos lingüísticos como GPT-4 tienen el potencial de hacer juicios más sofisticados e informados a través de muchas categorías, tal vez incluso respondiendo o al menos sugiriendo respuestas que sólo necesitan ser aprobadas. Un estudio reciente demostró que ChatGPT puede describir escenarios emocionales de forma mucho más precisa y exhaustiva que el ser humano medio, demostrando un mayor nivel de conciencia emocional.

Según OpenAI, GPT-4 podría por tanto ayudar a «aliviar la carga mental de un gran número de moderadores humanos». OpenAI describe un escenario en el que esta mano de obra podría entonces centrarse en «casos límite complejos», pero, por supuesto, estas personas podrían perder su trabajo.

OpenAI quiere hacer frente a la IA constitucional

Según OpenAI, el modelo lingüístico logra resultados de moderación comparables a los de humanos poco entrenados. Los moderadores humanos bien entrenados superan la calidad de moderación de GPT-4 en todas las áreas probadas, aunque la diferencia no es grande en muchos casos. OpenAI ve aún margen de mejora en la cadena de pensamiento y la integración de la autocrítica.

OpenAI también está investigando cómo identificar riesgos desconocidos que no aparecen en los ejemplos ni en la política, y en este contexto pretende estudiar una IA constitucional que identifique riesgos utilizando descripciones de alto nivel. Una posible referencia al competidor Anthropic, que, a diferencia de OpenAI, no basa sus modelos de IA en la retroalimentación humana, sino en una constitución combinada con la retroalimentación de la IA sobre el contenido generado.

OpenAI señala los riesgos habituales del uso de la IA: los modelos contienen sesgos sociales que podrían reflejarse en sus resultados. Además, los humanos tendrían que supervisar el sistema de moderación de la IA, escribe la empresa.

Según OpenAI, el método propuesto de utilizar GPT-4 para la moderación puede ser replicado por cualquiera que tenga acceso a su API.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo