¿Confía en la inteligencia artificial para redactar noticias? El Gran problema del «Periodismo IA»

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-12-26 14:34:04

Algunas empresas de noticias ya utilizan la IA para redactar miles de artículos cada semana. Entonces, ¿qué significa esto para el futuro de los periodistas humanos y los consumidores?

Puntos Claves:

  • La inteligencia artificial (IA) está siendo utilizada en la actualidad para crear y gamificar contenido en los medios de comunicación.
  • La IA puede presentar desafíos éticos y prácticos, como se vio con una encuesta generada por IA relacionada con un fallecimiento en The Guardian que fue inadecuada.
  • Con la IA cada vez más avanzada, se generan miles de artículos por semana, lo cual plantea interrogantes sobre la precisión y la autenticidad de las noticias.

Las empresas utilizan cada vez más la inteligencia artificial (IA) para generar contenidos mediáticos, incluidas las noticias, con el fin de atraer a sus clientes. Ahora, incluso vemos que la IA se utiliza para la «gamificación» de las noticias, es decir, para crear interactividad asociada al contenido de las noticias. Para bien o para mal, la IA está cambiando la naturaleza de los medios informativos. Y tendremos que espabilar si queremos proteger la integridad de esta institución.

Incorporación de la Inteligencia Artificial en el Periodismo

El uso de inteligencia artificial para generar contenido noticioso está en auge porque atrae a usuarios y puede incrementar la interactividad con las historias. El caso de la encuesta insensible sobre la causa de la muerte de un entrenador deportivo muestra los riesgos éticos que este avance tecnológico puede entrañar. Rebajar la humanitzación del dolor y la tragedia para convertirlo en entretenimiento es un paso en falso que empresas como Microsoft ya han experimentado, lo cual resultó en la necesidad de retirar la encuesta tras la crítica de The Guardian.

Tragedia + Periodismo + IA: ¿Cómo murió?

Imagina que estás leyendo un trágico artículo sobre la muerte de un joven entrenador deportivo de una prestigiosa escuela de Sydney.

En un recuadro a la derecha hay una encuesta en la que se pide especular sobre la causa de la muerte. La encuesta está generada por la IA. Está pensada para mantenerte enganchado a la historia, ya que así es más probable que respondas a los anuncios del operador de la encuesta.

Este escenario no es hipotético. Se puso en práctica en reciente reportaje de The Guardian sobre la muerte de Lilie James.

En virtud de un acuerdo de licencia, Microsoft republicó la historia de The Guardian en su aplicación de noticias y en el sitio web Microsoft Start. La encuesta se basaba en el contenido del artículo y se mostraba junto a él, pero The Guardian no participó ni control sobre ella.

Si el artículo hubiera sido sobre un partido deportivo, una encuesta sobre el resultado probable habría sido inofensiva. Sin embargo, este ejemplo muestra lo problemático que puede ser que la IA empiece a mezclarse con las páginas de noticias, un producto tradicionalmente elaborado por expertos.

El incidente provocó un enfado razonable. En una carta al presidente de Microsoft, Brad Smith, la directora ejecutiva de Guardian Media Group, Anna Bateson, afirmó que se trataba de «un uso inapropiado de la inteligencia artificial genérica», que causó un «daño significativo a la reputación» de The Guardian y del periodista que escribió la historia.

Naturalmente, la encuesta fue retirada. Pero cabe preguntarse por qué Microsoft permitió que ocurriera.

Importancia del Juicio Humano en la IA

Aunque la automatización de encuestas y cuestionarios mediante la IA puede resultar económica y efectiva para mantener la atención del lector, el incidente de Microsoft destaca la falta de «humanos en el circuito». Existe un imperativo tanto financiero como de reputación para los proveedores de IA de asegurar que sus modelos no creen contenido dañino. OpenAI, Google, y Meta han invertido en aprendizaje por refuerzo con supervisión humana. Sin embargo, el sentido común es difícil de codificar en estos modelos, un aspecto crucial para prevenir resultados inapropiados.

La Automatización de la Redacción de Noticias y su Precisión

La facilidad y bajo costo de la IA generativa hacen que sea una herramienta tentadora para medios de comunicación que desean reducir costos.

News Corp, por ejemplo, utiliza un equipo reducido para producir gran cantidad de artículos, filtrando errores o «alucinaciones» del sistema. Si bien la mayoría de estas noticias creadas automáticamente pueden ser precisas, existe el peligro de que se empleen para fabricar contenidos falsos difíciles de diferenciar de la información veraz. Un estudio de NewsGuard detectó ya cientos de sitios web generados por IA que imitaban plataformas noticiosas y propagaban desinformación.

La consecuencia de omitir el sentido común

El problema principal de todo lo que estamos tratando es que los productos informativos complementarios, como encuestas y cuestionarios realmente atraen lectores, como investigación del Center for Media Engagement de la Universidad de Texas.

Dado lo barato que resulta utilizar la IA para este fin, parece probable que las empresas de noticias (y las que muestran las noticias de otros) sigan haciéndolo.

La segunda parte de la respuesta es que no hubo «humanos en el bucle», o hubo una participación humana limitada, en el incidente de Microsoft.

Los principales proveedores de grandes modelos lingüísticos -los modelos que sustentan diversos programas de IA- tienen un incentivo financiero y de reputación para asegurarse de que sus programas no causen daños. La IA abierta, con su modelos GPT- y DAll-E Google con PaLM 2 (utilizado en Bard), y Meta con su descargable Llama 2 han realizado esfuerzos considerables para garantizar que sus modelos no generen contenidos nocivos.

A menudo lo hacen a través de un proceso llamado «aprendizaje por refuerzo», en el que los humanos curan las respuestas a preguntas que podrían resultar perjudiciales. Pero esto no siempre evita que los modelos generen contenidos inapropiados.

Es probable que Microsoft se basara en los aspectos poco dañinos de su IA, en lugar de considerar cómo minimizar los daños que pudieran derivarse del uso real del modelo. Esto último requiere sentido común, un rasgo que no puede ser programar en grandes modelos lingüísticos.

Miles de artículos generados por IA a la semana

La IA generativa es cada vez más accesible y asequible. Esto la hace atractiva para las empresas comerciales de noticias, que se han tambaleado por pérdidas de ingresos. De este modo, estamos viendo cómo la IA «escribe» las noticias, ahorrando a las empresas tener que pagar los sueldos de los periodistas.

En junio, el presidente ejecutivo de News Corp Michael Miller reveló que la empresa tenía un pequeño equipo que producía 3.000 artículos a la semana utilizando IA.

Básicamente, el equipo de cuatro personas se asegura de que el contenido tenga sentido y no incluya «alucinaciones«: información falsa inventada por un modelo cuando no puede predecir una respuesta adecuada a una entrada.

Aunque es probable que estas noticias sean exactas, las mismas herramientas pueden utilizarse para generar contenidos potencialmente engañosos que se presentan como noticias y son casi indistinguibles de los artículos escritos por periodistas profesionales.

Desde abril, una investigación de NewsGuard ha encontrado cientos de sitios web, escritos en varios idiomas, generados en su mayor parte o en su totalidad por IA para imitar sitios de noticias reales. Algunas de ellas incluían información errónea y perjudicial, como la afirmación de que el Presidente de EE.UU. Joe Biden había muerto.

Se cree que los sitios, repletos de anuncios, se generaron probablemente para obtener ingresos publicitarios.

A medida que avanza la tecnología, también lo hace el riesgo

En general, muchos grandes modelos lingüísticos se han visto limitados por sus datos de entrenamiento subyacentes. Por ejemplo, los modelos entrenados con datos hasta 2021 no proporcionarán «noticias» precisas sobre los acontecimientos mundiales de 2022.

Sin embargo, esto está cambiando, ya que ahora los modelos pueden ajustarse con precisión para responder a fuentes concretas. En los últimos meses, el uso de un marco de IA llamado «generación aumentada de recuperación» ha evolucionado para permitir que los modelos utilicen datos muy recientes.

Con este método, sin duda sería posible utilizar contenidos bajo licencia de un pequeño número de cables de noticias para crear un sitio web de noticias.

Aunque esto puede ser conveniente desde un punto de vista comercial, es otra forma potencial de que la IA saque a los humanos del bucle en el proceso de creación y difusión de noticias.

Una página de noticias elaborada por un redactor es un producto valioso y bien pensado. Dejar que la IA haga este trabajo podría exponernos a todo tipo de desinformación y parcialidad (especialmente sin supervisión humana), o dar lugar a una falta de cobertura localizada importante.

La IA y el Periodismo: Complementarios pero no Sustitutos

Con la implementación del Código de Negociación de los Medios en Australia, destinado a equilibrar la dinámica entre gigantes tecnológicos y la prensa tradicional, está aflorando una tendencia secundaria: el incremento del uso de la IA generativa en el periodismo. Sin embargo, este avance tecnológico no debe engañar; la destreza y maestría de un periodista humano sigue siendo insustituible frente a la producción fría de un algoritmo.

Mientras que la IA generativa tiene el potencial para asistir a los periodistas en filtrar y analizar vastos conjuntos de datos, hay un valor insustituible en la pericia humana que podría perderse si empezamos a depender demasiado de la tecnología como sustituto. Este preciado trabajo humano es crítico para mantener la integridad y fiabilidad de las noticias que consumimos.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo