Google no confía en los resultados de búsqueda generados por su propia IA

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2024-08-31 09:53:10

Google impone restricciones a sus productos de inteligencia artificial para las elecciones de EE. UU. en 2024, lo que plantea dudas sobre la fiabilidad de la información generada por IA en otros ámbitos.

Recientemente, Google ha decidido restringir el uso de sus productos de inteligencia artificial en el contexto de las elecciones de EE. UU. de 2024, una medida que invita a reflexionar sobre la fiabilidad de la información generada por IA en otros ámbitos. Esta limitación abarca los resúmenes de IA en búsquedas, chats en vivo de YouTube, búsquedas de imágenes y aplicaciones Gemini para contenidos relacionados con las elecciones. La empresa ha destacado la necesidad de ofrecer información fiable y actualizada para las elecciones federales y estatales, admitiendo que «esta nueva tecnología puede cometer errores mientras aprende o a medida que se producen novedades».

La Restricción de Google en el Uso de IA Durante las Elecciones de EE.UU.: Implicaciones y Desafíos

En este contexto, es evidente que otros proveedores de IA, como Microsoft, ChatGPT y hasta Grok, están adoptando posturas similares, negándose a proporcionar respuestas generadas por IA a preguntas electorales y optando por remitir a fuentes oficiales. Esto refuerza la percepción de que diseminar información falsa relacionada con las elecciones es un delito. Esta coincidencia de políticas plantea interrogantes sobre la aplicación de estas restricciones en otros temas; por ejemplo, Google permitió que su IA respondiera a preguntas médicas en el momento del lanzamiento de AI Overviews, lo que sugiere que están asumiendo riesgos al permitir la propagación de desinformación en otras áreas.

La incertidumbre persiste acerca de si Google asumirá la responsabilidad de la desinformación como lo haría un editor tradicional, o si será considerado un editor en el futuro. Además, se cuestiona en qué temas la desinformación podría ser aceptable.

El Rol de la Contextualización en la Información Generada por IA

No solo la desinformación es la única preocupación; cuando la IA responde en un chat, se pierde el contexto de la fuente original. Esta pérdida puede conllevar a que se manipule la información, incluso si la IA cita correctamente, dado que la intención de un texto suele requerir comprensión dentro de su contexto original.

Un caso reciente ilustra este problema: se planteó una consulta a Perplexity sobre un programa académico específico y la respuesta incluía una cita muy positiva de una marca mediática reconocida. Sin embargo, dicha cita provenía de un anuncio pagado en el sitio de la marca, una información que fue desvirtuada cuando la IA extrajo el texto y lo reescribió para su respuesta.

Aunque esta situación podría resolverse con algunas marcas mediáticas del renombre, resulta prácticamente imposible abordarla en un vasto internet compuesto por millones de editores y blogs.

Por último, el CEO de Perplexity, Aravind Srinivas, resaltó recientemente cómo los modelos de lenguaje detrás de los motores de búsqueda basados en IA son vulnerables a ataques simples, como instrucciones ocultas en el texto de sitios web.

Estrategias y Desafíos en la Verificación de Fuentes

A diferencia de sus competidores, Perplexity no impone restricciones al contenido generado por IA para las elecciones en EE. UU.. En cambio, esta empresa afirma priorizar la citación de fuentes fiables, incentivando a los usuarios a verificar las respuestas usando las referencias proporcionadas.

Sin embargo, esta estrategia, aunque parece sencilla, se basa en una suposición crítica: que los usuarios efectivamente harán clic para comprobar las fuentes. Este comportamiento de verificación exhaustiva es poco probable. Si los usuarios verificaran cada respuesta de la IA, se anularían los beneficios de ahorro de tiempo que ofrece un asistente de IA. El proceso de verificación podría, de hecho, consumir más tiempo que simplemente consultar algunos sitios de noticias confiables.

La capacidad de Perplexity para validar su enfoque podría mejorar publicando estadísticas sobre las tasas de clics para las fuentes citadas. Estos datos proporcionaría evidencia tangible sobre los hábitos de verificación de los usuarios, aunque parece que no se ha compartido tal información.

Todos estos aspectos subrayan un problema fundamental en la recuperación de información mediante IA: la necesidad de equilibrar la conveniencia, la precisión y el uso responsable. Con el creciente uso de sistemas de IA, el desafío de fomentar el pensamiento crítico y la verificación de fuentes sin comprometer la usabilidad se volverá cada vez más crucial.

Un estudio de junio de 2024 del Reuters Institute comprobó que los chatbots son capaces de ofrecer tanto información precisa como de propagar desinformación sobre temas electorales. Los resultados del estudio indican que «los usuarios pueden no siempre notar estos errores, especialmente porque suelen solo detectarlos cuando verifican las respuestas de manera individual, dado el tono autoritario de estos sistemas y su tendencia a ofrecer una única respuesta en lugar de múltiples resultados»

El informe también revela que, actualmente, los chatbots son utilizados por pocas personas para obtener noticias, y su uso se limita generalmente a ser una de muchas fuentes de información, lo que reduce su potencial de daño.

En la actualidad, empresas como Meta AI y OpenAI han anunciado un notable crecimiento en el número de usuarios, con OpenAI alcanzando los 200 millones de usuarios activos semanales para ChatGPT y Meta llegando a 400 millones de usuarios activos mensuales para Meta AI.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo