Nuevos proyectos de ley obligarían a las empresas de inteligencia artificial a divulgar los datos de entrenamiento con derechos de autor

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

Puntos Claves:

  • Presentación de un proyecto de ley que podría requerir a las empresas de inteligencia artificial divulgar las fuentes de datos de entrenamiento.
  • El AI Foundation Model Transparency Act propone que la FTC y NIST establezcan reglas de transparencia en la inteligencia artificial.
  • El proyecto busca promover la precisión y evitar daños al requerir que los modelos de IA revelen sus limitaciones y pruebas de riesgos.

Regulaciones Propuestas para la Transparencia de Datos en la IA

En una iniciativa para aumentar la transparencia y responsabilidad en el ámbito de la inteligencia artificial (IA), dos congresistas han presentado un proyecto de ley que podría provocar un cambio significativo en cómo las empresas informan sobre su utilización de datos con derechos de autor. La propuesta, denominada AI Foundation Model Transparency Act, fue introducida por Anna Eshoo y Don Beyer. Dicho proyecto buscaría involucrar a la Comisión Federal de Comercio (FTC) y al Instituto Nacional de Estándares y Tecnología (NIST) en la creación de normativas que exijan a los desarrolladores de IA proporcionar detalles claros sobre sus fuentes de datos de entrenamiento.

Requisitos y Responsabilidades para Creadores de Modelos de IA

La propuesta legislativa estipula que los creadores de modelos fundamentales de IA deben detallar no solo las fuentes de los datos utilizados, sino también los procesos de retención de datos durante la inferencia. Estos creadores también deben reconocer las posibles limitaciones o riesgos asociados a sus modelos, explicar su conformidad con un marco de manejo de riesgos y adherirse a futuros estándares federales. Además, tendrían que divulgar la capacidad de computo empleada para el entrenamiento de los modelos y su funcionamiento. Inquietudes clave como la imparcialidad y la precisión de la IA en contextos sensibles, como la salud y el bienestar financiero, requieren análisis y «pruebas de estrés».

Las implicaciones de esta legislación son vastas, dada la creciente prominencia de la inteligencia artificial en diversos sectores. La importancia de garantizar la precisión y prevenir posibles daños es fundamental, especialmente con la IA proporcionando orientación en áreas críticas como la vigilancia policial, el otorgamiento de crédito financiero y la educación. La preocupación por la distribución de información errónea o sesgada es una motivación central detrás de esta legislación.

Aunque el proyecto de ley todavía necesita pasar por varias etapas antes de su potencial aprobación, su relevancia se intensifica en un período de creciente debate púbico y legal sobre los derechos de autor y la responsabilidad ética en la IA. La iniciativa se alinea con la orden ejecutiva sobre IA de la administración de Biden que establece estándares de rendición de cuentas, pero su conversión en ley federal sería un avance significativo en la regulación de esta tecnología.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo