La inteligencia artificial está creando casos legales falsos y llegando a los tribunales reales, con resultados desastrosos

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+2

2024-04-02

La influencia de la inteligencia artificial se ha extendido a numerosos ámbitos, incluido el sistema legal, aunque su impacto no siempre resulta beneficioso. Según nuestros autores invitados, la proliferación de la llamada ‘ley falsa’, generada por la IA, está generando controversias en disputas legales y suscitando interrogantes éticas y legales de gran relevancia.

Hemos visto deepfakes, imágenes explícitas de celebridades, creadas por inteligencia artificial (IA). La IA también ha tenido un papel en la creación de música, coches de carreras sin conductor y la difusión de desinformación, entre otras cosas.

No es de extrañar, entonces, que la IA también tenga un fuerte impacto en nuestros sistemas legales.

Es bien sabido que los tribunales deben decidir disputas basadas en la ley, que es presentada por los abogados ante el tribunal como parte del caso de un cliente. Por lo tanto, es muy preocupante que la ley falsa, inventada por la IA, se esté utilizando en disputas legales.

Esto no solo plantea problemas de legalidad y ética, sino que también amenaza con socavar la fe y la confianza en los sistemas legales globales.

¿Cómo se originan las leyes falsas?

No hay duda de que la IA generativa es una herramienta poderosa con un potencial transformador para la sociedad, incluidos muchos aspectos del sistema legal. Pero su uso conlleva responsabilidades y riesgos.

Los abogados están entrenados para aplicar cuidadosamente el conocimiento profesional y la experiencia, y en general no son amantes del riesgo. Sin embargo, algunos abogados descuidados (y litigantes auto representados) han sido sorprendidos por la inteligencia artificial.

Los modelos de inteligencia artificial se entrenan exhaustivamente en vastos conjuntos de datos. Una vez activados por un usuario, tienen la capacidad de generar contenido novedoso, ya sea en forma de texto o contenido audiovisual.

Es importante reconocer que, si bien el contenido generado por estos modelos puede ser altamente convincente, existe la posibilidad inherente de inexactitud. Esta circunstancia deriva del intento del modelo de IA por «rellenar los vacíos» cuando sus datos de entrenamiento son insuficientes o defectuosos, fenómeno comúnmente conocido como «alucinación».

En determinados contextos, la alucinación de la IA generativa no supone un problema per se, pudiendo incluso ser considerada un ejemplo de creatividad en acción. Sin embargo, cuando la IA produce contenido inexacto que posteriormente se emplea en procesos legales, surge una preocupación significativa. Esta preocupación se magnifica especialmente ante la presión temporal que enfrentan los abogados y la falta de acceso a servicios legales para una parte considerable dela población.

Esta convergencia de factores puede conducir a descuidos y atajos en la investigación legal y la elaboración de documentos, lo que potencialmente genera problemas de reputación para la profesión legal y socava la confianza del público en la administración de justicia.

Ya está sucediendo

El caso de «falsificación» de IA generativa más conocido es el caso de EE. UU. de 2023 Mata v Avianca, en el que los abogados presentaron un informe que contenía extractos falsos y citas de casos a un tribunal de Nueva York. El informe fue investigado utilizando ChatGPT.

Los abogados, sin saber que ChatGPT puede alucinar, no verificaron que los casos realmente existieran. Las consecuencias fueron desastrosas. Una vez que se descubrió el error, el tribunal desestimó el caso de su cliente, sancionó a los abogados por actuar de mala fe, les impuso multas a ellos y a su firma, y expuso sus acciones a la escrutinio público.

A pesar de la publicidad negativa, siguen surgiendo ejemplos de casos falsos. Michael Cohen, ex abogado de Donald Trump, le dio a su propio abogado casos generados por Google Bard, otro chatbot de IA generativa. Creyó que eran reales (no lo eran) y que su abogado los verificaría (no lo hizo). Su abogado incluyó los casos en un informe presentado ante el Tribunal Federal de EE. UU.

Los casos falsos también han surgido recientemente en asuntos en Canadá y el Reino Unido.

Si esta tendencia continúa sin control, ¿cómo podemos asegurar que el uso descuidado de la IA generativa no socave la confianza del público en el sistema legal? Los constantes fallos de los abogados al ejercer el debido cuidado al usar estas herramientas tienen el potencial de desinformar y congestiona los tribunales, perjudicar los intereses de los clientes y, en general, socavar el estado de derecho.

¿Qué se está haciendo al respecto?

En todo el mundo, los reguladores legales y los tribunales han respondido de varias formas.

Varios colegios de abogados y tribunales de EE. UU. han emitido directrices, opiniones o órdenes sobre el uso de la IA generativa, que van desde la adopción responsable hasta la prohibición total.

Las sociedades de abogados en el Reino Unido y Columbia Británica, y los tribunales de Nueva Zelanda, también han desarrollado pautas.

En Australia, la Asociación de la Abogacía de NSW tiene una guía de IA generativa para los abogados. La Sociedad de Derecho de NSW y el Instituto de Derecho de Victoria han publicado artículos sobre el uso responsable en línea con las reglas de conducta de los abogados.

Es probable que muchos abogados y jueces, así como el público en general, tengan cierta comprensión de la inteligencia artificial generativa y puedan reconocer tanto sus límites como sus beneficios. Sin embargo, existen individuos que podrían carecer de esta información. Indudablemente, la orientación resulta esencial en este aspecto.

Es fundamental adoptar un enfoque proactivo. Los abogados que hacen uso de herramientas de inteligencia artificial generativa no deben considerarlas como un reemplazo de su propio criterio y diligencia, sino que deben verificar la precisión y confiabilidad de la información que reciben.

En Australia, sería pertinente que los tribunales implementen guías prácticas o reglamentos que establezcan expectativas claras respecto al uso de inteligencia artificial generativa en procedimientos judiciales. Estos reglamentos también podrían orientar a los litigantes que se representan a sí mismos, al mismo tiempo que comunicarían al público que nuestros tribunales están conscientes de esta cuestión y están tomando medidas al respecto.

Asimismo, la profesión legal podría considerar la adopción de pautas formales para promover el uso responsable de la inteligencia artificial por parte de los abogados. Como mínimo, la competencia tecnológica debería ser un requisito en la educación legal continua de los abogados en Australia.

Establecer requisitos claros para el uso ético y responsable de la inteligencia artificial generativa por parte de los abogados en Australia no solo fomentará una adopción adecuada, sino que también fortalecerá la confianza del público en nuestros profesionales legales, nuestros tribunales y la administración de justicia en general en nuestro país.

.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo