Abogado utiliza citas falsas generadas por IA en un caso judicial

clientes

Abogado utiliza citas falsas generadas por IA en un caso judicial. Según publica el portal mercadonegro.pe En un reciente caso que ha generado polémica, un abogado decidió utilizar una herramienta de inteligencia artificial, ChatGPT, para mejorar su estrategia de defensa en un juicio. Sin embargo, se descubrió que las citas generadas por esta IA eran completamente falsas.

Según informó el medio New York Times, el abogado estadounidense Steven A. Schwartz, quien representa a un pasajero que afirma haber sufrido una lesión al ser golpeado por un carrito de servicio durante un vuelo, utilizó la herramienta de IA para respaldar su argumento en contra de la aerolínea colombiana Avianca, citando seis casos inexistentes.


Banner_frasco-suscripcion-800x250

Fue el propio Steven A. Schwartz quien admitió haber utilizado esta tecnología para redactar un documento en el que se oponía a la solicitud de la defensa de archivar el caso.

Vea también: Carrefour revoluciona la publicidad exterior con esta campaña

«La corte se encuentra ante una situación sin precedentes. El escrito presentado por el abogado demandante en oposición a una moción para desestimar el caso está lleno de citas de casos inexistentes», señaló el juez Kevin Castel.

Tras conocerse esta mala práctica del abogado, el juez emitió una orden para convocar una audiencia el próximo 8 de junio, en la que Schwartz deberá explicar por qué no debería ser sancionado por presentar datos falsos.

Por su parte, el abogado estadounidense justificó su acción asegurando que «nunca antes había utilizado una herramienta de este tipo y, por lo tanto, no era consciente de la posibilidad de que su contenido fuera falso».

Asimismo, Schwartz agregó que «no tenía ninguna intención de engañar al tribunal» y exculpó a otro abogado del bufete que también podría enfrentar sanciones.

Es importante destacar que, a medida que la inteligencia artificial continúa desempeñando un papel cada vez más relevante en el campo legal, es necesario establecer pautas claras y protocolos de verificación para garantizar su uso ético y responsable.

La combinación adecuada de inteligencia artificial y juicio humano puede llevar a resultados más justos y precisos en el sistema judicial, siempre y cuando se mantenga una supervisión constante y se asuma la responsabilidad de validar la información generada por la IA.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉