Abogado termina demandado por culpa de ChatGPT!

¡Asombroso pero cierto! La inteligencia artificial, aunque impresionante, no siempre es infalible.

Bien lo sabe un destacado abogado de Nueva York, Steven A. Schwartz, quien ha experimentado las consecuencias devastadoras de confiar demasiado en una herramienta de IA.

Según informa The New York Times, Schwartz se enfrenta a una sanción y a un incómodo momento ante el juez debido a un error garrafal en un caso legal en el que trabajaba.

En un desafortunado incidente, Schwartz utilizó ChatGPT, una herramienta de OpenAI, para agilizar su investigación legal. Sin embargo, el resultado fue catastrófico.

Para entender lo que le ha ocurrido a Schwartz hay que remontarse al 27 de agosto de 2019 y un lugar que poco tiene que ver con juzgados o despachos: un avión de la aerolínea Avianca.

Ese día Roberto Mata viajaba a bordo de una de las aeronaves de la firma colombiana que conectan El Salvador y Nueva York cuando, en pleno vuelo, uno de sus azafatos lo golpeó en la rodilla con un carrito metálico. Molesto con lo ocurrido, Mata decidió presentar una demanda contra Avianca.


La compañía pidió al juez federal de Manhattan que desestimara el caso, pero los abogados de Mata se opusieron de forma rotunda. Para argumentar por qué el pleito debía seguir adelante el letrado que trabajaba en el caso Mata, Steven A. Schwartz, del despacho Levidow, Levidow & Oberman, elaboró un concienzudo informe en el que citaba media docena de precedentes judiciales.

El informe de 10 páginas que presentó al juez, en defensa de su cliente en el caso contra Avianca, estaba lleno de referencias falsas y citas inventadas. Incluso los abogados de la aerolínea y el propio magistrado no pudieron encontrar las referencias mencionadas.

El impacto de este incidente ha desviado la atención del caso original para centrarse en el uso de la inteligencia artificial por parte de Schwartz. El juez del caso ha calificado la situación como «sin precedentes», y se han programado audiencias para discutir las posibles sanciones.

Schwartz, un experimentado abogado con tres décadas de experiencia, ha declarado que no tenía la intención de engañar al tribunal ni a la aerolínea. Admitió que fue su primera vez utilizando ChatGPT y confió excesivamente en su contenido, desconociendo la posibilidad de que fuera falso. Ahora, ha prometido que nunca más confiará en la IA de OpenAI sin una verificación rigurosa.

Este caso no solo resalta la importancia de la verificación humana en los resultados de la IA, sino también la necesidad de comprender sus limitaciones. La confianza ciega en la tecnología puede llevar a consecuencias desastrosas. En un giro irónico, Schwartz incluso consultó a ChatGPT para verificar la veracidad de las referencias, y la herramienta le aseguró que eran auténticas, lo cual resultó ser completamente incorrecto.

La lección aprendida es clara: la inteligencia artificial puede ser una herramienta poderosa, pero siempre es necesario ejercer un control y una verificación cuidadosa de la información que proporciona. Como en todos los aspectos de la vida, la prudencia y el sentido común son esenciales.

¡Si quieres saber más acerca de inteligencia artificial, innovación y tecnología, suscribete a nuestro blog! Y si quieres ayuda de un experto Excel en tu próximo proyecto, ponte en contacto con nosotros.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Abrir chat
1
Sabemos que tu tiempo es muy importante. ¿En qué podemos ayudarte?