Inteligencia artificial: ante el Juez y en el banquillo

Por Martín Francisco Elizalde, abogado especialista en seguridad de la información y prueba electrónica.

Este artículo fue publicado originariamente por el autor en el Miami Independent, bajo el título “AI, standing in the dock” https://miamiindependent.com/category/business/

Algunos antecedentes.

OpenAI es un laboratorio de investigación de inteligencia artificial (IA) estadounidense que es dueño de  la organización sin fines de lucro OpenAI Incorporated y su corporación subsidiaria con fines de lucro OpenAI Limited Partnership. OpenAI realiza investigaciones de IA con la intención declarada de promover y desarrollar una “ IA amigable”

La primera vez.

El primero en su especie, el propietario de Chat GPT OpenAI, se enfrenta a una demanda por difamación por parte de un alcalde australiano. La startup reconoció haber proporcionado datos falsos sobre escándalos de soborno en su dispositivo Chat GPT 3.5.

Voy a decirte algo que no quieres oír.

Chat GPT afirmó que el alcalde del consejo de Hepburn Shire, noroeste de Melbourne, Australia, el Sr. Brian Hood, cumplió condena en prisión por un escándalo de soborno que tuvo lugar mientras trabajaba para una subsidiaria del Banco Nacional de Australia. En realidad, no lo hizo. No solo nunca ha estado en prisión, sino que también el Sr. Hood fue el denunciante que ayudó a acabar con los verdaderos culpables en ese escándalo de soborno. Además, nunca fue acusado de ningún delito.

Él dice; ellos dicen.

El Sr. Hood dice que se sorprendió mucho al saber que Chat GPT produjo una respuesta engañosa y que estaba «horrorizado» al ver lo que Chat GPT le decía a la gente: «Al principio me sorprendió que fuera tan incorrecto», le dijo a la emisora ​​australiana ABC  Noticias.

Por su lado, en su blog público sobre la herramienta, OpenAI dice que «a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido». Cabe señalar que cuando las personas usan Chat GPT, se les muestra un descargo de responsabilidad que advierte que el contenido que genera puede contener «información inexacta sobre personas, lugares o hechos». En este caso, fue un poco más que simplemente «inexacta». Resulta claro que uno de los mayores desafíos con los sistemas de IA generativa, es el concepto de alucinaciones, que es la capacidad de la IA generativa para inventar información que parece cierta pero no lo es. Esto es precisamente lo que sucedió en este caso; probablemente, como dijo un autor, «Chat GPT es impresionante para analizar y generar oraciones en inglés, pero tiene un problema con los hechos».

La ley tiene su palabra (más bien no concluyente).

El caso es un claro recordatorio tanto de las deficiencias actuales de la IA como del daño devastador que infligen a las personas reales. Además, desde un punto de vista legal, la cuestión clave es si el propietario de un Chatbot gpt puede ser demandado por difamación. Según Laurence Tribe, de Harvard Law, una respuesta afirmativa sería plausible, argumentando que a la ley no le importa si la difamación es generada por un humano o por una máquina. Sin embargo, Ron Nell Andersen Jones, de la Universidad de Utah, dijo que la ley fue escrita para aplicarse a un acusado con “un estado de ánimo”. Eso significa que AI tendría que saber que la información era falsa, o escribir una respuesta con un desprecio imprudente por si era verdad – un estándar difícil de aplicar a una herramienta inanimada. Finalmente, un grupo de profesores de Stanford explica que la parte difamada probablemente comenzaría con el propietario de la IA. El propietario, a su vez, trataría de echarle la culpa al fabricante del dispositivo, “argumentando que fue diseñado de una manera que lo hizo peligroso… la verdad del asunto a menudo es poco clara”.

Una cuestión de tiempo, y una cita clásica.

En mi opinión, lo notable es que este caso es solo el último ejemplo de una lista creciente de chatbots de IA que publican acusaciones falsas sobre personas. Así, esas mismas personas pueden recordar primero las palabras de Cicerón: “¿Cuándo, oh Catilina, piensas dejar de abusar de nuestra paciencia?”, y luego ir a presentar una demanda judicial…

Fuentes:

“ChatGPT: Mayor starts legal bid over false bribery claim”.

https://www.bbc.com/news/technology-65202597?utm_source=join1440&utm_medium=email&utm_placement=newsletter

“IP Lawyer vs. ChatGPT: Top 10 Legal Issues of Using Generative AI at Work”, by Shabbi S. Khan and Kathleen E. Wegrzyn,

https://www.foley.com/en/insights/publications/2023/03/ip-lawyer-vs-chatgpt-top-10-legal-issues-ai-work

 “So you’ve been defamed by a chatbot”, by Ben Schreckinger. Politico, https://www.politico.com/newsletters/digital-future-daily/2023/04/06/so-youve-been-defamed-by-a-chatbot-00090874

“Mayor mulls defamation lawsuit after ChatGPT falsely claims he was jailed for bribery”, By Sophia Khatsenkova  & Natalie Huet  with Reuters https://www.euronews.com/next/2023/04/07/why-does-chatgpt-make-things-up-australian-mayor-prepares-first-defamation-lawsuit-over-it

Kavinsky – “Nightcall” https://www.youtube.com/watch?v=MV_3Dpw-BRY

“Cicero’s First Speech Against Catiline”, Penguin Classics edition, translation and comments by Michael Grant

http://www.u.arizona.edu/~afutrell/republic/cic1stcatilin.html

ChatGPT Libeled Me. Can I Sue?‘I am programmed to provide objective and factual responses,’ it claims, not under oath”, by Ted Rall. https://www.wsj.com/articles/chatgpt-libeled-me-can-i-sue-defamation-law-artificial-intelligence-cartoonist-court-lawyers-technology-14086034
“Could Popular AI Chatbot Talk Users into Legal Peril?”, by David Hoppe. https://gammalaw.com/could-popular-ai-chatbot-talk-users-into-legal-peril/

Ver más