En un giro sorprendente de los acontecimientos, el uso de chatGPT de OpenAI por parte de un abogado para asistencia legal ha salido mal ya que el chatbot impulsado por inteligencia artificial (IA) fabricó casos inexistentes.
¿Qué ha sucedido con ChatGPT?
En un caso extraño que rodea a Mata Vs. Avianca, que involucraba a un cliente demandando a la aerolínea por una lesión de rodilla causada por un carrito de servicio, el uso de chatGPT tomó un giro sorprendente. Los abogados de Mata se opusieron al intento de Avianca de desestimar el caso y presentaron un informe que contenía numerosas decisiones judiciales supuestas generadas por el chatbot impulsado por IA.
Echa un vistazo a nuestra cobertura de preapertura.
A primera vista, esto puede parecer un incidente divertido, un error honesto o ambos, pero lo que sucedió a continuación fue nada menos que extravagante.
Cuando se le presionó para producir los casos reales en cuestión, el abogado del demandante una vez más buscó la ayuda de chatGPT, lo que llevó a la IA a inventar detalles elaborados de esos casos inventados, que luego fueron capturados como capturas de pantalla e incorporados en los documentos legales.
Añadiendo a la sorprendente secuencia, el abogado llegó incluso a pedirle a chatGPT que verificara la autenticidad de uno de los casos, a lo que la IA respondió afirmativamente, lo que resultó en la inclusión de las capturas de pantalla de confirmación de la IA en otro archivo.
En respuesta a esta situación extraordinaria, el juez ha programado una audiencia para el próximo mes para abordar la posibilidad de imponer sanciones a los abogados, reconociendo la necesidad de discutir y abordar las consecuencias de esta circunstancia sin precedentes.
Cabe destacar que el mes pasado se informó de que un juez indio no pudo decidir si otorgar o no fianza a un sospechoso de asesinato que utilizó chatGPT para obtener ayuda.
Por qué es importante
Lo que hace que todo el caso sea tan extraño es el hecho de que mientras es bien sabido que el chatGPT de OpenAI y otros modelos de IA generativa como el Bing AI de Microsoft Corp (NASDAQ:MSFT) y el Google Bard de Alphabet Inc. (NASDAQ:GOOG) (NASDAQ:GOOGL) tienden a alucinar y proporcionar incluso hechos inventados con la máxima convicción.
Anteriormente, un usuario de Reddit destacó problemas similares al afirmar que cuando las personas se vuelven excesivamente seguras de las habilidades de la IA (en este caso, chatGPT) y pasan por alto los posibles peligros de buscar consejo del chatbot en campos sensibles como la Medicina o el Derecho, surgen problemas.
Lo peor es que incluso las personas con conocimientos técnicos pueden caer presas de las bien documentadas alucinaciones por las que chatGPT es conocido.