Apropósito de la sentencia del juez colombiano Juan Manuel Padilla García, quien preside el Juzgado Primero del Circuito de la Ciudad de Cartagena y admitió abiertamente haber usado Chat-GPT para fundamentar su sentencia, la pregunta de fondo es la siguiente: ¿se infringen las reglas de la sana crítica al pronunciar
sentencia al abrigo de una IA?
De entrada podría decirse que no, pero veamos un análisis más profundo: la disputa del caso en cuestión versó sobre la cobertura de un seguro con respecto a un niño autista. Pero más allá de que un chatbot logre realizar con éxito la prueba de Turing, debemos ceñirnos también al ámbito jurídico, puesto que no es descartable un medio impugnativo para la parte material perdidosa en el caso, ya que una interpretación extensiva permitiría apreciar que, si bien es cierto, formalmente, un juez suscribió la autoría de dicha sentencia, en realidad
no tenemos certeza de qué partes fueron producto del trabajo intelectivo del juez y qué partes fueron producto de procesamiento de lenguaje natural (NLP).
El juez colombiano tuvo la cortesía de aclarar que «los argumentos de esta decisión se determinarán de acuerdo con el uso de la inteligencia artificial», aunque nótese una de las dos preguntas que realizó el juez «supra» mencionado: ¿ha citado la jurisprudencia constitucional resoluciones favorables en casos similares? Esta pregunta me parece más que justificada y no considero que haya infracción de las reglas de la lógica, la experiencia o la psicología. Sin embargo, es preocupante el enfoque de la segunda pregunta: ¿está exonerado un menor autista del pago de tasas por sus terapias?
Ahora bien: ¿no debería el juez tener los conocimientos suficientes para recibir los hechos y aplicarlos al derecho?, ¿acaso no se infringió el principio «iura novit cu-ria»?, ¿nos encontrábamos ante un juicio de mero derecho para justificar una pregunta cerrada por parte del suscrito juez?
Habría que determinar qué clasificación tendría una inteligencia artificial para efectos legales: ¿será un perito?, ¿cuál es el algoritmo que le permite determinar la respuesta correcta?, ¿su programación específicamente se circunscribe al caso en disputa?, ¿es una inteligencia artificial generativa exclusiva aplicable al ámbito legal o es una especie de diccionario no-
vedoso que recopila infinidad de datos de la red?, ¿«data crunching»? Téngase en cuenta que ChatGPT es una IA en constante evolución.
El juez debió aclarar la versión que empleaba, y cabe la posibilidad de contrastar esas respues- tas con una futura versión más reciente. Y si somos más extremistas podríamos servirnos del argumento más letal: ¿tiene un título universitario ChatGPT para ejercer la profesión de abogado o la función de la judicatura? Lo anterior equivaldría a considerar cuando menos plausibles las apreciaciones de ChatGPT con respecto al caso.
Entonces, ¿cuál fue la motivación del juez para servirse de ChatGPT?, ¿en qué parte «amplió los argumentos de la decisión adoptada»?, ¿en la lógica, la psicología o la experiencia común?
No lo sabemos. Pero quisiéramos saberlo.