“Un cuchillo no es bueno ni malo en sí mismo: puede servir para compartir el pan o para dañar a un semejante”. Del mismo modo, la inteligencia artificial es apenas una herramienta cuyo valor depende del uso que se haga de ella. Bien empleada, puede aportar soluciones y beneficios; mal utilizada, puede causar daños graves. En cualquier caso, la responsabilidad recae siempre en quien la maneja, y es la ética la que inclina la balanza, especialmente cuando se trata del ámbito judicial.
Se conoció por una nota de La Gaceta una resolución sin precedentes dentro del ámbito judicial provincial, donde la Justicia de Tucumán sancionó a una abogada por haber invocado jurisprudencia inexistente generada mediante inteligencia artificial. El fallo marca un límite claro, tanto ético como técnico, al uso de estas herramientas en los tribunales y advierte sobre los riesgos que implica delegar el razonamiento jurídico en sistemas automatizados sin el debido control humano.
La decisión judicial pone en evidencia que la innovación tecnológica, si bien puede aportar eficiencia al sistema judicial, también puede transformarse en un problema grave cuando se utiliza de manera irresponsable y sin respeto por los principios básicos que rigen el ejercicio profesional.
La causa y la actuación cuestionada
La sentencia interlocutoria fue dictada por el juez Santiago José Peral, titular del Juzgado Civil y Comercial Común de la X° Nominación, en el marco del expediente “Ortiz, Fátima Cecilia c/ Booking.com Argentina S.R.L. y otro s/ daños y perjuicios”. En ese contexto, el magistrado determinó que la conducta de la abogada patrocinante, Marcela Cecilia Lazarte Vigabriel, configuró un supuesto de temeridad y mala fe procesal.
El tribunal comprobó que seis de los fallos jurisprudenciales citados como fundamento de la demanda no existían en ninguna base de datos jurídica nacional, lo que llevó a calificar la actuación como una “cita deliberadamente inexacta” de precedentes legales.
La alerta de la parte demandada
El conflicto salió a la luz durante la audiencia inicial del proceso, cuando el apoderado de la empresa demandada, Federico Sassi Colombres, advirtió que no era posible localizar los fallos invocados por la parte actora. Ante esa situación, surgió la sospecha de que se tratara de lo que se conoce como “alucinaciones” de la inteligencia artificial, un fenómeno propio de los sistemas generativos que producen información aparentemente coherente, pero falsa.
Frente a esta advertencia, el tribunal intimó a la abogada a presentar copias íntegras de la jurisprudencia citada en un plazo de cinco días, otorgándole la posibilidad de subsanar el error.
La imposibilidad de acreditar los fallos
Pese a la oportunidad concedida, la profesional no logró demostrar la existencia de los antecedentes judiciales invocados.
Esta situación reforzó la convicción del juez acerca de la falsedad de las citas y la falta de control profesional en la elaboración de los argumentos presentados ante el tribunal.
El límite entre tecnología y responsabilidad profesional
En sus considerandos, el juez Peral fue categórico al señalar que, por la estructura de las citas y la naturaleza de los errores detectados, “puede razonablemente inferirse” que los textos fueron generados mediante herramientas de inteligencia artificial sin la supervisión adecuada. El magistrado remarcó que la tecnología debe ser utilizada de manera responsable y contextualizada, y que bajo ninguna circunstancia puede sustituir el juicio humano.
Recordó además que la inteligencia artificial debe concebirse como una herramienta auxiliar del servicio de justicia, nunca como un reemplazo del criterio profesional.
Sanción económica y consecuencias éticas
Como consecuencia de esta conducta, el tribunal impuso a la letrada una multa de $620.000, equivalente al valor de una consulta escrita vigente. Asimismo, la resolución incluyó una exhortación para que en el futuro adecue su actuación a los principios de probidad, lealtad y buena fe procesal.
Además, el juez ordenó remitir copias del expediente al Tribunal de Ética y Disciplina del Colegio de Abogados de Tucumán, para que evalúe la conducta profesional dentro de su ámbito de competencia.
Una advertencia para el sistema judicial y la sociedad
Más allá de las sanciones judiciales y disciplinarias que puedan recaer sobre la profesional, el caso adquiere especial relevancia por la gravedad del mal uso de la inteligencia artificial en un expediente judicial. Se trata de un ámbito donde están en juego derechos, responsabilidades y/o eventuales sanciones penales, por lo que cualquier distorsión de la verdad puede tener consecuencias graves para terceros.
Este episodio funciona como una advertencia clara: las nuevas tecnologías deben utilizarse con suma prudencia, no solo en la Justicia, sino también en la educación, la medicina y otros espacios sensibles de la vida social. La ética profesional, como valor fundamental, debe guiar el uso de cualquier herramienta y servir de ejemplo para los pares y para la sociedad en su conjunto. En mayores, pero mucho más, en menores, que están aprendiendo a usarlas, y la ética es el valor fundamental para enseñarlo. Desde el ejemplo, más.
