La Inteligencia Artificial (IA) debe ser vista como otra herramienta tecnológica que los abogados pueden utilizar en la prestación de sus servicios, como lo fue la máquina de escribir, el telex, el fax, correo-e y las aplicaciones de investigación legal disponibles en Internet. Al utilizarla, deben cumplir con sus obligaciones éticas, incluyendo proteger información confidencial de sus clientes.
Comenzamos por advertir que la última iteración del Código de Ética panameño fue adoptada en noviembre de 2022 (la anterior fue aprobada en enero de 2011), casi a la par con el lanzamiento de ChatGPT en su primera versión.
Todo abogado está en la obligación de «emplear en [la atención de un negocio] todos los medios lícitos, procurando actuar con rectitud, honradez, discreción y respeto.» (Ver artículo 6) Asimismo, el abogado está en «la obligación de emplear todos sus conocimientos» (art. 12) y «debe obtener un integral conocimiento de la causa de su cliente antes de aconsejarle sobre la misma.» (art. 8). En fin, el artículo 26 es categórico: «La responsabilidad del abogado es de índole personal y directa…»
La normativa panameña arriba citada exige al abogado que utilice los recursos y medios lícitos disponibles. No hacerlo pudiese, en sí, ser violatorio de sus obligaciones éticas. Por lo tanto, le corresponde hacerlo en la medida que la IA permita al abogado gestionar en forma más eficaz en pro de la causa de su cliente. Eso sí, lo debe hacer con rigor y honestidad, que implica, por ejemplo, dar crédito a la herramienta de IA, igual que lo haría cuando cita una obra de Dulio Arroyo o Arturo Hoyos (la imagen que acompaña este escrito fue creada con Copilot). Le corresponde también revisar el producto de IA previo a su uso, igual que lo haría cuando se trata del producto de un colega o subalterno, ya sea ante una contraparte o frente a una autoridad o juez. El profesional del derecho, por formación, debe usar su juicio al momento de nutrirse de información suministrada por cualquiera herramienta incluyendo las de IA.
En el aparte «Sobre el ejercicio de la profesión» en los Antecedentes al Código de Ética y Responsabilidad Profesional del Abogado de la República de Panamá se advierte sobre la obligación del abogado de «respetar la inviolabilidad de la información y los documentos que le han sido confiados.» El artículo 13 del mismo Código de Ética impone al abogado el deber de «guardar los secretos y las confidencias de su cliente» y el numeral (7) del artículo 37 del Código prescribe que falta a la ética quien «divulgue, violando el secreto profesional, cualquier confidencia que su cliente o terceros le hagan, salvo que ello sea autorizado por éste o aquel o que lo haga con mira directa a su propia defensa.» Por lo anterior, el abogado tiene que asegurarse que cuenta con las competencias mínimas en el uso de IA, tanto en cuanto a lo que uno le aporta como en relación con el producto.
La mayoría de las herramientas de IA disponibles al público (ChatGPT, Gemini, etc.) expresamente advierten que no dan garantía alguna que se mantendrá en reserva la información que uno aporta (input vía prompt). Todo lo contrario, esas herramientas se nutren y ‘construyen’ sobre lo que ‘conocen’ de la información públicamente disponible y de lo que el usuario le aporta. El profesional de la ley tiene que saber si la herramienta de IA que utilizará garantiza que la información de su cliente que se le comparte no pasará a dominio público. En fin, antes de usar IA, debe verificar que la herramienta que utilice le permita cumplir con su obligación ética de confidencialidad. Y es que, no deja de ser cierto que el uso de las herramientas de IA de acceso público puede constituir un riesgo al momento de contrastarlo con temas de confidencialidad y protección de datos, puesto que, una vez se proporciona esta información a sistemas como Chat GPT, el sistema podrá volver a hacer uso de esa información, pero no necesariamente con quien se la proporcionó en primera instancia, sino con quien utilice el sistema en general. Cabe recalcar que este riesgo puede ser mitigado ante el uso de herramientas de IA configuradas para que sean de acceso privado (por ejemplo, integrando el uso limitado de Copilot). En fin, es por este riesgo latente que debe prevalecer la transparencia con el cliente respecto del uso de esta herramienta, sobre todo si es de acceso público, y la diligencia en el uso de la herramienta, puesto que la herramienta debe hacer el trabajo del recurso humano más eficiente, no sustituirlo. A menos que cuente con autorización de su cliente, el abogado estaría violando el Código de Ética si aporta a esas herramientas públicas información confidencial de su cliente.
Tampoco debemos perder de vista conceptos generales, como el establecido en el artículo 5 del Código de Ética de Abogado, en el sentido que el abogado «debe actuar con honradez y buena fe. No ha de aconsejar, tolerar o valerse de acto fraudulento; ni afirmar o negar con falsedad». Es harto sabido que el producto de estas herramientas no es 100% exacto ni correcto, que hasta han ’alucinado‘ (cada vez menos que en sus versiones iniciales).
En fin, no encontramos en el Código de Ética limitación alguna sobre el uso de IA por los abogados, con sujeción a lo advertido anteriormente y con respeto a la prohibición de plagiar a sus colegas (art. 37(31)) y la obligación de buena fe procesal. IA es, en fin, una de esas fuentes, quedando claro que el producto de IA tiene que ser objeto de revisión y análisis por el abogado antes de su uso, ya sea con el cliente, con la contraparte o con alguna autoridad o juez. De hecho, como IA (al menos en este momento) no sabe distinguir qué es «verdad», al abogado no debe utilizar información obtenida de IA sin verificación; de hacerlo, bien pudiese exponer a violar el art. 37(33) del Código de Ética en caso que sus ‘alegaciones falten a la verdad’, entre otras.
No se puede pasar de alto tampoco que los honorarios legales del abogado también son objeto de regulación del ejercicio de la profesión. Queda claro en el Código de Ética que el abogado solo puede cobrar «compensación razonable» (art. 11). De conformidad con el artículo 15, entre los factores que sirven de guía para determinar los honorarios profesionales se encuentran «el trabajo requerido y la naturaleza de la causa» y «el grado de participación del abogado en el estudio, planteamiento y desarrollo del asunto.»
Particular desafío se enfrentará cuando se pacten honorarios en base al tiempo invertido, toda vez que con IA los abogados podrán producir el mismo trabajo pero en menos tiempo; ¿tienen que pasar ese ahorro al cliente? ¿pueden cobrar un cargo por el uso de IA? En nuestro concepto, corresponde hacerlo para evitar infringir normas éticas. Siempre ha sido una falta a la ética ‘inventar’ tiempo para justificar honorarios o premeditadamente demorarse en el cumplimiento de una tarea.
Ya hay aplicaciones de IA que redactan o revisan contratos, pulen o formulan argumentos y hasta generan opiniones legales, así como asisten en investigaciones de jurisprudencia, pero ya se habla de hasta la posibilidad de predecir cómo un juez fallará en base a información disponible sobre su persona y fallos previos. En fin, igual que ocurrió con algunas tecnologías predecesoras, los abogados deben tener muy presente las implicaciones éticas del uso de IA.
Ya en Colombia un juez de familia utilizó IA como parte de su proceso para sustentar su fallo, cosa que fue demandada por violatorio del debido proceso. La Corte Suprema de Justicia de ese país declaró que la manera en que el juez se apalancó en la herramienta de IA no constituyó una violación al debido proceso.
En nuestro país, el 11 de octubre del presente año, empezará a regir el nuevo Código Procesal Civil (aprobado por la Ley No. 402 de 9 de octubre de 2023), a través del cual se prevé, de forma taxativa y en el Artículo 172, el uso de las tecnologías para facilitar y agilizar el acceso a la justicia. En esta normativa, se establece que los actos procesales podrán efectuarse mediante el uso de la IA, pero que su uso no podrá remplazar el razonamiento humano del juez o magistrado. Así, se prevé: esto es una herramienta y no un sustituto del recurso humano. Si bien, de momento, puede que exista incertidumbre respecto de cómo su uso se materializará en los actos procesales, no debe quedar duda que el reconocimiento taxativo de estas herramientas en una norma es un indicativo de que la IA está influyendo en el ejercicio de la abogacía y, por supuesto, será uno de los retos presente al cual se enfrenta la administración de justicia y los auxiliares del sistema judicial, Amén de aquellas otras ramas del derecho, donde el uso de la IA se encuentra de moda.