¿Podría la Inteligencia Artificial ayudar a resolver las controversias con las Administraciones Tributarias?

Introducción

El objetivo de la presente colaboración es revisar algunas experiencias, en la aplicación de la Inteligencia Artificial (IA), que puedan ser aplicables para la resolución de controversias con las Administraciones Tributarias (AATT), vale decir para la sustanciación de los recursos que presentan los contribuyentes frente a diversos actos administrativos, incluso ante la Justicia.

En primer lugar, destacamos que no existe una definición única de la IA, se refiere a la capacidad que tiene un sistema digital de emular funciones cognitivas, como aprender, interactuar, crear y replicar, que previamente sólo se atribuían a los humanos.

Según una reciente publicación[1], por el momento, la IA existente se conoce como IA blanda, capaz de realizar una tarea específica, relativamente simple o rutinaria, con mejor rendimiento que un ser humano, en oposición a la IA dura, que sería capaz de razonar como el intelecto humano, en tareas más complejas. Esta última, plantea mayores discrepancias entre los expertos.

La aplicación de la IA ha optimizado el análisis de los datos, proporcionando insumos que permiten hacer más eficientes los procesos y permitiendo una toma de decisiones basada en evidencia. Una de las principales ventajas de la IA es su capacidad de procesamiento de grandes volúmenes de datos, acortando de manera notable los plazos.

No obstante, ello, advertimos desde el comienzo que hay que ser muy cauteloso con su uso, de modo de no generar sesgos con su utilización ni consecuencias no deseadas.

Existen riesgos de un mal uso de la misma, lo que exige una valoración incluso desde la perspectiva ética y la adopción de una serie de principios que deben presidir su uso.

Una arista no menor, que tiene que ver con incorporación de mecanismos de automatización y robótica, incluyendo la IA, es la destrucción de empleo que se producirá, ante un uso cada vez mayor de estas técnicas.

Algunas experiencias de utilización de la inteligencia artificial en la Justicia

Yendo a un terreno concreto, cabe destacar la aplicación de la IA en la Justicia, donde podemos mencionar que en Argentina en 2017 la Fiscalía de la Ciudad de Buenos Aires desarrolló PROMETEA, un sistema que aplica IA para preparar automáticamente dictámenes judiciales.

Consiste en un sistema de software, que tiene como cometido principal la automatización de tareas reiterativas y la elaboración automática de dictámenes jurídicos, basándose en casos análogos, para cuya solución ya existen precedentes judiciales reiterados.

PROMETEA le ha permitido a la Fiscalía incrementar la eficiencia de sus procesos de manera significativa[2].

El componente más innovador de PROMETEA es que, para cada caso y en base a sentencias previas de casos similares, permite, a partir de inferencia predictiva, la elaboración de la recomendación que el fiscal debe hacer para que el juez dicte sentencia, y prepara y le propone al fiscal el modelo de dictamen jurídico. Ello se basa en una correlación estadística entre palabras clave asociadas a cada proceso y patrones de sentencias previas.

Además de su uso en la Fiscalía, PROMETEA fue entrenada para mejorar procesos en otros Organismos.

Por otra parte, en Estados Unidos existe el programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions)[3], que se usa en varios Estados.  Se trata de un software que se utiliza desde 1998 para analizar, según los antecedentes penales de un acusado, sus probabilidades de reincidir.

El programa plantea un cuestionario al acusado. Una vez que éste responde, el sistema calcula el riesgo de reincidencia, por lo que el juez define, por ejemplo, si conviene o no otorgar la libertad condicional.

COMPAS saltó a la fama con el caso Loomis, al cual acusado de huir de la policía y usar un vehículo sin autorización de su dueño, lo condenaron a 6 años de prisión y 5 años de condicional, porque el sistema estimó un riesgo alto de reincidencia. Loomis recurrió la decisión, alegando que su defensa no podía rebatir los métodos de COMPAS porque el algoritmo no era público. La Corte Suprema del Estado de Wisconsin desestimó el recurso.

Años más tarde, en 2018, se supo que el sistema analiza 137 aspectos de cada imputado. Pero, al contrastar el nivel de éxito entre las predicciones del sistema y decisiones de juristas se constató que el nivel de acierto de la IA no es superior, o incluso, quedan en evidencia errores graves.

En China, en octubre de 2019 se presentó en Beijing el Tribunal de Internet, definido como un “centro de litigios en línea”. Se trata de una plataforma donde las partes cargan los datos de la controversia a resolver y la IA hace el resto: busca jurisprudencia, analiza la temática, contrasta pruebas y dicta sentencia.

El sistema no tiene grandes diferencias técnicas con el de Estonia[4], donde también se está apostando fuerte por la automatización de la justicia, sin intervención humana en todo el proceso. A grandes rasgos, las partes presentan digitalmente sus demandas y sus pruebas. El juez de IA -en desarrollo- analizará la documentación y emitirá una sentencia. Ello permitiría acelerar decenas de contiendas atrasadas. Si alguna de las partes disiente con el resultado siempre podrán presentar un recurso ante un juez humano.

Recientemente en Colombia, la Corte Constitucional anunció la adopción de un programa de IA, denominado PRETORIA. Es un sistema predictivo de detección inteligente de sentencias e información para facilitar el trabajo de los jueces[5].

Posible aplicación en la resolución de contiendas tributarias

Llegado a este punto cabe preguntarse si estas innovaciones, que ya se aplican en la Justicia, podrían utilizarse en la resolución de controversias tributarias, en el ámbito de las AATT y también de la Justicia tributaria (tribunales fiscales), es decir en el tratamiento de los recursos o mecanismos de defensa que tienen los contribuyente para controvertir los actos proferidos por la administración fiscal, tales como las liquidaciones determinadas, las sanciones impuestas, y diversos actos administrativos.

Como antecedente, cabe mencionar que las AATT en los últimos años han empezado a utilizar mecanismos automáticos, que podríamos llegar a calificar como IA blanda, para resolver ciertos trámites e incluso para tratar la disconformidad que puedan plantear los contribuyentes, donde ciertamente se intenta evitar al máximo la intervención de los recursos humanos de aquellas y la presencia de los contribuyentes en las agencias.

Lo expuesto representa un antecedente para plantearnos la posibilidad de aplicar la IA a la resolución de las contiendas tributarias.

Prima facie, no avizoramos mayores problemas en la utilización de la IA, en un comienzo, para coadyuvar en la resolución de los litigios fiscales simples y rutinarios, tales como aplicación ciertas multas y en los ámbitos judiciales por ejemplo los incidentes para litigar sin gastos, la regulación de honorarios profesionales, etc.

También eventualmente podrían tratarse con IA contiendas tributarias más básicas que involucren la aplicación de impuestos en supuestos simples.

En todo caso, lo que haría la IA es brindar al juez o a quién decida un elemento de consulta o respaldo para la decisión que indudablemente tiene que ser tomada por la persona que ejerza tales roles.

La posible aplicación de IA, no debe omitir la premisa que un sistema de resolución de controversias debe ser justo, rápido y efectivo, como una salvaguarda importante para los contribuyentes, donde se respeten sus distintos derechos y garantías, en el debido proceso.

Los contribuyentes deben tener garantías que el manejo de su información es seguro, por lo que se requieren leyes integrales que protejan la confidencialidad.

Estas leyes deben precisar la responsabilidad ante fallas de los sistemas, por ejemplo, cuando se producen filtraciones por el accionar de ciberdelincuentes o de los propios los recursos humanos de las AATT.

Los principios intemporales de la protección del contribuyente y los marcos de derechos existentes en cada país deberían adaptarse a la disrupción digital y en su caso contemplar el uso de la IA para resolver controversias. De lo contrario el uso de la IA puede entrar en conflicto con los derechos y garantías de los contribuyentes.

Por ello, nos parece que el contribuyente debe tener el derecho a conocer de qué manera la IA llega a la conclusión del recurso, y desde luego poder impugnarla.

Asimismo, cabe recordar que es vital, que las resoluciones de los recursos sean debidamente motivadas por las AATT, que resuelvan la controversia, debiéndose pronunciar sobre todas las cuestiones planteadas por el recurrente y las que se susciten en el expediente (conforme quede planteada la litis), así como de las pruebas producidas o elementos considerados.

Asimismo, cabe mencionar que la OCDE[6] recomienda ciertos principios complementarios basados en valores para la administración responsable de IA confiable.

No hay que olvidar, que alguna experiencia ha demostrado que si los sistemas de IA no se diseñan adecuadamente pueden, tener efectos discriminatorios, injustos y con implicaciones sociales no deseables, como sucedió con el caso de COMPAS en los EEUU.

La adopción de la IA requiere una cuidadosa administración y gobernanza de datos. La IA recurre a datos para que el algoritmo “aprenda” a decidir. Pero si estos datos existentes reflejan sesgos que ya se encuentran en el mundo real, por lo que se puede decir que los algoritmos aprenden a tomar decisiones que reflejan dichos sesgos.

Por eso es clave el tema de cómo se construye la ética del algoritmo, es importante tener la posibilidad de examinar y supervisar el código de estos algoritmos, ya que se corre el riesgo de incorporar, intencionalmente o no, sesgos, prejuicios u otros elementos en la misma programación que de algún modo “contaminen” la respuesta.

La ética de la IA resulta ser fundamental como un primer paso para los límites deseables en la utilización de la moderna tecnología en las AATT. Ciertos principios de la ética de la IA deben ser respetados, tales como la privacidad, responsabilidad, seguridad, transparencia y explicación, justicia y no discriminación, control y supervisión humana de la tecnología, y promoción de los valores humanos dentro del marco del derecho internacional de los derechos humanos.

La aplicación de la IA a trámites, solicitudes, disconformidades y en las contiendas tributarias, además de disminuir los tiempos de resolución, puede permitir estandarizar las decisiones, vale decir uniformar criterios, para que no se brinden dos respuestas diferentes ante el mismo problema.

En todo el proceso de adopción de Tics en AATT -y en tribunales tributarios- es clave definir estratégicamente el nuevo rol del recurso humano, ya que se requieren nuevas competencias digitales.

A modo de síntesis

En definitiva, creemos que la IA puede llegar a aplicarse para resolver controversias tributarias, pero siempre y cuando sea como apoyo para la resolución que deba tomar el juez en la resolución de las mismas, y no resolver por sí misma a partir de un algoritmo.

Desde ya descartamos la idea de que los jueces puedan ser reemplazados por robots que actúen mediante algoritmos de la IA que desplacen totalmente el ingenio humano, aunque el debate queda abierto.


[1] Constanza Gómez Mont, Claudia May Del Pozo, Ana Victoria Martín del Campo. Economía de datos e inteligencia artificial en América Latina Oportunidades y riesgos para un aprovechamiento responsable. Este reporte fue desarrollado por C Minds y comisionado por el Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés en Argentina.
[2] Elsa Estévez Sebastián Linares Lejarraga Pablo Fillottrani. PROMETEA. TRANSFORMANDO LA ADMINISTRACIÓN DE JUSTICIA CON HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL. BID 2020.
[3] https://retina.elpais.com/retina/2020/03/03/innovacion/1583236735_793682.html
[4] https://confilegal.com/20191013-china-y-estonia-desarrollan-jueces-virtuales-basados-en-inteligencia-artificial-para-resolver-demandas-de-cantidad/
[5] https://www.metrolatam.com/hub/tecnologia/2020/08/07/la-inteligencia-artificial-ahora-podria-juzgarte.html
[6] https://www.oecd.org/going-digital/ai/principles/

1,708 total views, 109 views today

9 comentarios

  1. Jesus Pérez Aguilera Respuesta

    Excelente artículo para reflexionar. Enhorabuena.

    1. Pablo Porporatto Respuesta

      Muchas gracias Jesús, efectivamente esa fue la idea que tuvimos en mente con Alfredo, instalar el tema y empezar a reflexionar sobre su factibilidad, aunque como decimos en el escrito ya algunas AT utilizan mecanismos automatizados en ciertos trámites y solicitudes, la idea es ir más allá y plantear la resolución de controversias tributarias. La nuevas tecnologías irrumpen tan rápido que muchas veces no nos dan tiempo de pensar detenidamente sus consecuencias. Saludos

  2. Alfredo Collosa Respuesta

    Estimado Jesus muchas gracias por tus palabras¡ Un abrazo

  3. Ruben Alfredo Gutierrez Respuesta

    Interesante articulo para analizar la IA como colaboradora, para optimizar el tiempo y recursos, de las resoluciones tomadas por las personas humanas.

    1. Pablo Porporatto Respuesta

      Hola Rubén, muchas gracias. Comparto el rol de «colaboradora» de la AI pero nunca puede reemplazar el ingenio, raciocinio y sana crítica de un juez o evaluador de una controversia. Indudablemente ayuda en términos de plazos y recursos. En términos más amplios, otro tema a considerar, como para ir pensando cómo lo trataremos y/o compensaremos, es el escenario cuando la incorporación masiva de la automización y la AI a los procesos productivos genere desplazo de mano de obra en un principio en tares simples y rutinarias y más adelantes tal vez en otras…Saludos

  4. Joao Carlos Loebens Respuesta

    ¡Muy interesante el artículo, felicitaciones por traer el tema a debate!
    Al finalizar la lectura de la contextualización y aspectos a considerar, además de algunas de las experiencias de utilización de la inteligencia artificial en la Justicia citadas en el artículo, me puse a pensar cómo serían las conclusiones/decisiones de algunos casos conocidos de litigio tributario si a ellos se aplicara la IA.
    Por su relevancia e impacto, me vino a la mente el reciente fallo del Tribunal de la Unión Europea (TUE) en el caso Apple/Irlanda – este es el enlace con un reportaje sobre el tema: Tribunal de la Unión Europea falla a favor de Apple y evita pago de 15 mil mdd en impuestos pasados – https://www.sinembargo.mx/15-07-2020/3823633
    Se supone que la aplicación de la IA pueda estandarizar decisiones y uniformar criterios, además que la IA debe respetar ciertos principios de la ética, como explicación, justicia y no discriminación. Si se aplicase una IA con criterios uniformes al proceso tributario de Apple/Irlanda, las decisiones desde la Comisión Europea hasta el TUE serían semejantes y, como hipótesis, el fallo del TUE no sería favorable a Apple.
    En el artículo podemos leer que “es clave el tema de cómo se construye la ética del algoritmo” pues “se corre el riesgo de incorporar, intencionalmente o no, sesgos, prejuicios u otros elementos en la programación que de algún modo ‘contaminen’ la respuesta”. Y viene la duda: ¿acaso también podría haber “sesgos, prejuicios y otros elementos” en la “Inteligencia Humana”? Mirando la cantidad de noticias e iniciativas que buscan combatir los beneficios concedidos a las empresas multinacionales que usan estructuras como la usada por Apple en Irlanda y comparándolo com el fallo del TUE, personalmente me parece que sí es posible haber en la “Inteligencia Humana” los citados sesgos, que debemos estar atentos para evitarlos en la “Inteligencia Artificial”.
    O quizás se podría decir que, con la Inteligencia Artificial, sería posible evitar “sesgos, prejuicios u otros elementos” de la Inteligencia Humana que pueden “contaminar” las conclusiones/decisiones. Algo como Capital e Ideología, de que fala Pikety. Sería un punto a favor de la IA, con un algoritmo transparente y auditable.

  5. Pablo Porporatto Respuesta

    Hola Joao, muy interesante tu comentario, gracias por compartirlo. No se si las decisiones desde la Comisión al Tribunal para el caso Appel/irlanda serían semejantes, en todo caso los precedentes que resultarían insumos que utilizarían los respectivos algoritmos puede que lleve a conclusiones distintas a la Comisión y al Tribunal (cada uno tendría sus antecedentes, aunque obviamente alguna ponderación se tendría que dar a la instancia siguiente). Me animo a decir que en casos complejos como los de Appel/irlanda y también Amazon/Luxemburgo (más otros tantos que desde la Comisión fueron tachados de afectar la competencia en la UE) la AI de por sí no lo resuelve, entiendo la AI como una herramienta de trabajo y en ningún caso reemplazarían la decisión de las personas humanas, aún como bien dices ésta puede estar contaminada con cuestiones que afectan la objetividad.
    Los precedentes que se utilizan en los algoritmos resultan también de decisiones humanas (y éstas pueden tener sesgos) por ende las conclusiones de AI los tendrá indefectiblemente.
    Es tema muy apasionante y con muchísimas aristas a considerar, pero que necesariamente debemos abordar, porque el avance de las nuevas tecnologías es imparable.
    Saludos

  6. Ricardo Barahona Respuesta

    Buenos días para todos y como comento Jesús Perez es un tema para reflexionar, imagínate tener un apoyo para la toma de decisiones después de un análisis de varios temas analizados, pero si hasta cierto punto es inquietante para mi y cito el siguiente párrafo: Estas leyes deben precisar la responsabilidad ante fallas de los sistemas, por ejemplo, cuando se producen filtraciones por el accionar de ciberdelincuentes o de los propios los recursos humanos de las AATT. Esto es tan palpable tal cual como el uso de coimas para favorecer en la decision a un obligado tributario, y pues que si necesitamos embestirnos de valores para hechar a andar este magnifico proyecto de las IA.

    1. Pablo Porporatto Respuesta

      Gracias Ricardo por tu comentario. La responsabilidad de filtraciones o mal utilización debe estar claramente precisada y penada en las leyes, comparto plenamente. Saludos

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Suscripciones CIAT

Navega en el sitio sin restricciones. Consulta y descarga los contenidos.

Suscríbete a nuestros boletines electrónicos:

  • Blog
  • Oferta Académica
  • Informativo
  • Publicaciones
  • Alerta de Noticias

Activar suscripción

Miembros CIAT

Representantes, Corresponsales y Personas autorizadas (AT)