Inteligencia Artificial explicable (XAI)** y su importancia en la Administración Tributaria

General

La inteligencia artificial (IA) viene impactando no solamente los negocios, sino también nuestra vida diaria, desde reconocimientos faciales y de imágenes hasta analítica predictiva basada en aprendizaje de máquina, aplicaciones conversacionales, máquinas autónomas y sistemas hiperpersonalizados[1].  El tipo de decisiones y predicciones que realizan los sistemas habilitados por IA se están volviendo mucho más profundas y, en muchos casos, críticas para la vida, la muerte y el bienestar personal (Schmelzer, 2019).

A pesar de que afectan la vida de todos, pocos somos capaces de comprender cómo y por qué los sistemas de IA toman sus decisiones y cómo éstas están siendo aplicadas en nuestras vidas. Tampoco se logra rehacer el camino recorrido por muchos algoritmos a partir de los resultados encontrados. Esta opacidad conlleva a desconfianzas en los resultados. Especialmente, se destacan aplicaciones en salud, coches sin conductor y operaciones de drones en guerras. En la actualidad, es cada vez más importante, para determinadas aplicaciones, reconocer también los impactos legales y en los derechos humanos fundamentales asociados a decisiones o recomendaciones de sistemas de IA. Además, en casos llevados a tribunales, jueces confrontan cada vez más los algoritmos de aprendizaje de máquina, buscando explicaciones en las cuales puedan basar sus decisiones.

Este contexto fortalece el debate sobre cuáles decisiones fundamentadas en algoritmos de IA requieren ser explicadas y qué tipos de aclaraciones son estas. Así, la explicación de cómo se ha llegado a determinada conclusión podría ser importante para permitir que los afectados por la misma impugnen o cambien ese resultado.

Los algoritmos de IA

IA está fundamentada en varios tipos de algoritmos, que actúan sobre conjuntos de datos, en modelos como aprendizaje de máquina (ML), aprendizaje profundo (DL) y redes neurales (NN). De acuerdo con la IBM, muchos de estos modelos a menudo se consideran “cajas negras”, que son imposibles de interpretar. Las redes neuronales, que se utilizan en el aprendizaje profundo, son algunas de las más difíciles de entender para el ser humano. El sesgo, a menudo basado en la raza, el género, la edad o la ubicación, es un riesgo que siempre ha estado presente en el entrenamiento de modelos de IA. Además, conforme la misma fuente, el rendimiento del modelo puede variar o degradarse, por ser los datos de producción diferentes de los datos de entrenamiento. Esto añade un argumento adicional decisivo para una institución monitorear y administrar continuamente modelos de IA, promover la elucidación y evaluar sus decisiones.

Algoritmos y consecuencias legales

Problemas operativos y legales con sistemas basados en algoritmos no son novedosos, la literatura tiene algunos ejemplos, como el caso del sistema de detección de fraudes en pedidos de seguro de desempleo del estado de Michigan (Estados Unidos), que indebidamente cargó multas y bloqueó devolución de impuestos a miles de beneficiarios, y ahora responde a procesos legales. En 2019 un tribunal holandés determinó que un algoritmo usado en la detección de fraudes de asistencia social violaba los derechos humanos y ordenó al gobierno que no lo utilice mas (Wykstra, 2020).

La administración tributaria, que está complacida con el potencial de los algoritmos de IA para mejorar su desempeño en distintas áreas, también debe considerar los efectos de los algoritmos cuando el tema sea pasible de discusión en tribunales.

Kuzniacki y Tylinski (2020) indican que la mayor fuente de riesgos para integración de IA al proceso legal en Europa son las Regulaciones Generales de Protección de Datos-RGPD[2] y la Convención Europea de Derechos Humanos-CEDH[3]. Los artículos legales mencionados por los autores son los siguientes:

  • El derecho a una explicación (artículos 12, 14 y 15 de la RGPD): este derecho trata de la transparencia de un modelo de IA. Si las autoridades tributarias toman una decisión basada en un modelo de IA, deben poder explicar a los contribuyentes cómo se tomó esta decisión, proporcionando información suficientemente completa para que los mismos puedan actuar para impugnar la decisión, corregir inexactitudes o solicitar su cancelación.
  • El derecho a la intervención humana (artículo 22 de la RGPD): El derecho a la intervención humana es una herramienta legal para impugnar decisiones que se basan en datos procesados a través de medios automáticos, como los modelos de IA. La idea es que los contribuyentes deben tener derecho a impugnar una decisión automatizada del modelo de IA y hacer que lo revise una persona (generalmente un auditor fiscal). Para que esto sea efectivo, el contribuyente debe primero saber cómo el modelo llegó a la conclusión (derecho anterior).
  • El derecho a un juicio justo (artículo 6 de la CEDH): este derecho abarca los siguientes elementos:

    • (i) las garantías mínimas de igualdad de medios y
    • (ii) el derecho a la defensa.

    Significa que se debe permitir a los contribuyentes revisar efectivamente la información en la que las autoridades tributarias basan sus decisiones. Los autores ejemplifican que los contribuyentes deben tener derecho a conocer los factores legales relevantes utilizados para decidir sobre una aplicación de la ley tributaria y la lógica detrás del modelo de IA que impulsó a las autoridades a tomar una determinada decisión, para poder comprender completamente cómo aquella decisión fue tomada.

  • La prohibición de discriminación y la protección de la propiedad (CEDH): La prohibición de la discriminación junto con la protección de la propiedad determina que las autoridades tributarias dicten decisiones de manera no discriminatoria, es decir, que no traten a los contribuyentes de manera diferente sin una justificación objetiva y razonable. Este requisito se refiere a que, determinados algoritmos de IA tienen una tendencia a sobrellevar sesgos, como consecuencia del desequilibrio de los datos que se utilizaron para entrenarlos.

Kroll, Huey et al. (2017) indican que el uso de modelos de IA avanzados y complicados, como las redes neuronales, aún no es transparente para ser utilizado como la única herramienta que tome decisiones fiscales sin supervisión humana. Por lo tanto, en lugar de redes neuronales, recomiendan en estos casos utilizar modelos de IA que se puedan explicar fácilmente, como árboles de decisión, diferentes versiones del uso simultáneo de múltiples métodos de aprendizaje de máquina (ensemble learning), de modo que sea posible proporcionar información significativa sobre la lógica involucrada en el modelo. Los resultados deben ser presentados de modo inteligible por humanos, así como los factores que llevaron al modelo a tomar la decisión de aplicar o no aplicar la ley tributaria. Esto permite a las personas desafiar tales decisiones, incluso antes de que se emitan oficialmente.

¿Qué es XAI?

El contexto descrito anteriormente conllevó a la necesidad de estudios más avanzados y estructurados sobre el tema, a ser consolidados en un nuevo campo, la Inteligencia Artificial Explicable o XAI.

XAI puede ser definida como un conjunto de procesos y métodos, que permite a las personas comprender y confiar en los resultados y orientaciones generados por los algoritmos de aprendizaje automático. La IA explicable se utiliza para describir un modelo de IA, su impacto esperado y posibles sesgos[4]. De todos modos, promociona la responsabilización de los algoritmos (algorithm accountability).

En este contexto la XAI también ayuda a promover la confianza del usuario final, la auditabilidad del modelo y el uso productivo de la IA, además de mitigar los riesgos de cumplimiento legales, de seguridad y de reputación.

Empresas como la IBM identificaron la importancia de la XAI y ofrecen recursos como blogs y toolkits para que sus clientes puedan iniciarse en esta área.

Se observa que el área legal será la principal parte interesada y la conductora funcional de los estudios de XAI de una administración tributaria.

En la situación actual, en los países europeos y en los Estados Unidos, no se percibe una orientación clara de los tribunales en los casos que tratan de decisiones basadas en algoritmos. Como no existen precedentes consolidados, las decisiones son tomadas basadas en los criterios de cada juez.

Deeks (2021) sostiene que los jueces se enfrentarán a una variedad de casos en los que deben exigir explicaciones para la toma de decisiones, recomendaciones o predicciones algorítmicas. Debido a esas exigencias los jueces desempeñarán un papel fundamental en la configuración de la naturaleza y la forma de XAI. Utilizando las herramientas del derecho consuetudinario, los tribunales pueden construir lo que debería ser el papel de la XAI en diferentes contextos legales, incluidos los casos penales, administrativos y civiles. Así, concluye que los jueces son los actores principales en la definición y significado de XAI.

El mismo autor afirma que a medida que los tribunales empleen y desarrollen la jurisprudencia existente frente a los algoritmos predictivos, que surgen en una serie de litigios, crearán el «derecho común de XAI», una ley sensible a los requisitos de diferentes audiencias (jueces, jurados, demandantes o acusados) y diferentes usos para las explicaciones provistas (entornos de derecho penal, civil o administrativo).

Comentarios finales

La necesidad de explicación de algoritmos de IA es un tema todavía nuevo para las administraciones tributarias en ALC (y quizás del mundo). Pero se está avanzando en el uso de IA en prácticamente todas las áreas fiscales, y seguramente las demandas judiciales vendrán, ya que los principios jurídicos y las leyes generales de protección de datos vigentes o en preparación están muchas veces basadas en principios de sus congéneres europeos y norteamericanos.

De acuerdo con Doshi-Velez, Kortz et al. (2017), en este nuevo campo de investigaciones legales y tecnológicas, el papel de la explicación de algoritmos de IA para garantizar su responsabilidad debe ser reevaluado periódicamente para adaptarse a un mundo tecnológico cambiante. El acceso a mayores recursos computacionales puede reducir la carga computacional asociada con la explicación, pero permite también usar algoritmos aún más sofisticados, aumentando los desafíos asociados con una explicación precisa.

Por otro lado, no toda solución de IA necesita ser “explicable”. Así, el primer paso es identificar esta necesidad antes del diseño.

Asimismo, no cuesta estar alerta para los embates que se acercan.

Referencias bibliográficas:

Deeks, A. 2021. The Judicial demand for explainable Artificial Intelligence. Columbia Law Review. Vol. 119. No. 7. Disponible en: https://www.columbialawreview.org/content/the-judicial-demand-for-explainable-artificial-intelligence/

Doshi-Velez, F., Kortz, M. et al. 2017. Accountability of AI under the law: The role of explanation. Working Draft from  Berkman Klein Center Working Group on AI Interpretability. Disponible en: https://arxiv.org/ftp/arxiv/papers/1711/1711.01134.pdf

Kroll, J., Huey, J. et al. 2017. Accountable alghoritms. University of Pennsylvania Law Review. Disponible en: https://scholarship.law.upenn.edu/penn_law_review/vol165/iss3/3/

Kuzniacki, B., Tylinski, K. 2020. Legal risks stemming from the integration of artificial intelligence (AI) to taxlaw. Kluer International tax blog. Disponible en: kluwertaxblog.com/2020/09/04/legal-risks-stemming-from-the-integration-of-artificial-intelligence-ai-to-tax-law/

Schmelzer, R. 2019. Understanding Explainable AI. Disponible en: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/

Wykstra, S. 2020. How the government’s use of algorithm serves up false fraud charges. Salon.com. Disponible en: https://www.salon.com/2020/06/14/how-the-governments-use-of-algorithm-serves-up-false-fraud-charges_partner/

** Explainable AI en inglés
[1]  La hiperpersonalización es la forma más avanzada en que las marcas pueden adaptar su marketing a clientes individuales. Se hace mediante la creación de experiencias personalizadas y específicas mediante el uso de datos, análisis, inteligencia artificial y automatización (Deloitte).
[2]   Véase https://gdpr-info.eu/
[3]   Véase https://www.echr.coe.int/Documents/Convention_ENG.pdf
[4]  Véase https://www.ibm.com/watson/explainable-ai

 

Aclaración. Se informa a los lectores que los puntos de vista, pensamientos y opiniones expresados en el texto pertenecen únicamente al autor, y no necesariamente a su empleador ni a ninguna organización, comité u otro grupo al que el autor pertenezca, ni a la Secretaría Ejecutiva del CIAT. De igual manera, el autor es responsable por la precisión y veracidad de los datos y fuentes.

4 comentarios

  1. Celso Antonio Mora Respuesta

    Apreciado Antonio.
    Como sueles tenernos acostumbrados este también es un muy buen artículo. Felicitaciones.

    1. Antonio Seco Respuesta

      Gracias, amigo Celso. Saludos!!!

  2. Miguel Angel Játiva Respuesta

    Excelente Artículo, muchas gracias.!!!

    1. Antonio Seco Respuesta

      Estimado Sr. Miguel, nos complace que le haya resultado útil.

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Suscripciones CIAT

Navega en el sitio sin restricciones. Consulta y descarga los contenidos.

Suscríbete a nuestros boletines electrónicos:

  • Blog
  • Oferta Académica
  • Informativo
  • Publicaciones
  • Alerta de Noticias

Activar suscripción

Miembros CIAT

Representantes, Corresponsales y Personas autorizadas (AT)