No sólo se trata de incorporar inteligencia artificial
En todos los informes y estadísticas vemos que cada día las Administraciones Tributarias (AATT) avanzan en el uso de Inteligencia Artificial (IA) en sus diversas funciones y procesos para ser más eficientes y eficaces.
Este avance me motivo a escribir el presente post preguntándome ¿Cómo hacen las AATT para encontrar un equilibrio entre el objetivo recaudatorio y el debido respeto de los derechos y garantías de los contribuyentes?
No sea cosa que por incorporar la tecnología en forma inadecuada se retroceda y las AATT deterioren su imagen y pierdan así legitimidad frente a los ciudadanos.
Por eso creo que no sólo se trata de incorporar IA sino que es vital respetar siempre el marco legal vigente de cada país donde se reflejan los derechos y garantías de los ciudadanos.
Lamentablemente muchos países no cuentan con una regulación para la IA me refiero a una norma jurídica que establece principios, obligaciones y límites para el desarrollo, despliegue y uso de sistemas de IA en un territorio, cuyo propósito sea proteger derechos fundamentales (privacidad, no discriminación, debido proceso), garantizar seguridad y responsabilidad, y fomentar la innovación dentro de un marco legal claro.
No obstante ello creo que las AATT deberían avanzar y en primer lugar es muy importante que tengan una estrategia de IA definida y que la misma sea publicada.
Ya muchos países han dado ese primer paso. Por ejemplo en España se aprobó una estrategia de IA de la Agencia Tributaria[1] que se enfoca en usar la IA para mejorar la asistencia al contribuyente, aumentar la eficiencia y la recaudación mediante el análisis de datos y la lucha contra el fraude fiscal.
La implementación se guiará por los principios de responsabilidad y un enfoque «human centric”, asegurando el respeto a los derechos, la ética, la transparencia y la prevalencia de las decisiones humanas.
Asimismo la Agencia Tributaria española ha publicado diversas cuestiones vinculadas a la IA donde no solo se explicitan los principios fundamentales (transparencia, explicabilidad, supervisión humana, seguridad y gobernanza, protección de datos, etc) sino asimismo se presentan los casos de uso donde se está utilizando la tecnología.[2]
De manera similar la ATO de Australia publicó su estrategia de IA, incluyendo porque utiliza la tecnología, como asegura su gobernanza y los casos de uso actuales.[3]
En Brasil la Receita Federal en febrero de este año publicó su política de IA, la cual define principios, directrices y salvaguardias para el uso responsable de los sistemas de IA, reforzando el compromiso de la institución con la seguridad, la transparencia y la supervisión humana en todas las etapas[4].
En Canadá se publicó una estrategia de IA aplicable el Gobierno Federal para el periodo 2025 al 2027, donde se detallan todos los principios aplicables al uso de la IA.[5]
Un hecho relevante en el tema es que en las Naciones Unidas en octubre 2025 se creó un Subcomité de administración tributaria e IA[6] que tiene el mandato de preparar un proyecto de guía práctica para la implementación de IA para las AATT, que brinde orientación sobre cuestiones como la detección de fraude, la evaluación y mitigación de riesgos, el servicio al contribuyente, los marcos de gobernanza y las salvaguardas, incluidos los sesgos de datos y de género y la promoción de la integridad y la confidencialidad de los datos.
La guía debe estar redactada con claridad, con ejemplos prácticos, y debe estar diseñada principalmente para ayudar a los administradores tributarios de los países en desarrollo, incluidos los menos adelantados, y debe reflejar las realidades y las prioridades más altas de dichos países en sus etapas pertinentes de desarrollo de capacidades.
En segundo lugar, además de la estrategia de IA, creo que también es importante que exista una evaluación de los sistemas de IA que utilizan las AATT la cual es recomendable sea llevada a cabo con regularidad por un Órgano externo a la propia administración.
Por ejemplo en Reino Unido el Instituto de Estudios Fiscales (IFS) publicó un muy interesante informe titulado en inglés “Artificial intelligence in automated decision-making in tax administration: the case for legal, justiciable and enforceable safeguards”[7] el cual se centra en el uso de la IA en la gestión administrativa del HMRC para tomar decisiones discrecionales o subjetivas.
El mismo alerta que una vez que se implemente la IA en la gestión de la AT, cuando una decisión se tome únicamente mediante IA (en particular, aprendizaje automático (ML) sin intervención humana en el proceso de toma de decisiones), esto reflejaría una decisión tomada por el sistema (y no una decisión de un funcionario de la HMRC); la decisión tomada por la IA se basaría en la propia interpretación del modelo de los datos (ya sea etiquetados o no) y las correlaciones extraídas por el modelo.
Esto reflejaría un cambio en el papel del principal encargado de la toma de decisiones, del funcionario de la HMRC a la IA.
Por ello el informe recomienda un enfoque proactivo para regular el uso de la IA en la gestión de la AT, en lugar de un enfoque reactivo, especialmente teniendo en cuenta algunos de los riesgos (que se han manifestado en varias jurisdicciones que ya han adoptado la IA en la administración pública).
En el documento se recomiendan dos soluciones alternativas: una legislación sobre IA específica para los impuestos o una Carta de IA de la HMRC (que incluya algunos de los estándares y valores clave que la HMRC debe respetar) (en conjunto, ambas medidas se denominan «Garantías legales fiscales para la IA»).
Por su parte en EE. UU. el Departamento del Tesoro evaluó los sistemas de IA que utiliza el IRS[8] y dijo que es imperativo que el IRS acelere la implementación de estructuras de gobernanza y supervisión para garantizar la rendición de cuentas y el uso responsable de la IA en los programas y procesos que desarrolla.
Se descubrió que, si bien el IRS tenía un proceso para hacer un seguimiento y reportar su inventario de proyectos de IA según lo requerido, la presentación de informes era inconsistente, debido a la evolución de las pautas y los esfuerzos por interpretar dichas pautas.
La evaluación dice que el inventario es inconsistente y cambiante respecto a los proyectos de IA identificados y esto se puede atribuir a la novedad de esta tecnología y a la orientación limitada desde una perspectiva de todo el gobierno.
Además, se dijo que el IRS tendrá el desafío constante de identificar y restringir el acceso de los empleados a los sitios web de IA generativa.
Como vemos la evaluación continua es importante ya que los modelos pueden reproducir sesgos históricos y aplicar sanciones injustas, la exposición de datos personales puede vulnerar normas de privacidad y decisiones opacas o erróneas dañan la legitimidad institucional, todo ello sin dejar de considerar que existen riesgos de seguridad frente a ataques que manipulen entradas para falsear resultados.
Está claro que usando adecuadamente la IA las AATT pueden ser más eficientes y eficaces pero nunca se debe perder de vista que su uso sin gobernanza genera errores, sesgos y pérdida de confianza pública.
Una estrategia de IA para las AATT debería tener objetivos claros que vinculen IA con metas fiscales concretas, un marco de gobernanza que asigne responsabilidades, políticas de uso y criterios de transparencia y una gestión de datos que garantice calidad, trazabilidad y controles de acceso.
Asimismo la estrategia debe contemplar una evaluación técnica continua (métricas de rendimiento, pruebas de sesgo, explicabilidad), la supervisión humana en decisiones sensibles y vías de defensa o mecanismos recursivos para los contribuyentes.
Finalmente la estrategia debe considerar la capacitación y cambio organizacional para que el personal entienda y gestione la IA.
Como dije al comienzo no sólo se trata de incorporar IA, sino que entiendo que tener una estrategia de IA y evaluar continuamente los sistemas de IA es esencial para que las AATT aprovechen las ventajas del uso de la tecnología sin incurrir en riesgos legales, operativos o reputacionales.
En definitiva la IA tiene múltiples beneficios para que las AATT sean más eficientes y eficaces, pero su uso sin gobernanza genera errores, sesgos y pérdida de confianza pública.
¿Ustedes que opinan?
Referencias:
[1] https://sede.agenciatributaria.gob.es/static_files/AEAT_Intranet/Gabinete/Estrategia_IA.pdf
[2] https://sede.agenciatributaria.gob.es/Sede/gobierno-abierto/transparencia/informacion-institucional-organizativa-planificacion/inteligencia-artificial.html
[3] https://www.ato.gov.au/about-ato/commitments-and-reporting/information-and-privacy/ato-ai-transparency-statement?utm_source=copilot.com
[4] https://www.gov.br/receitafederal/pt-br/assuntos/noticias/2026/fevereiro/receita-federal-publica-politica-de-inteligencia-artificial-com-foco-em-responsabilidade-transparencia-e-supervisao-humana
[5] https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html
[6] https://financing.desa.un.org/subcommittee-tax-administration-and-artificial-intelligence
[7] Nathwani, K. (2024). Artificial intelligence in automated decision-making in tax administration: the case for legal, justiciable and enforceable safeguards. London: Institute for Fiscal Studies. Available at: https://ifs.org.uk/publications/artificial-intelligence-automated-decision-making-tax-administration-case-legal
[8] Al respecto ver Collosa Alfredo “evaluación de los sistemas de IA que utiliza el IRS. Observatorio Blockchain. España. https://observatorioblockchain.com/ia/evaluacion-de-los-sistemas-de-ia-que-utiliza-el-irs-de-eeuu/
69 total views, 7 views today