¿Qué herramientas de IA generativa pueden usar los funcionarios de las administraciones tributarias?

El motivo que me llevó a compartir con ustedes el presente es, a la luz de los notables avances que está produciendo la Inteligencia Artificial (IA) generativa con la aparición de diversas herramientas que prometen con su uso mejorar la eficiencia y eficacia de los distintos procesos, reflexionar respecto a qué herramientas de IA generativa pueden utilizar los funcionarios de las administraciones tributarias (AATT) para realizar su labor diaria. Esto es, ¿pueden utilizar libremente cualquier herramienta disponible en el mercado? o ¿deben utilizar únicamente las herramientas que sean aprobadas por las AATT en las que laboran?
Interesa destacar que en el mercado existen múltiples herramientas de IA generativa disponibles en modo open source con acceso gratuito y en algunos casos en etapas de experimentación. Existen desde herramientas de generación de texto y asistentes de contenido que permiten resumir textos, traducir textos, generar contenidos, herramientas de creatividad visual y generación de audios, herramientas de productividad y desarrollo profesional, desde la redacción de correos hasta la gestión de proyectos o la programación, entre otras.
Al respecto, en primer lugar, debo aclarar mi posición siempre a favor de la tecnología ya que, como dije en este mismo blog en el año 2017, estoy convencido de que la tecnología debe colaborar para simplificar el complejo mundo de los impuestos. A diario vemos ejemplos de cómo la tecnología va simplificando los procesos, como por ejemplo la facturación electrónica y diversas herramientas de facilitación del cumplimiento tributario como las declaraciones juradas prellenadas o las aplicaciones móviles creadas por las AATT.
Entiendo que más temprano que tarde todos los funcionarios de las AATT terminarán utilizando herramientas de IA generativa por las ventajas indudables que muchas de ellas presentan. Ahora bien, sentada esta posición inicial, quiero alertar de los riesgos concretos que se producen con la utilización de estas herramientas.
Al respecto, interesa citar como un ejemplo concreto los casos que se van presentando en los diversos países de profesionales que utilizaron estas herramientas y mediante las mismas generaron contenido falso o inexistente. En el caso Ayinde vs Haringey, la abogada Sarah Forey presentó un escrito con citas jurisprudenciales falsas y una interpretación errónea de la ley. Alegó que usó una lista personal de casos, pero no pudo justificar el origen de las citas y no corrigió los errores. Como consecuencia, fue sancionada económicamente y remitida al Colegio de Abogados. La sentencia fue dictada por el Tribunal Superior del Reino Unido (Kings Bench División) el 6 de junio de 2025.
Se han presentado otros casos en Gautier v. Goodyear (Texas, julio 2024), Morgan & Morgan (EEUU, febrero 2025), Butler vs Snow (Alabama, mayo 2025), Al Haroun contra Qatar National Bank QPSC y Anor 2025 EWHC 1588 Comm (Reino Unido, junio de 2025). En todos estos casos se comprobó un uso indebido de herramientas de IA generativa por abogados, sin la debida verificación del contenido antes de presentarlo ante el tribunal. Los Tribunales advirtieron que si bien la IA puede ser útil, la misma presenta riesgos si no se controla. Las herramientas de IA generativa pueden generar textos plausibles pero falsos (jurisprudencia inventada, citas incorrectas). Por ello, dijeron que los abogados deben verificar toda la información proveniente de IA, como lo harían con cualquier fuente ya que no hay excusa válida para presentar material falso al tribunal.
Asimismo, la Comisión Federal de Comercio de Estados Unidos (FTC) ha impuesto una multa de 193.000 dólares y otras sanciones a DoNotPay, una startup que se promocionaba como creadora del primer abogado robot con inteligencia artificial del mundo. La sanción responde a acusaciones de publicidad engañosa, ya que la empresa aseguró que su chatbot podía reemplazar a abogados humanos, sin ser cierto.
Frente a estos riesgos, quiero destacar los marcos regulatorios propios del uso de la IA que se están aprobando en diversos países, tal como el Reglamento de IA de la Unión Europea. Además, en muchos países se están emitiendo recomendaciones normativas respecto al uso de herramientas de IA. Por citar un ejemplo reciente, la Corte Suprema de Arkansas publicó un proyecto de orden administrativa que prohíbe expresamente a funcionarios judiciales y usuarios del sistema de gestión interna ingresar información confidencial o sellada en herramientas de IA generativa (ChatGPT, Copilot, Gemini, etc.). El texto advierte sobre la posibilidad de que estas plataformas retengan, reproduzcan o reutilicen los datos ingresados para entrenar modelos, lo cual puede constituir una violación a reglas de ética profesional, normas de acceso restringido y deberes de confidencialidad funcional. Se admite su uso únicamente en entornos controlados o proyectos autorizados, bajo supervisión institucional.
Cabe resaltar que todos estos riesgos citados son aplicables también al ámbito de las AATT. Podemos agregar otros riesgos de la utilización de estas herramientas de IA generativa como aquellos relacionados con la seguridad de la información, fundamentada en los principios esenciales de confidencialidad, integridad y disponibilidad de los datos y sistemas. Las herramientas pueden reflejar o amplificar prejuicios existentes en los datos con los que fueron entrenados, reproduciendo estereotipos con respuestas sesgadas. Asimismo, el uso de dichas herramientas en las AATT puede exponer a las organizaciones a ciberataques, pérdida de datos o accesos no autorizados.
Al respecto, me parece muy positivo que muchas AATT están dando a conocer sus estrategias de uso de IA. Por ejemplo, en España se aprobó una estrategia de IA de la Agencia Tributaria que se enfoca en usar la IA para mejorar la asistencia al contribuyente, aumentar la eficiencia y la recaudación mediante el análisis de datos y la lucha contra el fraude fiscal. La implementación se guiará por los principios de responsabilidad y un enfoque «human centric”, asegurando el respeto a los derechos, la ética, la transparencia y la prevalencia de las decisiones humanas.
Por ello, volviendo a las preguntas que nos motivaron a escribir este post, ¿pueden los funcionarios de las AATT utilizar libremente cualquier herramienta disponible en el mercado? o ¿deben utilizar únicamente las herramientas que sean aprobadas por las AATT en las que laboran? Al respecto, entiendo que es vital que los funcionarios sólo utilicen las herramientas que sean provistas por las AATT. Ello para evitar todos los riesgos que hemos comentado en el presente, así como muchos otros que pueden surgir de un uso libre de cualquier herramienta de IA Generativa. Nos parece muy importante que las AATT vayan emitiendo recomendaciones de uso de estas herramientas para sus funcionarios. Se debería advertir con total claridad que no se pueden utilizar las herramientas que no sean provistas por las AATT. Asimismo, por ejemplo, ordenar al personal no compartir información clasificada como “reservada confidencial” ni “reservada secreta”.
Las herramientas de IA que deberían utilizar los funcionarios de las AATT provistas por dichos organismos deberían respetar distintos principios fundamentales para una IA lícita y ética y en beneficio de la ciudadanía como son el principio de explicabilidad, el de transparencia, rendición de cuentas y supervisión humana, entre otros, como también la protección de datos personales y el deber de confidencialidad. Será fundamental en todo el proceso la formación y capacitación continua del personal de las AATT en el uso de estas herramientas fomentando el trabajo interdisciplinario y actualización constante.
Está claro que la IA presenta un escenario de cambios disruptivos para las AATT entre el mediano y el largo plazo. La transformación digital implica no solo cambios estructurales sino también culturales. Las AATT necesitan entender cómo la tecnología impacta en sus funciones y desarrollar las habilidades necesarias para usarla eficientemente. Pero nunca se debe perder de vista que las TIC son una herramienta para obtener mejores resultados, es decir, no son un objetivo en sí mismo, de nada sirve la tecnología “como moda” sino que debe preguntarse siempre cuál será el objetivo estratégico de su incorporación.
En definitiva, la IA no debería enfocarse hacia el reemplazo de las competencias públicas, sino que debe aumentar o complementar las capacidades humanas, para que las personas puedan agregar valor a sus tareas, y a la vez, mejorar la calidad y eficiencia de las funciones públicas para los ciudadanos.