La terminación de procedimientos tributarios mediante inteligencia artificial aparece reconocida por la Ley General Tributaria desde el año 2003 a través de la denominada contestación automatizada. Delimitar el sentido de esta contestación automatizada resulta un reto cuajado de profundas implicaciones que interroga sobre los límites y las garantías de la inteligencia artificial y sobre la singularidad que supone dicha contestación en el seno del procedimiento[2].
La contestación automatizada de la Administración es un acto administrativo decisorio, aunque no es una resolución administrativa, es una equiparación a dicha forma de terminación del procedimiento. La equiparación se efectúa a través de una ficción jurídica que la considera como tal, y es una equivalencia a los meros efectos de poner término al procedimiento tributario. La diversa naturaleza de dicha figura se evidencia tanto por criterios formales como materiales. De los criterios formales se observa como la expresión del art. 100 de la LGT remarca tal idea –“Tendrá la consideración de […]”-, no dice que sean resolución, sino que se consideran como tal.
Desde un plano material, los procesos de decisión en la resolución y la contestación automatizada son diversos como evidencia la necesidad de señalar al sujeto autor de la contestación automatizada y el indicar la competencia para conocer del recurso contra ella. También, y en el plano de las garantías y régimen jurídico, la contestación automatizada conlleva la necesidad de autorizar los programas informáticos que la hacen posible.
Dado que la contestación automatizada no es una resolución, en sentido estricto, el ámbito de aplicación previsto para las resoluciones y las contestaciones automatizadas pueda diferir. Y las consecuencias jurídicas son remarcables, pues no todo procedimiento finalizado mediante resolución puede ser resuelto mediante contestación automatizada; es necesario un acto normativo que expresamente lo habilite. La necesidad de una norma reglamentaria también aparece relacionada con la protección de datos personales, y entronca con la garantía del art. 22 del Reglamento de la UE 2016/679. Dicha garantía se halla excepcionada por la existencia de legislación del Estado o el Derecho la Unión; ahora bien, la exigencia expresa a una medida legislativa -aun interpretada de forma amplia- demanda normas jurídicas, como mínimo de rango reglamentario.
Esta resulta una primera consideración importante: la Administración tributaria no podrá poner fin a procedimientos tributarios mediante inteligencia artificial -mediante contestaciones automatizadas- hasta que no exista una norma reglamentaria que la habilite.
El segundo interrogante que genera, en términos de lege ferenda, resulta determinar los procedimientos que podrían terminar mediante dicha contestación automatizada. Tales procedimientos habrían de considerar los siguientes criterios.
En primer lugar, y en la línea del art. 100 de la LGT, han de tener por objeto la materia tributaria, no cabe aquella en la que, o bien, no se aplique dicho procedimiento o que, aplicándose, no tengan dicha naturaleza. Nos estamos refiriendo a las sanciones impuestas a través de procedimientos formalmente tributarios -en caso de renuncia o de acta con acuerdo-, pues su contenido no deja de ser punitivo. Pero también, y propendiendo en una postura sustancialista de la sanción y sus garantías, cabe extender su aplicación a procedimientos tributarios que tramitan contenidos sancionadores, ya sea en vía de recurso o, ya sea, a la hora de su recaudación.
En segundo lugar, y como regla general, cabe excluir su aplicación de actuaciones que precisen de motivación, pues si el algoritmo no permite indagar las razones de la decisión no puede subvertirse, ni su exigencia, ni la necesidad de control. En tal sentido la motivación, cuando es requerida legalmente, supone el umbral aplicativo de la inteligencia artificial que sea incapaz de efectuarla de forma suficiente. Lo cual no es óbice para que existan decisiones en donde la actuación automatizada coadyuve a la decisión de una persona humana.
¿A que vienen todas estas cautelas para los notables beneficios que conlleva el uso de la inteligencia artificial? La norma jurídica demanda procesos aplicativos complejos en donde aprehender la realidad, conocer el Derecho y explicar el proceso de razonamiento hace imprescindible -hasta la fecha- la inteligencia humana. En este sentido cabe hablar de tres principios/garantías a tutelar derivados de tal afirmación.
En primer lugar, la sumisión al Derecho. La aplicación del Derecho no supone sólo considerar normas escritas, definidas y concretas, sino todas las fuentes del Derecho, incluidos los principios generales. Cabe recordar que la Administración aparece sometida no sólo a la ley sino al Derecho como afirma el art. 103.1 de la CE. En tal contexto la búsqueda de los principios, su prelación, y la solución de las controversias jurídicas son tareas esencialmente racionales en donde el sentido común y las múltiples inteligencias humanas necesitan estar presentes. El uso de la IA en tales procesos exige probar la posibilidad de su aplicación al autorizar los programas informáticos, y se ha de facilitar el control del iter seguido.
En segundo lugar, se ha de garantizar la seguridad jurídica. Se ha de poder prever, conocer, y controlar la lógica empleada atendiendo a la complejidad que supone tanto la apreciación de los hechos como la aplicación normativa. El principio de seguridad jurídica supone un valor y principio constitucional recogido en el art. 9 por lo que demanda garantías, en ningún caso soslayables por meras resoluciones administrativas que autoricen la utilización de tales programas y medios mecanizados.
Y, por último, se ha de asegurar que no existe arbitrariedad. Se ampara dicho principio en la medida que puedan fiscalizarse las razones y fundamentos en que se basa la decisión jurídica. Nuevamente se trata de un principio constitucionalizado que se garantiza, principalmente, a través de la posibilidad de su control mediante la motivación. Si no pueden conocerse y fiscalizarse las lógicas de las decisiones tomadas de forma automatizada existe el riesgo de convertir a la máquina en un oráculo de la ley, o la representación de una divinidad laica cuyos designios resultan irrefutables. No se trata saber de manera exhaustiva y detallada como opera la IA y sus procesos internos, pues al ser humano tampoco le podemos fiscalizar dichos procesos neuronales, sino de poder controlar los procesos básicos de decisión. La motivación que puede ser exigible es aquella que resulta determinante de la decisión y permite su control.
El nuevo Reglamento de la Unión europea sobre IA ¿cambiará esta situación? No, porque se trata de una regulación que pretende, más que habilitar prácticas de los Estados, establecer cautelas y garantías en relación con concretos usos considerados de riesgo. En este sentido, y de acuerdo con lo que expone su Considerando 38, la materia tributaria se excluye de la categoría de alto riesgo y de las garantías asociadas. Lo anterior no supone una permisión a cualquier uso ni cautela. De ahí que la norma nacional es la encargada de fijar los requisitos para la actuación administrativa. Atendiendo a lo analizado resulta que la Administración tributaria no puede realizar contestaciones automatizadas sin los requisitos legales, de los que específicamente deducimos la obligación de que una norma reglamentaria establezca tal posibilidad.
En definitiva, para emplear la inteligencia artificial no basta que la máquina pueda hacerlo, es necesario que en su realización se respeten los derechos, intereses y garantías propias del contexto al que se aplica. Es básico respetar un régimen jurídico que, con el rango adecuado, contemple las posibilidades de actuación valorando los riesgos y las garantías a tener presente. No sólo hace falta sentido común, que sin duda el funcionario o autoridad administrativa posee, sino garantías y controles que avalen las opciones necesariamente valorativas que han de tomarse.
Dr. Miguel Ángel Sánchez Huete
[1] El presente comentario se enmarca en el proyecto de investigación “Reorientación de los instrumentos jurídicos para la transición empresarial hacia la economía del dato” PID2020-113506RB-100 de la Universidad Autónoma de Barcelona dirigido por el Dr. José Antonio Fernández Amor. REFERENCIA DEL PROYECTO/AEI/10.13039/501100011033″.
[2] Este comentario tiene como base el artículo “La contestación automatizada de procedimientos tributarios” publicado en Civitas. Revista Española de Derecho Financiero, nº 198. 2023. En dicho artículo se contienen las referencias y preceptos normativos que más detalladamente sustentan las afirmaciones que efectuamos.