Un fenómeno generador de conflictos y, por ende, motivo de preocupación para los prácticos del Derecho tributario ha sido la colisión o, quizás mejor para algunos, la fricción entre el deber de contribuir y los derechos del obligado. En los polos subjetivos que implica la relación jurídica se sitúa, por un lado, la Administración y por el otro el administrado en calidad de deudor de prestaciones materiales y formales. La primera dotada de facultades que cristalizan en principios como el de presunción de legalidad o el de autotutela de su actuación y justificadas por el interés general que fundamenta el deber de contribuir. El segundo situado en una posición desigual, de sometimiento de su interés particular, pero no por ello desprovisto de derechos que sirven de barrera ante posibles excesos de la regulación o la acción de la Hacienda pública con la justificación de hacer efectivo aquel deber. En resumen, para hacer efectivo el interés público de obtener recursos de los tributos no todo vale, pues se corre el riesgo de pasar de la contribución al gasto público a la privación arbitraria de patrimonio del sujeto.
En este conflicto casi eterno (si nos atenemos a la idea de Benjamin Franklin “En este mundo sólo hay dos cosas seguras: la muerte y pagar impuestos”), la tarea de la Administración ha sido velar por el cumplimiento del deber de contribuir y, para ello, cuenta con un nuevo instrumento. Éste no es una nueva potestad o privilegio, sino que tiene carácter tecnológico: la Inteligencia Artificial (en adelante IA). Con ella se maneja la ingente cantidad de datos que se obtienen de la masa de obligados tributarios.
Sin embargo, en general, desde sus primeros pasos se ha detectado que no se trata de un instrumento inocuo, sino que tiene también una parte ‘oscura’. Su mal uso, puede conllevar violentar aspectos como la intimidad, la privacidad, la libertad individual, el consentimiento no manipulado, etc. Es por ello que las autoridades europeas han puesto su atención y están trabajando en (en el momento en que se redactan estas líneas está en sus últimas fases) un Reglamento por el que se establecen normas armonizadas en materia de Inteligencia Artificial. En el texto de propuesta de esta norma se define la IA, en el art. 3, como:
“un sistema concebido para funcionar con elementos de autonomía que, a partir de datos e información generados por máquinas o por seres humanos, infiera la manera de alcanzar una serie de objetivos, utilizando para ello estrategias de aprendizaje automático o estrategias basadas en la lógica y el conocimiento, y produce información de salida generada por el sistema, como contenidos (sistemas de inteligencia artificial generativa), predicciones, recomendaciones o decisiones, que influyen en los entornos con los que interactúa el sistema de IA”
Según se extrae de la definición, con esta herramienta, introduciendo unos datos en el sistema que los procesa siguiendo unas pautas, se obtienen resultados que van desde contenidos hasta decisiones, pasando por predicciones y recomendaciones. Es fácil ver que puede ser muy útil para la actividad de la Administración tributaria que, como he dicho, maneja gran cantidad de información de diverso tipo. De hecho, el uso de esta tecnología aparece recogido en Plan Estratégico de la Agencia Tributaria 2020-2023 (https://sede.agenciatributaria.gob.es/static_files/AEAT/Contenidos_Comunes/La_Agencia_Tributaria/Planificacion/PlanEstrategico2020_2023/PlanEstrategico2020.pdf) en cuya página 40 se indica que:
“En la actualidad, cobran una importancia creciente los sistemas de análisis de información. En los próximos años la Agencia Tributaria aprovechará el potencial que ofrece la tecnología para culminar el proceso de automatización en la tramitación de procedimientos iniciado hace años. De esta forma se liberarán recursos humanos para las actividades de mayor valor añadido, se garantizará un tratamiento uniforme a los contribuyentes, se podrá facilitar el cumplimiento de sus obligaciones y contribuir a erradicar el fraude fiscal. Para ello serán claves tecnologías como el tratamiento del lenguaje natural, el tratamiento avanzado de datos y la inteligencia artificial.”
Esta apuesta por la tecnología en aras de hacer efectivos principios como el de eficiencia y eficacia en la gestión de los tributos se traduce en diversos sistemas de gestión de información que, por su nombre, parecen apelar a seres míticos-héroes para la lucha contra el fraude fiscal:
ZÚJAR: Una aplicación que permite trabajar con datos que pueden ser solicitados o creados por un usuario de la AEAT. Permite cruzarlos y filtrarlos por cualquier atributo que pueda interesar (bienes muebles, inmuebles, rentas, etc…)
PROMETEO: Una especialización del anterior para la carga de datos específicos para procedimientos de inspección y gestión.
TESEO: Una aplicación que permite el análisis gráfico de vínculos entre elementos de cualquier modelo negocio de los contribuyentes y que posibilita al usuario trazar relaciones con cuentas bancarias, operaciones, países, etc.…
GENIO: Una aplicación que permite a los usuarios generar informes a partir de los datos de ZUJAR que van desde distribución de personas trabajadoras por área geográfica o funciones, hasta informes sobre cómo evoluciona la recaudación de las figuras impositivas.
DÉDALO: Permite al usuario identificar contribuyentes cuando sólo se conocen parcialmente datos identificativos y maneja otros relacionados con él como pueden ser cuentas bancarias, vehículos, etc.…
INTER: Permite la interconexión de registros electrónicos entre Administraciones lo que significa un aumento de las posibilidades de gestión de datos y conocimiento de situaciones del contribuyente.
HERMES: El usuario obtiene una medición del nivel de riesgo del contribuyente que serán aplicados en procesos de selección y tramitación por parte de aplicaciones de gestión.
NIDEL: Un sistema que permite rastrear el incremento de patrimonio no justificados en personas que puedan estar relacionados con actividades delictivas
(Fuente: Elaboración propia desde el Documento de condiciones para la licitación de contratación de servicios de gestión y sistemas, mantenimiento y desarrollo de aplicaciones para el Departamento de Informática de la AEAT https://contrataciondelestado.es/wps/wcm/connect/8f852d38-69ec-488f-b996-65088381e4d9/DOC20200826124636PLIEGO+DE+PRESCRIPCIONES+TECNICAS.pdf?MOD=AJPERES)
Tras la mención de que en la UE se está gestando un reglamento sobre IA, en el que diferencia prácticas o usos prohibidos, de alto riego, de riesgo limitado o de riesgo mínimo en función de cómo afecta a los individuos en áreas como la salud, la seguridad, los derechos fundamentales de la Carta de la Unión Europea, la participación democrática, el principio de legalidad o el medioambiente, y el esbozo de una estructura tecnológica destinada a gestionar datos aplicando esa tecnología, una pregunta empieza a dibujarse: ¿en qué lugar se halla el sistema de gestión de información tributaria mediante IA a la luz de lo que establecerá el Reglamento europeo?
Una respuesta se obtiene desde el Considerando 38 de la Propuesta de Reglamento. Resumiendo, informa que los sistemas de IA gubernamentales serán de alto riesgo cuando afecten a derechos procedimentales fundamentales como la tutela judicial efectiva, el juicio justo, el derecho de defensa o la presunción de inocencia. Además, han de tener la misma clasificación los sistemas que puedan tener otros efectos negativos sobre los derechos fundamentales que garantiza la Carta. En general, deben ser clasificados de alto riesgo los sistemas de aplicación de la ley donde la precisión, la seguridad y la transparencia son particularmente importantes para evitar efectos negativos, mantener la confianza pública, garantizar la rendición de cuentas y la compensación efectiva. En esta línea sitúa expresamente a los sistemas vinculados con la imputación de cargos penales y la actividad probatoria de las autoridades en torno a los mismos.
Esta lógica de preocupación de clasificar como de alto riesgo sistemas de IA relacionados con delitos y procedimientos penales, a pesar de lo dicho, no se extiende a otros procesos como los previstos en Derecho tributario. Expresamente se dice que el uso de sistemas IA para hacer efectivos procedimientos de carácter administrativo efectuados por las autoridades tributarias y aduaneras no han de ser considerados de alto riesgo. Derívese entonces que, en su caso, serán de riesgo limitado o mínimo.
Es comprensible esta indicación de las autoridades europeas si se recuerda una característica básica de la norma tributaria. Si bien es una norma que incide en una importante esfera del individuo como es la patrimonial, su motivación es diferente a la que tiene la norma sancionadora. La norma tributaria no es de esta naturaleza, sino que configura el deber de contribuir a las cargas públicas que todo individuo en sociedad tiene. Ello, por supuesto, no es óbice para que la contribución se haga con Justicia para lo que han de realizarse actuaciones administrativas bajo los principios de eficiencia y efectividad. Ciertamente, el círculo se ha cerrado. El sujeto ha de contribuir, la Administración ha de velar que lo haga de forma justa y para ello aplica las ventajas que le ofrece la tecnología para una gestión eficiente y efectiva de los extremos de la relación jurídica que estructura el deber fundamental.
Tras lo dicho, la decisión tomada de apartar de la categoría de alto riesgo la gestión de los tributos mediante IA, parece que tiene una justificación basada en la naturaleza de las cosas: no estamos hablando de determinar infracciones y sancionar, sino de aplicar normativa de gestión tributaria. Sin embargo, tras una consulta de la Carta de los Derechos Fundamentales de la Unión Europea se plantean preguntas que hacen, por lo menos, poner en duda la corrección de la exclusión.
El art. 7 prevé el derecho a la privacidad y el art. 8 prevé la protección de datos de carácter personal. Si bien los datos económicos tienen un carácter especial en tanto que los derechos individuales sobre ellos están condicionados por el interés general que hacen efectivo las autoridades públicas, ¿no es suficiente el potencial peligro de sesgo que puede producirse en la elaboración de perfiles mediante IA que maneja datos económicos para reconsiderar la clasificación? Recordemos que el art. 22 del Reglamento (UE) 2016/679 de 27 de abril, de protección de datos, prevé el derecho de un sujeto a no ser objeto de decisiones basadas únicamente en el tratamiento automatizado o la elaboración de perfiles que produzcan efectos jurídicos lo que denota que se están poniendo precauciones en la afección a un derecho fundamental por la acción administrativa utilizando automatismos.
Así mismo, armarse de precauciones para que la IA no provea de datos sesgados llevando a diferenciar perfiles de riesgo a efectos tributarios y a someter a la acción inquisitiva de la Administración a grupos de individuos ¿no necesita considerar el derecho a la no discriminación del art. 21 de la Carta? o ¿no debería pensarse, a estos efectos, en la trascendencia del derecho individual del art. 41 de la Carta a una buena administración que trate sus asuntos de forma imparcial y que sea transparente con respecto a los sistemas que está utilizando como son los algoritmos de tratamiento de datos?
Tras lo dicho, se plantea si se está siguiendo el silogismo que se forma: si por posible afectación de los derechos fundamentales de la Carta Europea los sistemas de IA son calificados de alto riesgo y, además del derecho a un juicio justo o la tutela judicial efectiva, el derecho sobre lo propios datos, la no discriminación o a la buena administración son derechos fundamentales; entonces, los sistemas de IA como son los tributarios que los afecten también deben ser calificados de alto riesgo.
Es evidente que el Reglamento europeo, según el Considerando 38, no responde a esta lógica. Centra su atención en acentuar las precauciones de la calificación cuando se pueda afectar materia propia del Derecho penal dando por hecho que la gravedad de la afección no es de la misma entidad que en otras áreas. Sin embargo, si bien el Derecho tributario no tiene naturaleza sancionadora, sí otorga facultades a la Administración de carácter inquisitivo y de directa afección al individuo basadas en la gestión de información que pueden friccionar con sus Derechos fundamentales. Pues bien, si estos son base de la democracia, el Estado de Derecho y, sobre todo, la confianza de los ciudadanos en los poderes públicos en palabras de la norma europea ¿no habría que ampliar el foco del concepto alto riesgo más allá de lo puramente punitivo para reforzar esos valores en la consecución del interés general? Es un tema que merecería más reflexión o, al menos, de mayor justificación de la decisión adoptada pues, recuérdese, en las relaciones desiguales que regula el Derecho…no todo vale.
José Antonio Fernández Amor