Desde hace varios años, la Agencia Estatal de la Administración tributaria (AEAT) viene aplicando las nuevas tecnologías para la captura y/o captación de datos, el tratamiento masivo de los mismos, así como demás herramientas y técnicas evolucionadas, a las que, de forma coloquial, englobaríamos dentro de esa incierta categoría llamada Inteligencia Artificial. Es más, de forma recurrente, la propia AEAT se jacta de la implantación y uso de estas técnicas, en gran parte, para lanzar el pertinente mensaje de amedrentamiento a la población y la consiguiente coacción.
La cuestión es que, pese a la creciente literatura científica y técnica acerca del impacto y de los retos acerca de la implantación de estas nuevas tecnologías (en especial, la IA) por las administraciones tributarias, sorprende que, un tema tan crítico y peligroso para los derechos y libertades civiles, apenas esté presente en el debate público, especialmente, en nuestros foros profesionales.
De hecho, asisto atónito a la adopción e implantación de técnicas y herramientas por parte de la administración tributaria sin promover la necesaria reflexión y el necesario control activo sobre el diseño y la oportunidad de las mismas.
Aunque la AEAT, desde sus orígenes, allá por el año 1992, ya mostró un decidido interés por la captación, acumulación y el procesamiento de datos, bien para temas estadísticos como para el control del fraude fiscal, tras la implantación decidida de la administración electrónica tras la entrada en vigor de la Ley 11/2007, el teórico derecho del ciudadano (a relacionarse electrónicamente con la Administración) ha servido como cobertura para introducir y desarrollar las técnicas más avanzadas para la captura masiva de datos y la gestión de la información para control y seguimiento de los contribuyentes.
No lo digo yo, sino la misma Agencia Tributaria. Así, por ejemplo, en palabras de Mª. Luz Gómez López, Subdirectora general de Estadísticas, en un artículo reciente (aquí), entre otras conclusiones, se felicitaba que,
«(…), la tecnología ha facilitado la utilización de consultas sofisticadas y su uso se ha puesto a disposición de usuarios internos y externos, mejorando a su vez los procesos de control; la integración automática de información del sujeto con fuentes internas y externas que permite obtener información ampliada de los contribuyentes, sofisticando y depurando aún más si cabe, el tratamiento estadístico de la información, multiplicando sus finalidades, sin abandonar la necesidad de datos más exactos y relevantes para la selección y el control.»
En este contexto, la reciente Sentencia 3295/2023 del Tribunal Supremo, de fecha 11 de julio de 2023, pone en evidencia el abuso de la administración de los medios electrónicos transformando lo que la norma configura como un derecho del contribuyente (artículo 96.2 de la Ley 58/2003, en relación con el artículo 14.1 de la Ley 39/2015) en un deber u obligación en beneficio y por interés de la Administración.
«Pues bien, proclamado en el art. 96.2 LGT el derecho de los ciudadanos a relacionarse electrónicamente con la Administración, no cabe interpretar que la habilitación legal del art. 98.4 LGT, al igual que la contenida en el art. 96.5 LIRPF o en el art. 117 RGAT, permitan al Ministro de Hacienda establecer con carácter general una obligación allí donde el art. 96.2 LGT establece un derecho.»
Este pronunciamiento, gracias al fenomenal trabajo de la AEDAF y, en particular, de Esaú Alarcón, posee una gran trascendencia y marca una línea doctrinal a la que, es probable que nos debamos asir en el futuro, para recordarle a la Administración que la tecnología debe estar al servicio de los ciudadanos y no, al revés, como pretendía.
Pues bien, asumiendo y aceptando la necesidad de disponer de datos e información para evitar el fraude fiscal y garantizar el debido cumplimento de las obligaciones tributarias por la ciudadanía, como siempre, el debate se centra en la conciliación de dicho objetivo con el respeto de los derechos y libertades ciudadanos.
Como os anticipaba, en los últimos años, han surgido diversas publicaciones donde abordan estas cuestiones, normalmente, de naturaleza ética y o de filosofía del Derecho, en las que se trata de conciliar la utilización por parte de la Administración de la teórica Inteligencia Artificial dentro del ordenamiento vigente. Entre otras, destacaría dos magníficos artículos, a los que podéis acceder libremente, «Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el Derecho» (2019) de Lorenzo Cotino Hueso (aquí) y el trabajo (aquí) de los profesores Óscar Capdeferro Vilagrasa y Juli Ponce Solé, «Nudging e inteligencia artificial contra la corrupción en el sector público: posibilidades y riesgos» (2022).
La verdad es que cuando se aborda el estudio de la IA y su conexión con la incipiente regulación, tanto a nivel interno (Ley 15/2022, de 12 de julio) como a nivel comunitario (Propuesta COM/2021/206 final de Reglamento UE en materia de inteligencia artificial), afloran una serie de cuestiones o premisas fundamentales que deberían ser objeto de debate y reflexión.
A mi modo de ver, se está aceptando, de una forma un tanto acrítica, la adopción y utilización de la Inteligencia Artificial (IA) por parte de las Administraciones públicas, y en especial, por la AEAT, asumiendo una serie de premisas, si no directamente falsas, cuando menos, muy controvertidas.
La visión mecanicista del hombre. La propia noción de «Inteligencia Artificial» parte de la concepción de que existe una «Inteligencia Natural» que obedece a una serie de procesos físicos u orgánicos, susceptibles de ser conocidos y reproducidos gracias al dominio de la técnica. Gran parte de los defensores de la IA asumen, consciente o tácitamente, que el ser humano es una suerte de máquina compleja regida por un cerebro (que no mente, y, por supuesto, sin alma) y sus acciones e ideas obedecen a procesos físicos y mecánicos susceptibles de ser reproducidos de forma artificial.
Como señaló Joseph Weizenbaum, uno de los pioneros de la IA y, posteriormente, uno de sus grandes críticos, «(…) en el fondo, no importa cómo esté disfrazado por la jerga tecnológica; la cuestión radica en si cada aspecto del pensamiento es o no reducible a un formalismo lógico, o, para expresarlo en lenguaje moderno, si el pensamiento humano es o no «computable»» («La frontera entre el ordenador y la mente» Ediciones Pirámide, S.A. Madrid. 1976).
Esta concepción del hombre no sólo asume que sus acciones y pensamiento son objetivables y, por tanto, reproducibles artificialmente, sino que, una vez determinadas aquellas acciones que se estiman correctas, bastaría con buscar aquellos elementos que permitan accionar o incentivar los comportamientos deseados.
De hecho, esta objetivación de las conductas subyace en la mayoría de los diseños de la IA y la automatización de procesos por parte de la Administración tributaria, de tal forma que, ante cualquier comportamiento del contribuyente que se desmarque de lo preestablecido, se inicia el correspondiente procedimiento para corregir sus actos y, en su caso, la consiguiente regularización. Una prueba de ello son los programas de ayuda de la AEAT en los que, sutilmente, se elimina la opcionalidad y no se contemplan posibles interpretaciones razonables en la aplicación práctica de la norma tributaria, de tal forma que, basta cualquier actuación divergente o fuera del cauce previamente marcado, para que la Administración se active y, eventualmente, la califique de infractora y, por tanto, sancionable.
La cuestión que aflora es dónde quedaría entonces la voluntad del hombre, su libertad, el libre albedrío. Porque, si partimos de la noción de que el obrar o el comportamiento deriva de procesos mecánicos (sólo tenemos cerebro y no poseemos mente), no tiene ningún sentido imputar responsabilidad a una persona, no existe verdadera subjetividad en los términos definidos en la doctrina jurisprudencial en materia penal y sancionadora, salvo que, estamos ante una configuración de meros procesos mecánicos de represión para reconducir al engendro biológico obligado a pagar impuestos.
La neutralidad de la tecnología. Así como el conocimiento o el saber objetivo y fáctico, en sí, podría ser aséptico y neutral, la utilización de este para la creación y desarrollo de instrumentos, herramientas y tecnologías no es neutral, pues la acción creativa deriva de la voluntad y objetivos de las personas que intervienen. Así como podríamos afirmar que el conocimiento sobre energía nuclear es científicamente objetivo y neutral, en cambio, los usos y aplicación de dicho conocimiento no lo es en absoluto. No es lo mismo, trabajar en el desarrollo de armamento que en la generación de energía para su uso civil. Es decir, el fin buscado, unido a los normales sesgos y voluntades de los participantes, condicionan el diseño y construcción de la tecnología.
La neutralidad a la que aludo va más allá del principio de neutralidad tecnológica que se contempla en el artículo 2.a del Real Decreto 203/2021, de 30 de marzo, del Reglamento de actuación y funcionamiento del sector público por medios electrónicos. El citado precepto compromete al regulador de tal forma que la elección de la tecnología pueda influir en el libre mercado y condicionar las decisiones sobre su empleo por los usuarios. La neutralidad a la que aludo es acerca del origen de la propia tecnología, en el impulso creador de la que emana.
Este debate está muy presente en el ámbito de la Comunicación gracias a los trabajos de Marshall McLuhan («el medio es el mensaje«) y como muy bien desarrolla Nicholas Carr en su obra «Superficiales» (2010), donde estudia el impacto de las nuevas tecnologías de la comunicación en las personas y en sus procesos de pensamiento y aprendizaje. Como denuncia en su obra, aunque las redes sociales en apariencia facilitan la comunicación e interacción entre personas, en la medida que se han diseñado para atrapar la atención de sus usuarios y que se mantengan de forma acrítica en el entorno digital, al final, su uso acaba deteriorando el pensamiento racional y la aprehensión de conocimiento.
Por tanto, es esencial determinar y conocer quién interviene en la creación y desarrollo de una tecnología en un ámbito concreto. Quien define los objetivos, controla el diseño y predetermina los resultados, en definitiva, es el demiurgo originario. Por supuesto que, en ocasiones, se producen resultados imprevistos e, incluso, indeseados. Sea como sea, la tecnología aplicada nunca será neutral, su resultado viene condicionada de origen.
Retornando a nuestro microcosmos tributario, vayamos a lo práctico y a las primeras preguntas. ¿Cuál es el fin u objetivo de las herramientas y tecnologías de la IA que utilizará la AEAT? ¿La persecución del fraude fiscal o el debido cumplimiento de la normativa tributaria vigente? Aparentemente son similares, pero no lo son, pues mientras que, el segundo (aplicación correcta de la norma tributaria) comprende el primero (evitar el fraude fiscal), el primero no contempla, por ejemplo, que la propia Administración corrija sus errores a favor del contribuyente y proceda al retorno, de oficio, de aquellas cuantías indebidamente obtenidas.
Por tanto, dependiendo de los objetivos reales y de los actores clave en el diseño y en el desarrollo de las tecnologías de IA, podemos prever un resultado u otro, un arma de destrucción masiva de derechos y libertades civiles o, por el contrario, un instrumento para una verdadera relación cooperativa y colaborativa. Analicemos quién decide, cómo se decide y quién controla a los que deciden y, a partir de ello, tendremos las respuestas.
El Estado es bueno. Dejando de lado el debate filosófico y político sobre la naturaleza del Estado y su bondad o maldad intrínseca, sea como sea, el Estado es una organización de personas, la institucionalización moderna de la polis, o sea, una entidad conformada por hombres y mujeres.
Pues bien, en la medida que, aparentemente, el Estado, movido por la voluntad general, orienta su acción hacia el bien común, la mayoría de la población asume que el Estado actuará correctamente y no utilizará sus medios y recursos en beneficio propio (mejor dicho, de aquellos que controlan la voluntad general) o en perjuicio de la colectividad que lo conforma. En este sentido, hay una tendencia generalizada de la masa humana en delegar en el Estado las decisiones (y, por tanto, las responsabilidades), sometiéndose voluntariamente a los dictados y aceptando los deberes y obligaciones, como una parte del contrato social al que se han adherido.
Ahora bien, así como todas las personas somos naturalmente susceptibles de corrupción y padecemos afectaciones en nuestra voluntad, toda institución u organización humana, en la medida que está conformada por personas, es esencialmente corruptible y puede cometer errores. Por tanto, la hipótesis de que el Estado es bueno es, en el mejor de los casos, falsable.
Por consiguiente, sea como sea la ciudadanía debería someter al Estado a las máximas precauciones en cuanto al uso de los datos e información obtenida en sus relaciones con los ciudadanos, limitar el tratamiento masivo y, por supuesto, implantar una versión muy ampliada y restrictiva respecto del uso y empleo de la IA para el control del fraude fiscal, por ejemplo.
A modo de apunte, aparte de los principios generales de IA de la OECD de inclusión, transparencia, justicia, responsabilidad y robustez, en diversos foros se solicita que los mismos debieran complementarse con otros, algunos de ellos tan relevantes como el de beneficencia (hacer el bien), no maleficencia (no causar daños), autonomía o respeto a la acción humana, así como la explicabilidad o inteligibilidad. Con ello no quiero decir que la AEAT no los aplique o no los respete, ahora bien, tampoco tengo ninguna prueba de que ello sea así. Y, como ciudadano, exijo tener certezas y disponer de las garantías suficientes.
Estas breves y humildes notas son sólo una pequeña reflexión compartida con el ánimo de abrir el debate sobre la implantación y el uso de las nuevas tecnologías de gestión de los datos y de la IA, en el ámbito tributario, en particular, su utilización por la AEAT.
Finalizo reproduciendo el apartado 6 contenido el XVIII de la Carta de Derechos Digitales aprobada el 14 de julio de 2021, documento declarativo y no normativo, que debería servir de referencia mínima para el ordenamiento:
«6. Se promoverán los derechos de la ciudadanía en relación con la inteligencia artificial reconocidos en esta Carta en el marco de la actuación administrativa reconociéndose en todo caso los derechos a:
a) Que las decisiones y actividades en el entorno digital respeten los principios de buen gobierno y el derecho a una buena Administración digital, así como los principios éticos que guían el diseño y los usos de la inteligencia artificial.
b) La transparencia sobre el uso de instrumentos de inteligencia artificial y sobre su funcionamiento y alcance en cada procedimiento concreto y, en particular, acerca de los datos utilizados, su margen de error, su ámbito de aplicación y su carácter decisorio o no decisorio. La ley podrá regular las condiciones de transparencia y el acceso al código fuente, especialmente con objeto de verificar que no produce resultados discriminatorios.
c) Obtener una motivación comprensible en lenguaje natural de las decisiones que se adopten en el entorno digital, con justificación de las normas jurídicas relevantes, tecnología empleada, así como de los criterios de aplicación de las mismas al caso. El interesado tendrá derecho a que se motive o se explique la decisión administrativa cuando esta se separe del criterio propuesto por un sistema automatizado o inteligente.
d) Que la adopción de decisiones discrecionales quede reservada a personas, salvo que normativamente se prevea la adopción de decisiones automatizadas con garantías adecuadas.»
gracias
En primer lugar gracias por compartir tus, siempre, profundos comentarios. Por mi parte, señalar que antes de referirnos a cuestiones filosóficas o de deber ser, lo que siempre será exigible a las actuaciones de la Administración es su adecuación a los principios constitucionales y de respeto a la ley de procedimiento que, por ahora, le resultan aplicables.
Desde el punto de vista del procedimiento , supuesto obviamente que no se vulneran los principios constitucionales de respeto a la inviolabililidad del domicilio y privacidad de datos, entiendo que en la práctica son dos los requisitos basicos para que un acto de la administración no resulte nulo de pleno derecho, cual es la necesaria motivación y, su casi corolario, de no invertir la carga de la prueba.
Desde dicho punto de vista, entiendo que la cuestión a dilucidar es si el hecho de que una la totalidad del procedimiento administrativo esté automatizado por la utilización de una IA que genere el propio texto del acto que posteriormente se notifica al contribuyente, sin mayor actuación administrativa humana que el refrendo formal del órgano responsable, tramite que normalmente estará igualmente automatizado, reúne los requisitos mencionados.