Desconto:
-5%Antes:
Despois:
26,00 €La presente monografÃa tiene por objeto analizar los riesgos derivados de la utilización de la inteligencia artificial por la Administración tributaria, sobre todo con fines comprobatorios. Resulta innegable que la inteligencia artificial puede potenciar la lucha contra el fraude fiscal y, en este sentido, la selección de contribuyentes a efectos comprobatorios se erige en uno de los máximos exponentes de esa funcionalidad. Esta tecnologÃa permite a la Administración tributaria elaborar perfiles de contribuyentes y clasificarlos en función de su Ãndice de riesgo de incumplimiento para, de este modo, optimizar la apertura y tramitación de los oportunos procedimientos tributarios de comprobación o inspección. Ahora bien, esta utilización de la inteligencia artificial puede generar fricciones con determinados derechos y garantÃas de los contribuyentes. Desde esta perspectiva, se ha buscado analizar la opacidad y los sesgos de los sistemas de inteligencia artificial, en tanto principales riesgos vinculados a su empleo por la Administración tributaria, sobre todo a efectos comprobatorios. Y ello al objeto de dilucidar cuál es el peligro real de que esa falta de transparencia o desviación en las respuestas computacionales pueda generar indefensión o discriminación para los obligados. A tales efectos, el trabajo parte de una breve aproximación a la inteligencia artificial, examinándose la base jurÃdica de su utilización por parte de la Administración tributaria. Seguidamente, se trata la cuestión de la opacidad que suele anudarse a la inteligencia artificial, preguntándonos si cabrÃa predicar una especie de derecho a conocer cómo la Administración emplea estos sistemas en su actuación y, en su caso, cuál podrÃa ser su anclaje y contenido jurÃdicos. Concretamente, se examina si la Administración tributaria deberÃa motivar cómo ha operado la inteligencia artificial a la hora de incluir a los contribuyentes en los procedimientos de comprobación o inspección. De otro lado, los sesgos algorÃtmicos y su posible plasmación en discriminaciones para los obligados constituyen otra de las amenazas potenciales del empleo de la inteligencia artificial por la Administración tributaria. Aquà la cuestión nuclear estribarÃa en determinar hasta qué punto esos sesgos abocan necesariamente en una discriminación jurÃdicamente relevante. En particular, se pretende analizar en qué medida la elaboración de perfiles de contribuyentes para su selección a efectos comprobatorios en virtud de estas técnicas conlleva, o no, una probabilidad superior de que aquellos sufran alguna clase de discriminación jurÃdica. Finalmente, se examina en profundidad la propuesta de Reglamento sobre inteligencia artificial realizada por la Comisión, la cual trata de ofrecer una regulación proporcionada de este fenómeno, basada en el riesgo, de modo que sólo se impongan restricciones y requisitos a aquellos sistemas de inteligencia artificial potencialmente lesivos para la seguridad y los derechos fundamentales. No obstante, hay que tener en cuenta que dicha propuesta, asà como el texto transaccional acordado por el Consejo, parecen no aplicar los requisitos y garantÃas previstos para los sistemas de alto riesgo a los empleados por la Administración en los procedimientos tributarios.