vertaal/translate print sitemap zoeken disclaimer contact

Rechtspraak formeel belastingrecht

Algoritme, signalering en risico classificatie modellen en de Belastingdienst

De Belastingdienst gebruikt al jaren algoritmes om risico’s te signaleren, met de huidige AI mogelijkheden zal dit de komende jaren alleen maar toenemen. Maar waar ligt de grens tussen efficiënt toezicht en onrechtmatige profilering? De recente uitspraak van Rechtbank Den Haag (22 april 2026)  ECLI:NL:RBDHA:2026:5199 keek de rechtbank kritisch naar het OB Negatief-algoritme. Het mag allemaal maar er moet wel voldoend transparantie zijn en het algoritme moet controleerbaar zijn.

Voor ondernemers en adviseurs is dit geen theoretische discussie. Het raakt direct aan de vraag hoe aangiften worden geselecteerd, hoe groot de kans op controle is en of de Belastingdienst zich houdt aan de beginselen van behoorlijk bestuur. Doen ze dit niet dan zullen de uitkomsten niet als basis voor de aanslagen mogen worden genomen. In dit artikel wordt dus gekeken naar onderzoekssystemen die wellicht in strijd zijn met de AVG wetgeving, privacy of archiefwet.

Algoritme, europese wetgeving, AVG en de belastingdienst

In dit artikel analyseren we de uitspraak maar kijken ook naar het bredere kader, zoals andere signaleringslijsten en gebruik van AI door de Belastingdienst. Blind vertrouwen op algoritmes en signaleringslijsten werken niet altijd, kijk maar naar alle gedoe over de toeslagenaffaire.

De kern van de uitspraak van de Rechtbank Den Haag is niet dat “de Belastingdienst vrij spel” krijgt met algoritmen. De kern is smaller:

  • een geautomatiseerd risicoselectiemodel kan in het fiscale toezicht standhouden wanneer het model slechts een voorselectie maakt,
  • de verdere beoordeling door een mens gaat plaatsvindt,
  • het model is ingebed in een wettelijke toezichtstaak, en
  • concrete aanwijzingen voor discriminatie of andere onoorbare selectiecriteria ontbreken

Algoritme en fraude signalering systeem van de belastingdienst

Een model dat negatieve btw-aangiften sorteert voor handmatige behandeling staat juridisch wezenlijk anders dan een systeem als FSV (Fraude Signalering Systeem), dit is niet toegestaan. Binnen dit systeem werden ruim 200.000 mensen onderzocht, pijnlijker dan deze signalering hebben we ook zelden gezien (artikel belastingdienst). De Autoriteit Persoonsgegevens heeft over FSV vastgesteld dat de verwerking onrechtmatig was, dat er geen toereikende grondslag bestond, dat de toegang te ruim was, dat gegevens te lang werden bewaard. Daarnaast was dit systeem onrechtmatig en discriminerend.

Het toepassen van een algoritme is dus prima maar moet wel voldoen aan een pakket van eisen, wettelijke basis en logische kenmerken en transparantie. Binnen deze waarborgen heeft de Belastingdienst meer dan voldoende ruimte.

Risico moddelen, AI en signaleringen bij de Belastingdienst

Elke organisatie wil processen versnellen en vereenvoudigen, met name als het standaard processen zijn. Bij overheidsorganisaties, zoals de Belastingdienst, zijn er veel standaard processen. Door alle commotie rondom de toeslagen affaire zijn in 2021 diverse risico modellen zoals OBCF, ABN en OB Negatief uitgezet. De belangrijkste redden is de strijdigheid mt de AVG. Een aantal modellen zijn daarna weer "aan"gezet omdat de vastlegging, transparantie of gegevensbescherming niet op orde waren.

Het aanvechten van modellen is best lastig. Het algemeen roepen dat een signalering of algoritme discriminerend of onduidelijk black box is zal niet helpen. De ondernemer of zijn fiscalist moet met concrete feiten aannemelijk maken dat er strijdigheid is met de AVG of Europese wetgeving. Hierbij moet er aandacht zijn voor het gehele proces, dus;

  • welke gegevens worden bewaard en hoe lang
  • welke selectieregels zijn opgesteld (wetenschappelijk en statisch voldoende onderbouwing?)
  • is er sprake van een menselijke toetsing
  • worden wettelijke regels netjes opgevolgd (zoals geen discriminatie)

Het Hof van Justitie kijkt niet alleen naar de formele labeltjes (zoals hierboven omschreven) maar ook naar de daadwerkelijke invloed van de geautomatiseerde uitkomst. Het Schufa arest was hiervan een mooi voorbeeld. Bij de FSV lijsten ging het om diverse redenen mis (strijdigheid AVG), de belangrijkste waren:

  • toegang teveel werknemers van de belastingdienst
  • bepaalde gegevens mochten er niet instaan
  • gegevens te lang worden bewaard
  • gegevens niet worden aangepast
  • informatie niet altijd juist wordt toegepast of beoordeeld
  • verboden selectie kenmerken (zoals dubbele nationaliteit)

Het BTW controle systeem is een stuk eenvoudiger, het controleert op fiscale inconsistenties of aangiftepatronen. Vorenstaande geldt in mindere mate ook voor het Risico Analyse Model (RAM), aldus onze staatssecretaris in 2025.

Noot fiscaal jurist inzake geautomatiseerde gegevensverwerking

Het Europese uitgangspunt is dat een belastingplichtige niet mag worden onderworpen aan een besluit dat uitsluitend op geautomatiseerde verwerking berust en de belastingplichtige dan treft. Naast de archiefwet, de AVG, de privacy rechten en het klassieke bestuursrecht (de AWB en bij fiscale zaken de AWR) is het dus ook belangrijk dat van een zorgvuldige voorbereiding sprake is en het besluit berust op een deugdelijke motivering. Vraag dus altijd om een inhoudelijke weergave van de software en de selectieregels. Op deze manier kunnen controle bevindingen en feiten beter worden vastgesteld.

Als we de AWB en AWR combineren komt er nog iets extra's bij. Op grond van de AWR moeten gegevens en inlichtingen duidelijk, stellig en zonder voorbehoud door de inspecteur worden verstrekt. Bij een boete gaat dit recht soms nog een stapje verder.

Het verleden heeft laten zien dat de Belastingdienst de grenzen aan het verkennen is en daarbij soms de grenzen in eigen voordeel verder legt. De algemene rekenkamer heeft hierop forse kritiek gegeven. In 2026 kreeg de belastingdienst dan ook de big brother award, dit in verband met veelvuldig onrechtmatig gebruik van algoritmes. Ook Europa kijkt kritisch naar Nederland en zal binnenkort met nieuwe AI wetgeving komen. De Europese AI verordening zal in 2027 ingaan en ook beperkingen gaan opleggen aan de overheid.

Geautomatiseerde systemen zijn voor de belastingdienst noodzakelijk. Het onrechtmatig gebruik, schending van privacy en verkeerde selectie criteria ligt wel op de loer.

Krijgt u te maken met een boekenonderzoek of naheffings- navorderingsaanslag is het verstandig om altijd te vragen hoe de belastingdienst u in beeld heeft gekregen en/of er geautomatiseerde systemen zijn gebruikt.

Hulp nodig bij boekenonderzoek van de Belastingdienst?

Bedrijfsnaam

*

Naam

*

Aantal medewerkers

Bent u tevreden over uw belastingadviseur :

Wilt u een vrijblijvende offerte / advies ontvangen?

Opmerkingen/vragen

Ja, ik ga akkoord met de verwerking van mijn gegevens. Jongbloed Fiscaal Juristen NV mag mij per e-mail info sturen en mijn persoonlijke gegevens gebruiken om mijn interessegebieden vast te stellen zoals hier beschreven, en ik ben me ervan bewust dat ik op elk moment mijn toestemming kan intrekken.

Meer weten van algoritme en signalering door de belastingdienst

Deel deze pagina

Laatste update op 03-05-2026
Artikel gemaakt op 03-05-2026
Dit artikel (of blog of voorbeeldovereenkomst) is met aandacht en zorgvuldigheid geschreven, maar bevat informatie van algemene en informatieve aard. De informatie in dit artikel kan, afhankelijk van de omstandigheden van uw specifieke geval, niet of verminderd van toepassing zijn. De informatie in dit artikel dient derhalve niet als fiscaal/juridisch advies te worden beschouwd. Jongbloed Fiscaal Juristen N.V., haar medewerkers en of haar vestigingen/deelnemingen aanvaarden dan ook geen enkele aansprakelijkheid voor de gevolgen van het gebruik van de informatie uit het artikel.
U bevindt zich hier : Jongbloed Fiscaal Juristen Kennisbank Formeel belastingrecht Rechtspraak formeel belastingrecht Algoritme en signalering door de Belastingdienst

Jongbloed Fiscaal Juristen - Disclaimer - Zoeken - Sitemap