Toen de EU AI Act op 1 augustus 2024 in werking trad, behandelden veel bedrijven dit als een toekomstig nalevingsonderwerp.
In 2026 is het niet langer theoretisch.
Belgische bedrijven gaan nu de fase in waarin transparantieregels, risicovolle verplichtingen en bestuursvereisten operationele realiteiten worden. De vraag is niet langer of AI gereguleerd wordt. De vraag is of organisaties er structureel klaar voor zijn.
En voor veel sectoren, met name HR, rekrutering en financiële dienstverlening, is de impact groter dan verwacht.
Het keerpunt van 2026: waar we nu staan
De implementatie van de EU AI Act is progressief, maar 2026 is een belangrijk keerpunt.
Reeds van kracht:
- Februari 2025: Verbod op systemen met een onaanvaardbaar risico + verplichte AI-geletterdheid
- Augustus 2025: Regels voor AI-modellen voor algemeen gebruik (GPAI)
Wordt volledig van kracht:
- Augustus 2026: Brede toepasbaarheid, inclusief systemen met een hoog risico
- Augustus 2027: AI met een hoog risico ingebed in gereguleerde producten
Dit betekent dat Belgische bedrijven nu actief moeten:
- Classificeer hun AI-systemen op risiconiveau
- Governance en documentatie implementeren
- Zorg voor transparantie ten opzichte van gebruikers
- Mechanismen voor menselijk toezicht instellen
Niet-naleving is niet symbolisch. Boetes kunnen oplopen tot €35 miljoen of 7% van de wereldwijde omzet.
Wat verandert er operationeel voor Belgische bedrijven?
De EU AI Act heeft niet alleen gevolgen voor AI-ontwikkelaars. Het is ook van toepassing op „implementerende” bedrijven die gewoon AI-tools gebruiken in hun dagelijkse activiteiten.
Drie directe impactgebieden onderscheiden zich in 2026:
1. AI-geletterdheid (sinds februari 2025)
Bedrijven die AI-systemen aanbieden of inzetten, zijn wettelijk verplicht om maatregelen te nemen om ervoor te zorgen dat personeel dat deze systemen gebruikt of gebruikt voldoende AI-geletterd is, wat betekent dat ze begrijpen hoe de tools werken, wat hun beperkingen, risico's en mogelijke gevolgen zijn.
Dit is geen optionele training. Het is een nalevingsverplichting.
2. Transparantie (augustus 2026)
Organisaties moeten zorgen voor passende AI-transparantie, waaronder het duidelijk informeren van gebruikers wanneer ze interageren met AI-aangedreven chatbots, door AI gegenereerde of gemanipuleerde inhoud of geautomatiseerde besluitvormingssystemen. Dit geldt intern (medewerkers) en extern (klanten).
3. GPAI-verantwoordelijkheid (sinds augustus 2025)
Als uw bedrijf AI-modellen voor algemene doeleinden integreert in diensten of workflows, moet u ervoor zorgen dat uw provider voldoet aan de EU-vereisten inzake transparantie, auteursrecht en veiligheid — en dat uw eigen gebruik van het model binnen die regels blijft. De verantwoordelijkheid verdwijnt niet omdat het model extern is.
Waarom HR en rekrutering direct aan het licht komen
Volgens bijlage III van de EU AI Act worden de meeste AI-systemen die in HR worden gebruikt, geclassificeerd als met een hoog risico.
Dit omvat:
- Software voor cv-screening
- Op AI gebaseerde tools voor het rangschikken van kandidaten
- Algoritmen voor prestatie-evaluatie
- Systemen voor promotieaanbevelingen
- Technologieën voor het monitoren van werknemers
Waarom zo'n strikte classificatie?
Omdat deze systemen rechtstreeks van invloed zijn op de toegang tot werk en de loopbaanontwikkeling.
Vanaf augustus 2026 vereist HR-AI met een hoog risico:
- Volledige transparantie ten aanzien van kandidaten en werknemers
- Duidelijke uitleg over hoe beslissingen worden beïnvloed door AI
- Aantoonbare beperking van vooringenomenheid
- Representatieve trainingsgegevens
- Voortdurende menselijke supervisie
- Automatische logboekregistratie voor traceerbaarheid
Kandidaten hebben het recht om te begrijpen hoe een AI-systeem hun afwijzing heeft beïnvloed.
Dit hervormt het rekruteringsbestuur fundamenteel.
Financiële dienstverlening: AI wordt zwaar onder de loep genomen
Banken en verzekeraars zijn in gelijke mate blootgesteld.
Systemen met een hoog risico omvatten:
- Kredietscore
- Algoritmen voor goedkeuring van leningen
- Modellen voor fraudedetectie
- Systemen voor risicoprijzen
Vanaf 2026 moeten instellingen:
- De werking van het documentmodel in detail
- Effectbeoordelingen van de grondrechten uitvoeren
- Garandeer de afwezigheid van discriminerende vooringenomenheid
- Bewaar geautomatiseerde logboeken voor elke beslissing
Concreet betekent dit dat de afdelingen compliance, IT en risico veel nauwer moeten samenwerken dan voorheen.
AI wordt een bestuurskwestie, niet alleen een prestatietool.
Andere sectoren met een hoog risico die u niet mag negeren
Naast HR en financiën identificeert de EU AI Act nog een aantal andere domeinen met een hoog risico:
- Biometrische identificatie en emotieherkenning
- Beheer van kritieke infrastructuur (energienetten, verkeerssystemen)
- Onderwijs- en examenevaluatie
- Wetshandhaving en justitiële ondersteuning
- Migratie en grenscontrole
- Toegang tot openbare diensten en sociale voorzieningen
- Gezondheidszorgdiagnostiek en medische AI
Elk vereist:
- Risicobeheer gedurende de levenscyclus
- Menselijk toezicht
- Hoogwaardige datasets
- Traceerbare logboeksystemen
Dit breidt de impact van de EU AI Act uit tot ver buiten de technologiebedrijven.
Wat dit betekent voor KMO's en start-ups
België heeft regelgevingssandboxen geïntroduceerd waarmee bedrijven AI-oplossingen kunnen testen in samenwerking met toezichthouders zoals het IBPT.
Sancties blijven evenredig voor kleine en middelgrote ondernemingen in gevallen van niet-opzettelijke niet-naleving.
Evenredigheid betekent echter geen vrijstelling. Bestuursstructuren zijn nog steeds vereist.
De Governance Shift-bedrijven onderschatten
De EU AI Act dwingt organisaties om ongemakkelijke vragen te beantwoorden:
- Hebben we een volledige inventaris van AI-tools die intern worden gebruikt?
- Wie is verantwoordelijk voor AI-beslissingen?
- Kunnen we uitleggen hoe onze modellen werken?
- Documenteren we onze systemen op de juiste manier?
- Is er een formeel AI-beleid van kracht?
Belgische experts raden nu sterk aan om een intern AI-beleid op te stellen waarin het volgende wordt gedefinieerd:
- Aanvaardbaar gebruik
- Risicotolerantie
- Toewijzing van verantwoordelijkheid
- Protocollen voor menselijk toezicht
AI is niet langer een geïsoleerd innovatieonderwerp. Het wordt een bestuurskwestie op bestuursniveau.
Een praktisch startpunt
Bedrijven die niet zeker zijn over hun blootstelling kunnen beginnen met de officiële EU AI Act Compliance Checker.
Deze tool helpt om te bepalen of een specifiek AI-systeem onder een hoge risicoclassificatie valt.
Het is geen vervanging voor juridisch advies, maar het is een waardevolle eerste diagnostische stap.
Positie van België: een risico of een voordeel?
België blijft niet achter.
Ongeveer 20% van de Belgische bedrijven maakt al gebruik van AI, meer dan het EU-gemiddelde. Nationale en regionale initiatieven zoals het Nationaal Convergentieplan voor AI, DigitalWallonia4.ai, het Vlaamse AI-plan en FARI in Brussel versterken een sterk innovatie-ecosysteem.
De EU AI Act is niet bedoeld om innovatie te vertragen. Het is bedoeld om het te structureren.
Organisaties die compliance vroegtijdig integreren, kunnen een strategisch voordeel behalen wat betreft vertrouwen, reputatie en volwassenheid op het gebied van bestuur.
De echte vraag voor 2026
De EU AI Act is niet alleen een verschuiving in de regelgeving.
Het is:
- Een verschuiving in het bestuur
- Een verschuiving in transparantie
- Een talentverschuiving
- Een cultuuromslag
Bedrijven die het puur als een juridische last zien, zullen het moeilijk hebben. Bedrijven die dit als een organisatorische upgrade beschouwen, zullen beter gepositioneerd zijn voor digitale veerkracht op lange termijn.
De overgangsfase is voorbij en de operationele fase is begonnen.