EU AI Act en Belgique (2026) : ce à quoi les équipes des ressources humaines, des finances et de la conformité doivent se préparer dès maintenant

La loi européenne sur l'IA est désormais opérationnelle en Belgique. Voici ce que les équipes des ressources humaines, des finances et de la conformité doivent mettre en œuvre avant août 2026 pour éviter des risques majeurs.

February 11, 2026
Purple Elipse - Sparagus
4 minutes de lecture

Résumé de l'article en 30 secondes

La loi européenne sur l'IA entre maintenant dans sa phase opérationnelle en Belgique. D'ici août 2026, les entreprises utilisant des systèmes d'IA à haut risque, notamment des outils de sélection des ressources humaines, des modèles de notation de crédit et des logiciels d'évaluation des performances, doivent se conformer à des exigences strictes en matière de transparence, de documentation et de supervision humaine.

Les entreprises belges doivent classer les outils d'IA par niveau de risque, former leurs employés à la maîtrise de l'IA, mettre en œuvre des cadres de gouvernance et se préparer à d'éventuels audits. La non-conformité peut entraîner des amendes pouvant aller jusqu'à 35 millions d'euros, soit 7 % du chiffre d'affaires mondial.

Les ressources humaines, les services financiers, la santé et les opérateurs du secteur public figurent parmi les secteurs les plus exposés. Ce changement n'est plus une théorie juridique. Il s'agit d'une transformation structurelle de la gouvernance que les organisations doivent gérer activement en 2026.

Lorsque la loi européenne sur l'IA (EU AI Act) est entrée en vigueur le 1er août 2024, de nombreuses entreprises l'ont traitée comme un futur sujet de conformité.

En 2026, ce n'est plus théorique.

Les entreprises belges entrent aujourd'hui dans la phase où les règles de transparence, les obligations à haut risque et les exigences de gouvernance deviennent des réalités opérationnelles. La question n'est plus de savoir si l'IA sera réglementée. La question est de savoir si les organisations sont prêtes sur le plan structurel.

Et pour de nombreux secteurs, notamment les ressources humaines, le recrutement et les services financiers, l'impact est plus important que prévu.

Le tournant de 2026 : où en sommes-nous aujourd'hui

La mise en œuvre de la loi européenne sur l'IA est progressive, mais 2026 marque un point d'inflexion majeur.

Déjà en vigueur :

  • Février 2025 : interdiction des systèmes à risques inacceptables + initiation obligatoire à l'IA
  • Août 2025 : Règles pour les modèles d'IA à usage général (GPAI)

Entrée en vigueur complète :

  • Août 2026 : Applicabilité étendue, y compris pour les systèmes à haut risque
  • Août 2027 : IA à haut risque intégrée aux produits réglementés

Cela signifie que les entreprises belges doivent désormais activement :

  • Classer leurs systèmes d'IA par niveau de risque
  • Mettre en œuvre la gouvernance et la documentation
  • Garantir la transparence vis-à-vis des utilisateurs
  • Mettre en place des mécanismes de supervision humaine

La non-conformité n'est pas symbolique. Les amendes peuvent atteindre 35 millions d'euros, soit 7 % du chiffre d'affaires mondial.

Quels changements opérationnels pour les entreprises belges ?

La loi sur l'IA (EU AI Act) ne concerne pas uniquement les développeurs d'IA. Cela s'applique également aux entreprises « déployeuses » qui utilisent simplement des outils d'IA dans leurs opérations quotidiennes.

Trois domaines d'impact immédiat se démarquent en 2026 :

1. AI Literacy (depuis février 2025)

Les entreprises qui fournissent ou déploient des systèmes d'IA sont légalement tenues de prendre des mesures pour s'assurer que le personnel qui utilise ou exploite ces systèmes possède un niveau suffisant de connaissances en IA, ce qui signifie qu'il comprend le fonctionnement des outils, leurs limites, les risques et les impacts potentiels.

Il ne s'agit pas d'une formation facultative. Il s'agit d'une obligation de conformité.

2. Transparence (août 2026)

Les organisations doivent garantir une transparence appropriée en matière d'IA, notamment en informant clairement les utilisateurs lorsqu'ils interagissent avec des chatbots alimentés par l'IA, du contenu généré ou manipulé par l'IA ou des systèmes de prise de décision automatisés. Cela s'applique en interne (employés) et en externe (clients).

3. Responsabilité du GPAI (depuis août 2025)

Si votre entreprise intègre des modèles d'IA à usage général dans ses services ou ses flux de travail, vous devez vous assurer que votre fournisseur respecte les exigences de l'UE en matière de transparence, de droit d'auteur et de sécurité, et que votre propre utilisation du modèle respecte ces règles. La responsabilité ne disparaît pas parce que le modèle est externe.

Pourquoi les ressources humaines et le recrutement sont directement exposés

En vertu de l'annexe III de la loi sur l'IA, la plupart des systèmes d'IA utilisés dans les ressources humaines sont classés comme à haut risque.

Cela inclut :

  • Logiciel de sélection de CV
  • Outils de classement des candidats basés sur l'IA
  • Algorithme d'évaluation des performances
  • Systèmes de recommandation en matière de promotion
  • Technologies de surveillance des employés

Pourquoi une classification aussi stricte ?

Parce que ces systèmes influencent directement l'accès à l'emploi et la progression de carrière.

À partir d'août 2026, l'IA RH à haut risque nécessite :

  • Transparence totale à l'égard des candidats et des employés
  • Explication claire de la manière dont les décisions sont influencées par l'IA
  • Atténuation démontrable des biais
  • Données de formation représentatives
  • Supervision humaine continue
  • Enregistrement automatique pour la traçabilité

Les candidats auront le droit de comprendre comment un système d'IA a influencé leur rejet.

Cela redéfinit fondamentalement la gouvernance du recrutement.

Services financiers : l'IA sous haute surveillance

Les banques et les assureurs sont également exposés.

Les systèmes à haut risque incluent :

  • Notation de crédit
  • Algorithmes pour l'approbation
  • Modèles de détection des fraudes
  • Systèmes de tarification des risques

À partir de 2026, les établissements doivent :

  • Fonctionnement détaillé du modèle de document
  • Réaliser des analyses d'impact sur les droits fondamentaux
  • Garantir l'absence de biais discriminatoire
  • Conservez des journaux automatisés pour chaque décision

Concrètement, cela signifie que les départements de la conformité, de l'informatique et des risques doivent collaborer beaucoup plus étroitement qu'auparavant.

L'IA devient une question de gouvernance, et pas seulement un outil de performance.

Autres secteurs à haut risque que vous ne devriez pas ignorer

Au-delà des ressources humaines et des finances, la loi sur l'IA (EU AI Act) identifie plusieurs autres domaines à haut risque :

  • Identification biométrique et reconnaissance des émotions
  • Gestion des infrastructures critiques (réseaux énergétiques, systèmes de trafic)
  • Évaluation de la formation et des examens
  • Soutien à l'application de la loi et à la justice
  • Migration et contrôle des frontières
  • Accès aux services publics et aux avantages sociaux
  • Diagnostic médical et IA médicale

Chacune d'entre elles nécessite :

  • Gestion des risques du cycle de vie
  • Supervision humaine
  • Ensembles de données de qualité
  • Systèmes de journalisation traçables

Cela étend l'impact de la loi sur l'IA bien au-delà des entreprises technologiques.

Ce que cela signifie pour les PME et les start-up

La Belgique a introduit des bacs à sable réglementaires permettant aux entreprises de tester des solutions d'IA en collaboration avec des régulateurs tels que l'IBPT.

Les sanctions restent proportionnées pour les PME en cas de non-conformité non intentionnelle.

Toutefois, proportionnalité ne signifie pas exemption. Les structures de gouvernance sont toujours nécessaires.

Le changement de gouvernance que les entreprises sous-estiment

La loi sur l'IA oblige les organisations à répondre à des questions délicates :

  • Disposons-nous d'un inventaire complet des outils d'IA utilisés en interne ?
  • Qui est responsable des décisions relatives à l'IA ?
  • Pouvons-nous expliquer comment fonctionnent nos modèles ?
  • Documentons-nous correctement nos systèmes ?
  • Existe-t-il une politique officielle en matière d'IA ?

Les experts belges recommandent désormais vivement de mettre en place une politique interne en matière d'IA définissant :

  • Utilisation acceptable
  • Tolérance au risque
  • Répartition des responsabilités
  • Protocoles de supervision humaine

L'IA n'est plus un sujet d'innovation isolé. Cela devient une question de gouvernance au niveau du conseil d'administration.

Un point de départ pratique

Les entreprises qui ne sont pas certaines de leur exposition peuvent commencer par le vérificateur de conformité officiel de l'UE à la loi sur l'IA.

Cet outil permet de déterminer si un système d'IA spécifique peut relever d'une classification à haut risque.

Il ne remplace pas un avis juridique, mais constitue une première étape diagnostique précieuse.

La position de la Belgique : un risque ou un avantage ?

La Belgique n'est pas à la traîne.

Environ 20 % des entreprises belges utilisent déjà l'IA, soit un chiffre supérieur à la moyenne de l'UE. Des initiatives nationales et régionales telles que le Plan national de convergence pour l'IA, DigitalWallonia4.ai, le Plan flamand pour l'IA et le FARI à Bruxelles renforcent un écosystème d'innovation solide.

La Loi sur l'IA (EU AI Act) ne vise pas à ralentir l'innovation. Il vise à le structurer.

Les organisations qui intègrent la conformité à un stade précoce peuvent obtenir un avantage stratégique en termes de confiance, de réputation et de maturité en matière de gouvernance.

La vraie question pour 2026

La loi sur l'IA de l'UE (EU AI Act) n'est pas simplement un changement de réglementation.

Il s'agit de :

  • Un changement de gouvernance
  • Un changement de transparence
  • Un changement de talent
  • Un changement culturel

Les entreprises qui y voient uniquement une charge légale seront confrontées à des difficultés. Les entreprises qui la considèrent comme une mise à niveau organisationnelle seront mieux placées pour assurer leur résilience numérique à long terme.

La phase de transition est terminée et la phase opérationnelle a commencé.

FOIRE
AUX QUESTIONS

Purple Elipse - Sparagus
FAQ
Purple Elipse - Sparagus
Newsletter

Restez à jour

En vous inscrivant à notre newsletter, vous acceptez de recevoir des communications conformément à notre politique de confidentialité.

Merci ! Votre candidature a été reçue !
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.