Lorsque la loi européenne sur l'IA (EU AI Act) est entrée en vigueur le 1er août 2024, de nombreuses entreprises l'ont traitée comme un futur sujet de conformité.
En 2026, ce n'est plus théorique.
Les entreprises belges entrent aujourd'hui dans la phase où les règles de transparence, les obligations à haut risque et les exigences de gouvernance deviennent des réalités opérationnelles. La question n'est plus de savoir si l'IA sera réglementée. La question est de savoir si les organisations sont prêtes sur le plan structurel.
Et pour de nombreux secteurs, notamment les ressources humaines, le recrutement et les services financiers, l'impact est plus important que prévu.
Le tournant de 2026 : où en sommes-nous aujourd'hui
La mise en œuvre de la loi européenne sur l'IA est progressive, mais 2026 marque un point d'inflexion majeur.
Déjà en vigueur :
- Février 2025 : interdiction des systèmes à risques inacceptables + initiation obligatoire à l'IA
- Août 2025 : Règles pour les modèles d'IA à usage général (GPAI)
Entrée en vigueur complète :
- Août 2026 : Applicabilité étendue, y compris pour les systèmes à haut risque
- Août 2027 : IA à haut risque intégrée aux produits réglementés
Cela signifie que les entreprises belges doivent désormais activement :
- Classer leurs systèmes d'IA par niveau de risque
- Mettre en œuvre la gouvernance et la documentation
- Garantir la transparence vis-à-vis des utilisateurs
- Mettre en place des mécanismes de supervision humaine
La non-conformité n'est pas symbolique. Les amendes peuvent atteindre 35 millions d'euros, soit 7 % du chiffre d'affaires mondial.
Quels changements opérationnels pour les entreprises belges ?
La loi sur l'IA (EU AI Act) ne concerne pas uniquement les développeurs d'IA. Cela s'applique également aux entreprises « déployeuses » qui utilisent simplement des outils d'IA dans leurs opérations quotidiennes.
Trois domaines d'impact immédiat se démarquent en 2026 :
1. AI Literacy (depuis février 2025)
Les entreprises qui fournissent ou déploient des systèmes d'IA sont légalement tenues de prendre des mesures pour s'assurer que le personnel qui utilise ou exploite ces systèmes possède un niveau suffisant de connaissances en IA, ce qui signifie qu'il comprend le fonctionnement des outils, leurs limites, les risques et les impacts potentiels.
Il ne s'agit pas d'une formation facultative. Il s'agit d'une obligation de conformité.
2. Transparence (août 2026)
Les organisations doivent garantir une transparence appropriée en matière d'IA, notamment en informant clairement les utilisateurs lorsqu'ils interagissent avec des chatbots alimentés par l'IA, du contenu généré ou manipulé par l'IA ou des systèmes de prise de décision automatisés. Cela s'applique en interne (employés) et en externe (clients).
3. Responsabilité du GPAI (depuis août 2025)
Si votre entreprise intègre des modèles d'IA à usage général dans ses services ou ses flux de travail, vous devez vous assurer que votre fournisseur respecte les exigences de l'UE en matière de transparence, de droit d'auteur et de sécurité, et que votre propre utilisation du modèle respecte ces règles. La responsabilité ne disparaît pas parce que le modèle est externe.
Pourquoi les ressources humaines et le recrutement sont directement exposés
En vertu de l'annexe III de la loi sur l'IA, la plupart des systèmes d'IA utilisés dans les ressources humaines sont classés comme à haut risque.
Cela inclut :
- Logiciel de sélection de CV
- Outils de classement des candidats basés sur l'IA
- Algorithme d'évaluation des performances
- Systèmes de recommandation en matière de promotion
- Technologies de surveillance des employés
Pourquoi une classification aussi stricte ?
Parce que ces systèmes influencent directement l'accès à l'emploi et la progression de carrière.
À partir d'août 2026, l'IA RH à haut risque nécessite :
- Transparence totale à l'égard des candidats et des employés
- Explication claire de la manière dont les décisions sont influencées par l'IA
- Atténuation démontrable des biais
- Données de formation représentatives
- Supervision humaine continue
- Enregistrement automatique pour la traçabilité
Les candidats auront le droit de comprendre comment un système d'IA a influencé leur rejet.
Cela redéfinit fondamentalement la gouvernance du recrutement.
Services financiers : l'IA sous haute surveillance
Les banques et les assureurs sont également exposés.
Les systèmes à haut risque incluent :
- Notation de crédit
- Algorithmes pour l'approbation
- Modèles de détection des fraudes
- Systèmes de tarification des risques
À partir de 2026, les établissements doivent :
- Fonctionnement détaillé du modèle de document
- Réaliser des analyses d'impact sur les droits fondamentaux
- Garantir l'absence de biais discriminatoire
- Conservez des journaux automatisés pour chaque décision
Concrètement, cela signifie que les départements de la conformité, de l'informatique et des risques doivent collaborer beaucoup plus étroitement qu'auparavant.
L'IA devient une question de gouvernance, et pas seulement un outil de performance.
Autres secteurs à haut risque que vous ne devriez pas ignorer
Au-delà des ressources humaines et des finances, la loi sur l'IA (EU AI Act) identifie plusieurs autres domaines à haut risque :
- Identification biométrique et reconnaissance des émotions
- Gestion des infrastructures critiques (réseaux énergétiques, systèmes de trafic)
- Évaluation de la formation et des examens
- Soutien à l'application de la loi et à la justice
- Migration et contrôle des frontières
- Accès aux services publics et aux avantages sociaux
- Diagnostic médical et IA médicale
Chacune d'entre elles nécessite :
- Gestion des risques du cycle de vie
- Supervision humaine
- Ensembles de données de qualité
- Systèmes de journalisation traçables
Cela étend l'impact de la loi sur l'IA bien au-delà des entreprises technologiques.
Ce que cela signifie pour les PME et les start-up
La Belgique a introduit des bacs à sable réglementaires permettant aux entreprises de tester des solutions d'IA en collaboration avec des régulateurs tels que l'IBPT.
Les sanctions restent proportionnées pour les PME en cas de non-conformité non intentionnelle.
Toutefois, proportionnalité ne signifie pas exemption. Les structures de gouvernance sont toujours nécessaires.
Le changement de gouvernance que les entreprises sous-estiment
La loi sur l'IA oblige les organisations à répondre à des questions délicates :
- Disposons-nous d'un inventaire complet des outils d'IA utilisés en interne ?
- Qui est responsable des décisions relatives à l'IA ?
- Pouvons-nous expliquer comment fonctionnent nos modèles ?
- Documentons-nous correctement nos systèmes ?
- Existe-t-il une politique officielle en matière d'IA ?
Les experts belges recommandent désormais vivement de mettre en place une politique interne en matière d'IA définissant :
- Utilisation acceptable
- Tolérance au risque
- Répartition des responsabilités
- Protocoles de supervision humaine
L'IA n'est plus un sujet d'innovation isolé. Cela devient une question de gouvernance au niveau du conseil d'administration.
Un point de départ pratique
Les entreprises qui ne sont pas certaines de leur exposition peuvent commencer par le vérificateur de conformité officiel de l'UE à la loi sur l'IA.
Cet outil permet de déterminer si un système d'IA spécifique peut relever d'une classification à haut risque.
Il ne remplace pas un avis juridique, mais constitue une première étape diagnostique précieuse.
La position de la Belgique : un risque ou un avantage ?
La Belgique n'est pas à la traîne.
Environ 20 % des entreprises belges utilisent déjà l'IA, soit un chiffre supérieur à la moyenne de l'UE. Des initiatives nationales et régionales telles que le Plan national de convergence pour l'IA, DigitalWallonia4.ai, le Plan flamand pour l'IA et le FARI à Bruxelles renforcent un écosystème d'innovation solide.
La Loi sur l'IA (EU AI Act) ne vise pas à ralentir l'innovation. Il vise à le structurer.
Les organisations qui intègrent la conformité à un stade précoce peuvent obtenir un avantage stratégique en termes de confiance, de réputation et de maturité en matière de gouvernance.
La vraie question pour 2026
La loi sur l'IA de l'UE (EU AI Act) n'est pas simplement un changement de réglementation.
Il s'agit de :
- Un changement de gouvernance
- Un changement de transparence
- Un changement de talent
- Un changement culturel
Les entreprises qui y voient uniquement une charge légale seront confrontées à des difficultés. Les entreprises qui la considèrent comme une mise à niveau organisationnelle seront mieux placées pour assurer leur résilience numérique à long terme.
La phase de transition est terminée et la phase opérationnelle a commencé.