Contexte général de la loi européenne sur l’intelligence artificielle

En avril 2021, la Commission européenne a proposé une législation inédite visant à réglementer l’intelligence artificielle (IA) au sein de l’Union européenne. Cette proposition, connue sous le nom d’AI Act, vise à instaurer un cadre juridique harmonisé pour le développement, le déploiement et l’utilisation de l’IA dans l’ensemble des États membres, y compris en Belgique. L’objectif est double : renforcer la confiance des citoyens dans les technologies d’IA tout en stimulant l’innovation dans les entreprises européennes.

La loi se base sur une approche fondée sur les risques. Les systèmes d’IA sont classifiés selon quatre niveaux de risques : risques inacceptables, risques élevés, risques limités et risques minimaux. Cette classification détermine les obligations réglementaires applicables aux fournisseurs et aux utilisateurs de ces systèmes.

Le texte officiel de la proposition de règlement est accessible via le site de la Commission Européenne (COM/2021/206 final).

Impact direct sur les services numériques en Belgique

En Belgique, de nombreuses entreprises opèrent dans le secteur de la technologie, du commerce électronique, des services financiers numériques ou encore de la logistique intelligente. Ces secteurs sont de plus en plus interconnectés avec les systèmes d’IA, ce qui les rend particulièrement concernés par cette nouvelle réglementation.

Les services numériques qui utilisent ou exploitent des systèmes d’IA basés sur le machine learning, le traitement du langage naturel ou les systèmes de recommandation devront être évalués selon les critères de risque établis par l’AI Act. En fonction de cette évaluation, des obligations spécifiques s’appliqueront, comme :

  • L’enregistrement des systèmes IA à haut risque dans une base de données européenne accessible au public.
  • La documentation technique détaillée prouvant la conformité du système avec la loi.
  • L’obligation de transparence vis-à-vis des utilisateurs lorsque l’IA est utilisée pour interagir avec des personnes (exemple : chatbots).

Les entreprises belges devront adapter leur conformité réglementaire pour intégrer ces nouvelles exigences. Celles qui ne s’y conforment pas s’exposent à des amendes pouvant atteindre 6 % de leur chiffre d’affaires annuel mondial, selon l’article 71 de la proposition de règlement.

Les secteurs belges les plus concernés

Plusieurs secteurs économiques stratégiques de la Belgique subiront un impact direct de cette réglementation :

  • Le secteur bancaire et financier : Les institutions qui utilisent des algorithmes pour l’évaluation de la solvabilité, la surveillance de transactions frauduleuses ou le scoring d’emprunteurs seront classées comme utilisant des systèmes à haut risque. Ces entités devront effectuer des audits réguliers et justifier l’équité et la transparence de leurs modèles.
  • Le secteur de la santé : Les logiciels médicaux basés sur l’IA nécessitant un diagnostic ou une recommandation thérapeutique seront également soumis à des obligations de certification CE, en complément des exigences de l’AI Act (voir Règlement (UE) 2017/745 sur les dispositifs médicaux).
  • Le transport et la logistique : L’utilisation de véhicules autonomes ou de robots de livraison devra répondre à des protocoles de sécurité stricts définis par la loi européenne. Les opérateurs concernés devront démontrer que leurs systèmes sont sûrs et sous contrôle humain adéquat.

Obligations pour les fournisseurs de services numériques

Les fournisseurs de logiciels et de solutions utilisant de l’IA en Belgique devront prendre plusieurs mesures pour assurer leur conformité :

  • Effectuer une évaluation complète des risques liés à l’utilisation de leur technologie.
  • Mettre en œuvre un processus de gestion des données robuste, incluant la qualité et la traçabilité des jeux de données utilisés pour entraîner l’IA.
  • Assurer la transparence des algorithmes utilisés, incluant des explications compréhensibles par les utilisateurs finaux.
  • Prévoir un mécanisme de contrôle humain sur les résultats générés par le système IA.

Ces obligations sont directement tirées des articles 8 à 25 de la proposition de l’AI Act, qui constituent le cœur du dispositif réglementaire applicable aux systèmes à haut risque.

Opportunités et enjeux compétitifs pour les entreprises belges

Si l’AI Act impose des contraintes réglementaires, il représente aussi une opportunité pour les entreprises belges de renforcer leur réputation et de se positionner comme acteurs responsables dans l’économie numérique. Une conformité rigoureuse à la législation peut constituer un avantage concurrentiel sur les marchés européen et mondial, en particulier lorsqu’il s’agit de répondre aux appels d’offres publics ou d’établir des partenariats transfrontaliers.

De plus, la Commission européenne prévoit la mise en place de bacs à sable réglementaires (regulatory sandboxes) pour encourager l’innovation. Ces dispositifs permettront aux startups et PME belges de tester leurs innovations en collaboration avec les autorités réglementaires, dans un cadre sécurisé adapté à l’expérimentation.

La Belgique, par l’intermédiaire de l’Agence pour la simplification administrative et de l’AI4Belgium Coalition, accompagne déjà les entreprises dans leur transformation numérique. Ces structures joueront un rôle clé dans la sensibilisation et l’appropriation des nouvelles obligations liées à l’AI Act.

Effets sur les partenariats et la supply chain numérique

Dans un contexte de commerce international, les entreprises belges devront également assurer la conformité de leurs partenaires non-européens. En vertu de l’article 28 du projet de règlement, toute entité implantée hors de l’UE qui souhaite fournir ou exploiter un système d’IA dans le marché intérieur devra nommer un représentant légal dans l’Union responsable de la conformité réglementaire.

Ce dispositif implique une vérification rigoureuse des fournisseurs étrangers, en particulier pour les éditeurs de logiciels et les sociétés de services informatiques localisées en Asie ou en Amérique du Nord. En d’autres termes, la chaîne de valeur numérique devra être alignée avec les exigences européennes, un processus qui intégrera des audits, des certifications, et parfois des négociations contractuelles spécifiques.

Les importateurs et distributeurs de solutions numériques en Belgique auront la responsabilité de ne commercialiser que des systèmes d’IA conformes aux exigences de l’AI Act. Cela introduit une nouvelle couche de contrôle qualité dans le processus d’approvisionnement en technologies.

Perspectives d’adaptation des autorités belges

Les autorités publiques belges devront adapter leur cadre institutionnel pour assurer la mise en œuvre et le contrôle du respect de la réglementation. À l’image de la mise en place de l’Autorité de protection des données (APD) pour le RGPD, il est probable qu’une entité nationale ou une coopération inter-fédérale soit désignée comme autorité de surveillance pour l’IA.

Cette entité aura pour mission de :

  • Contrôler le respect des obligations déclaratives et techniques des entreprises utilisatrices d’IA.
  • Recevoir les plaintes des citoyens en cas d’utilisation abusive ou biaisée de l’IA.
  • Lancer des campagnes de sensibilisation au niveau national pour informer les entreprises et le grand public.

Une coordination entre les entités fédérales et régionales sera indispensable, compte tenu des compétences partagées en Belgique en matière d’économie, d’innovation et de transformation numérique.

La loi européenne sur l’intelligence artificielle constitue ainsi un « game changer » pour l’environnement règlementaire belge en matière de numérique. Elle marque une évolution vers une gouvernance plus éthique et responsable de l’innovation, imposant des exigences nouvelles à tous les maillons de la chaîne technologique, de la conception à la mise en marché des services numériques.

Articles recommandés