top of page

"jetons un œil à votre projet"

L’AI Act expliqué simplement

  • Photo du rédacteur: Lucie Marqueau
    Lucie Marqueau
  • 3 oct.
  • 5 min de lecture

7 conseils pour développer son réseau pro

L'Union européenne a franchi une étape majeure avec l'adoption de l'AI Act en mars 2024. Cette législation vise à encadrer l'utilisation de l'intelligence artificielle (IA) pour garantir la sécurité, la transparence et le respect des droits fondamentaux des citoyens européens. Entré en vigueur le 1er août 2024, l'AI Act s'applique progressivement jusqu'en 2026.


Le Parlement européen a adopté l’AI Act en mars 2024. C’est une loi historique pour encadrer l’intelligence artificielle dans l’Union européenne. Mais que signifie concrètement ce texte ? À quoi faut-il s’attendre si vous développez ou utilisez une iA ? Voici un guide simple pour tout comprendre sur l’AI Act.


1. Qu’est-ce que l’AI Act ?

L’AI Act est une « réglementation produit » la première réglementation complète sur l’intelligence artificielle au monde. Elle vise à protéger les citoyens européens contre les dérives de l’iA (Commission européenne, 2021). L’objectif est de garantir un usage responsable, éthique et sûr des systèmes d’intelligence artificielle. Elle s’applique à tous les acteurs développant, commercialisant ou utilisant des systèmes d’iA dans l’UE.


À l’image du marquage CE pour les produits industriels, les systèmes d’iA conformes recevront un marquage spécifique attestant de leur conformité aux exigences européennes.



Pourquoi cette loi a-t-elle été créée ?

Avec l'essor rapide de l'iA, de nouveaux risques sont apparus, notamment en matière de sécurité, de droits fondamentaux et de discrimination. L'AI Act vise à prévenir ces dérives en établissant des règles claires pour le développement et l'utilisation des systèmes d'iA.


Qui est concerné par l’AI Act ?

L’AI Act s’applique à tous les acteurs impliqués dans le cycle de vie des systèmes d’iA :

  • Fournisseurs : ceux qui développent ou mettent sur le marché des systèmes d’iA.

  • Déployeurs : ceux qui utilisent des systèmes d’IA dans le cadre de leurs activités professionnelles.

  • Importateurs et distributeurs : ceux qui introduisent des systèmes d’IA sur le marché européen.

Même les entreprises situées en dehors de l’UE sont concernées si leurs systèmes d’IA sont utilisés au sein de l’Union.


Comment fonctionne l’AI Act ?

L’AI Act classe les systèmes d'IA selon quatre niveaux de risques : c’est la base de toute la réglementation.


1. Risque inacceptable : strictement interdit (art. 5)

Certaines pratiques sont strictement interdites car jugées contraires aux valeurs européennes. Exemples : notation sociale, reconnaissance faciale en temps réel dans l’espace public, police prédictive basée sur le profilage, manipulation subliminale…)

Ces interdictions sont déjà applicables depuis février 2025


2. Haut risque : très encadré (art. 6)

Les IA à risque élevé peuvent être utilisées sous conditions strictes. Cela concerne par exemple les iA utilisées pour :

  • le recrutement

  • la justice

  • la police

  • l’éducation

  • la santé


Ces iA devront répondre à des critères précis : transparence, documentation détaillée, évaluation de conformité, traçabilité, supervision humaine, sécurité et qualité des données.


3. Risque limité 

Les IA dites « à risque limité » sont celles dont l’utilisation n’entraîne pas de conséquences graves pour l’utilisateur. On y retrouve par exemple les chatbots, les assistants virtuels ou les générateurs de contenu marketing. L’essentiel pour ces outils est de garantir la transparence : il est important que l’utilisateur sache qu’il échange avec une intelligence artificielle et non avec un humain.


4. Risque minimal ou nul

Selon la CNIL, la très grande majorité des systèmes d’intelligence artificielle déployés aujourd’hui en Europe appartiennent à cette catégorie. Ces applications d’intelligence artificielle que nous utilisons au quotidien sont des systèmes considérés comme sûrs, qui ne nécessitent pas de règles particulières liées à l’IA elle-même.


On parle ici d’outils très répandus : les filtres antispam de votre boîte mail, les suggestions de films ou de playlists sur vos plateformes préférées, ou encore certains assistants numériques intégrés à vos logiciels de travail.


Pour ces usages, le futur Règlement IA européen ne prévoit pas de contraintes spécifiques. Leur développement et leur utilisation restent libres, à condition bien sûr de respecter les autres lois déjà en vigueur : protection des données personnelles (RGPD), droit de la consommation, etc.


Toutefois, même si aucune obligation stricte ne s’applique, les institutions européennes encouragent les entreprises à aller plus loin. Des codes de conduite volontaires ou des bonnes pratiques sont recommandés (article 95) pour renforcer la confiance et garantir une IA éthique, même là où la loi n’impose rien.


5. Risque systémique associé aux IA d’usage général

Lorsqu’une iA atteint un niveau de complexité élevé, elle entre dans une catégorie dite « à risque systémique ». Par exemple, elle nécessite une puissance de calcul dépassant 10 puissance 25 flops.


Les exigences réglementaires sont alors plus strictes :

  • Evaluations régulières,

  • Tests de robustesse face aux attaques,

  • Plans d’atténuation des risques,

  • Déclarations obligatoires en cas d’incident majeur,

  • Normes de cybersécurité,

  • Analyse de l’impact énergétique du système.


L’objectif est d’encadrer ces technologies puissantes pour éviter qu’elles ne créent des déséquilibres ou des dommages à grande échelle.


Quelles obligations pour les entreprises ?

L’intelligence artificielle fait de plus en plus partie du quotidien des entreprises. Que ce soit avec des outils comme ChatGPT, des assistants vocaux ou des chatbots, elle s’invite partout : dans les prises de décision, dans le service client, dans les outils internes…


Avec l’arrivée de l’AI Act, les règles du jeu changent. Les entreprises vont devoir être plus rigoureuses : mieux encadrer l’utilisation de leurs outils, sécuriser les données, assurer plus de transparence, et surtout, mieux gérer les risques liés à l’iA.


Alors oui, cela demande des efforts : revoir ses pratiques, former ses équipes, investir dans des audits… Et bien sûr, tout cela a un coût. Mais ce serait une erreur de le voir uniquement comme une contrainte.


👉 C’est aussi une vraie opportunité pour :

  • Gagner en crédibilité

  • Renforcer la confiance de vos clients et partenaires

  • Comprendre en profondeur les outils que vous utilisez

  • Sécuriser vos usages d’iA sur le long terme


Des sanctions en cas de non-respect

Le non-respect de l’AI Act peut entraîner des sanctions financières significatives :

  • Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial pour l’utilisation de systèmes interdits.

  • Jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial pour le non-respect des obligations liées aux systèmes à risque élevé.

  • Jusqu’à 7,5 millions d’euros ou 1 % du chiffre d’affaires annuel mondial pour la fourniture d’informations incorrectes ou trompeuses .


Quel lien avec le RGPD ?

Le RGPD régule les données personnelles. L’AI Act s’intéresse au fonctionnement des systèmes d’intelligence artificielle. Toutefois, les deux lois sont complémentaires. Une IA qui traite des données personnelles devra respecter les deux réglementations.


Et les IA génératives comme ChatGPT ?

Les IA génératives sont classées comme "à risque limité", sauf si elles sont intégrées à des systèmes à risque élevé. Par ailleurs, elles devront respecter des règles spécifiques :

  • mention explicite du caractère généré par l’IA,

  • documentation technique,

  • respect du droit d’auteur pour les données d’entraînement.


Les éditeurs comme OpenAI devront documenter les sources de leurs données.


Entrée en vigueur et calendrier

L’AI Act a été adopté en mars 2024. Il entrera en application progressivement.

  • 1er août 2024 : le règlement européen sur l’IA entre officiellement en vigueur dans tous les États membres.

  • 2 février 2025 : interdiction des systèmes d’IA jugés trop dangereux par l’Europe.

  • 2 août 2025 : début des obligations pour les modèles d’IA à usage général et désignation des autorités de contrôle dans chaque pays.

  • 2 août 2026 : application des règles pour les IA à haut risque (biométrie, éducation, emploi, justice, infrastructures…). Mise en place de bacs à sable pour aider les entreprises à se conformer.

  • 2 août 2027 : extension des règles aux IA intégrées dans des produits déjà régulés (jouets, dispositifs médicaux, équipements industriels).


Conclusion

L’AI Act positionne l’Union européenne en tant que leader mondial dans la régulation de l’intelligence artificielle. Il établit un équilibre entre la promotion de l’innovation technologique et la protection des droits fondamentaux. Cette législation offre un cadre clair pour les entreprises, favorise la confiance des citoyens et encourage le développement d’une IA éthique et responsable.



 
 
bottom of page