Se rendre au contenu
  • Accueil
  • News
  • News
    • 0
    • 0
News
  • 0
  • 0
    • Accueil
    • News

AI Act : report des obligations pour l’IA à haut risque à 2027

14 mai 2026 par
OdooBot

Le Parlement européen a récemment adopté une position visant à reporter l'application des dispositions concernant les systèmes d'intelligence artificielle (IA) à haut risque. Initialement prévues pour entrer en vigueur en août 2026, ces obligations ne s'appliqueront désormais qu'à partir de décembre 2027 pour certains systèmes, et d'août 2028 pour d'autres. Cette décision soulève des questions quant à son impact sur les entreprises technologiques et les utilisateurs finaux.

Contexte et détails du report

Le règlement européen sur l'IA, connu sous le nom d'AI Act, vise à encadrer le développement et l'utilisation de l'intelligence artificielle au sein de l'Union européenne. Il classe les systèmes d'IA en différentes catégories de risque, les systèmes à haut risque étant soumis à des obligations strictes en matière de conformité, de transparence et de sécurité.

Selon les nouvelles dispositions adoptées :

  • Les obligations relatives aux systèmes d'IA à haut risque spécifiquement énumérés dans le règlement (tels que ceux impliquant des données biométriques, utilisés dans les infrastructures critiques, l'éducation, l'emploi, les services répressifs et la gestion des frontières) s'appliqueront à partir du 2 décembre 2027.
  • Pour les systèmes d'IA utilisés comme composants de sécurité et couverts par la législation sectorielle de l'UE en matière de sécurité et de surveillance du marché, les obligations s'appliqueront à partir du 2 août 2028.

Ce report a été motivé par la nécessité de garantir la mise en place des normes et des mesures d'accompagnement nécessaires pour clarifier l'application de ces règles. 

Implications pour les entreprises technologiques

Ce décalage offre aux entreprises technologiques un délai supplémentaire pour se conformer aux nouvelles réglementations. Cependant, il est essentiel que ces entreprises utilisent ce temps pour :

  • Mettre en place des systèmes de gestion des risques : Identifier et évaluer les risques associés à leurs systèmes d'IA, et développer des stratégies pour les atténuer.
  • Assurer la gouvernance des données : Veiller à ce que les données utilisées pour entraîner les modèles d'IA soient de haute qualité, non biaisées et conformes aux réglementations en vigueur.
  • Obtenir le marquage CE : Avant de commercialiser des systèmes d'IA à haut risque, les fournisseurs devront obtenir ce marquage et s'inscrire dans la base de données de l'Union européenne. 

Il est crucial que les entreprises ne considèrent pas ce report comme une opportunité de retarder leurs efforts de mise en conformité. Au contraire, elles devraient profiter de ce délai pour renforcer leurs processus internes et s'assurer qu'elles seront prêtes lorsque les obligations entreront en vigueur.

Conséquences pour les utilisateurs

Pour les utilisateurs finaux, ce report signifie que certaines protections prévues par l'AI Act ne seront pas en place aussi rapidement que prévu. Cela pourrait entraîner une période prolongée pendant laquelle des systèmes d'IA à haut risque pourraient être déployés sans les garanties complètes envisagées par le règlement.

Cependant, il est important de noter que certaines dispositions de l'AI Act restent en vigueur. 
Par exemple, l'interdiction des pratiques inacceptables prévues à l'article 5 est applicable depuis février 2025. Voici quelques exemples:

  • La manipulation comportementale par IA
  • Le “social scoring” des individus
  • La création de bases de reconnaissance faciale par collecte massive d’images

 De plus, des obligations pour les modèles d'IA à usage général sont en place depuis août 2025. Voici quelques exemples:

  • Former les équipes à l’IA (“AI Literacy”)
  • Mettre en place des mesures adaptées selon les risques
  • Documenter et tracer certains systèmes d’IA

Réactions et perspectives

La décision de reporter l'application des obligations pour les systèmes d'IA à haut risque a suscité des réactions mitigées. Certains acteurs de l'industrie technologique saluent ce délai supplémentaire, estimant qu'il leur permettra de mieux se préparer et d'assurer une mise en conformité efficace. D'autres, notamment des organisations de défense des droits numériques, expriment des inquiétudes quant à la prolongation de la période pendant laquelle des systèmes potentiellement risqués pourraient être utilisés sans réglementation stricte.

Il est essentiel que les entreprises utilisent ce temps pour renforcer leurs processus internes et s'assurer qu'elles seront prêtes lorsque les obligations entreront en vigueur. De même, les autorités de régulation devront surveiller de près le déploiement des systèmes d'IA pendant cette période transitoire pour garantir la protection des utilisateurs.

Conclusion

Le report de l'application des obligations pour les systèmes d'IA à haut risque offre aux entreprises technologiques un délai supplémentaire pour se conformer aux nouvelles réglementations. Cependant, il est impératif que ce temps soit utilisé de manière proactive pour assurer la sécurité, la transparence et la conformité des systèmes d'IA. Les utilisateurs, quant à eux, devront rester vigilants et informés sur les développements en matière de réglementation de l'IA pour garantir que leurs droits et leur sécurité soient protégés.

Sources :

  • IA : mesures de simplification et interdiction des applications de "déshabillage" | Actualité | Parlement européen
  • Le Règlement européen sur l'intelligence artificielle : publics concernés, dates clés, conséquences pour les entreprises | Direction générale des Entreprises
  • AI Act : les obligations IA à haut risque repoussées à décembre 2027
in IA Editorial Tech
# AI Act Europe IA
Spotify lance le badge « Verified » pour distinguer artistes humains et IA
 Logo LCSXTech  

Ce site est administré par LCSX Tech à titre expérimental dans le cadre de travaux sur le traitement automatisé de l’information par intelligence artificielle. Les articles publiés sont générés par une intelligence artificielle à des fins d’information et ne reflètent ni les opinions ni la philosophie de l’entreprise. Malgré le soin apporté à leur rédaction et les vérifications effectuées, certaines informations peuvent être incomplètes, approximatives, comporter des coquilles ou devenir obsolètes. Ces contenus ne remplacent pas l’avis, l’analyse ou l’intervention d’un expert humain.

Copyright © LCSX Tech
Généré par Odoo - Le #1 Open Source eCommerce