Orateur(s)
Pieter Van Cleynenbreugel Professeur ordinaire (Faculté de Droit, de Science politique et de Criminologie, ULiège)
Jérôme De Cooman Chercheur-doctorant (Faculté de Droit, de Science Politique et de Criminologie, ULiège)

Réglementation européenne de l’IA et son impact sur le monde de l’entreprise

    Résumé

    Pieter Van Cleynenbreugel, Professeur ordinaire à la Faculté de Droit, de Science politique et de Criminologie de l’Université de Liège, a démarré cette rencontre-conférence en évoquant l’historique et la genèse de l’Artificial Intelligence Act (AI Act). L’intelligence artificielle existe depuis plus de 60 ans. Cependant, nous assistons à une utilisation accrue des Big Data. Cette utilisation massive a donné naissance à des craintes légitimes au sein des politiciens européens. Dès lors, l’Union européenne a souhaité se doter d’un instrument législatif classique prenant la forme d’un règlement, qui s’applique directement au niveau des états membres. Ce règlement sera publié dans le Journal officiel de l’UE et rentrera en vigueur, 20 jours après sa publication.

    Il a poursuivi en évoquant les caractéristiques clés de l’AI Act et son champ d’application. Il est important de distinguer deux champs d’application matérielle. D’une part les systèmes d’IA, c’est-à-dire « des systèmes automatisés conçus pour fonctionner à différents niveaux d’autonomie qui peuvent faire preuve d’une capacité d’adaptation après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir de données d’entrée qu’ils reçoivent, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». 

    Et d’autre part, les modèles d’IA à usage général, c’est-à-dire « des modèles, y compris celui entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision, présentant une généralité significative et capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont il est mis sur le marché et qui peut être intégré dans une variété de systèmes ou d’application en aval ».

    Concernant l’application territoriale, celle-ci concernera toute commercialisation ou usage à titre professionnel d’un système d’IA au sein de l’UE, même à partir d’un pays tiers. Par contre, l’AI Act ne s’appliquera pas à des fins exclusivement militaires, de défense ou de sécurité nationale et dans le cadre des recherches ou activités scientifiques, y compris le développement des systèmes IA.

    La classification du système repose sur 4 catégories. La réglementation prévoit une 5ème catégorie pour les modèles. L’AI Act distingue quatre types de risques d’utilisation, de « inacceptables » à « minimes ». En fonction de chaque usage, des obligations s’appliquent (voir schéma). Il est important de savoir que si le risque est inacceptable, les usages seront clairement interdits par l’AI Act

    De plus, il existe un cadre complémentaire portant sur les modèles d’IA à usage général présentant un risque systémique. Dans ce contexte, la décision devra être prise par la Commission européenne via son bureau AI Office. Celui-ci pourra donner des exigences supplémentaires visant à atténuer le risque systémique. 

    Jérôme De Cooman, Chercheur-doctorant à la Faculté de Droit, de Science Politique et de Criminologie à l’Université de Liège, a appuyé l’intervention de Pieter Van Cleynenbreugel en évoquant la perspective d’une entreprise confrontée à l’usage de l’IA. 

    À travers un schéma à consulter ici, vous pourrez répondre aux questions suivantes : Comment mobiliser le cadre législatif de l’AI Act en pratique ? Quelles obligations s’appliquent dans quel contexte ? 

     

    L’intelligence artificielle est en constante évolution. Cette rencontre-conférence sera l’occasion d’explorer les implications pratiques juridiques dans le contexte européen.

    Le Professeur Pieter Van Cleynenbreugel exposera les grandes lignes du Règlement sur l’Intelligence Artificielle (AI Act) qui devrait entrer en vigueur cette année, ainsi que le panorama qui l’a vu naître.

    Il reviendra sur les définitions proposées par le législateur européen et le champ d’application de cette législation, qui vise notamment à distinguer les systèmes d’IA selon qu’ils soulèvent des risques portant atteinte aux droits fondamentaux, de « inacceptables » (mise sur le marché prohibée) à « minimes ».

    Aussi, bien que présentée par le législateur européen comme une réglementation du risque protégeant contre les atteintes aux droits fondamentaux, l’AI Act peut également être présenté sous l’angle d’une réglementation destinée à l’harmonisation du marché intérieur. À cet égard, l’AI Act est donc similaire aux règlements sur la sécurité des produits. 

    Dans une seconde partie, Jérôme De Cooman présentera en détail la logique de standardisation et de normalisation des systèmes d’IA dit à haut risque et exposera, concrètement, les obligations qui pèseront bientôt sur les développeurs et utilisateurs desdits systèmes.