La loi sur l’IA est la première réglementation de ce type au monde. La première à aborder de manière exhaustive l’intelligence artificielle d’un point de vue centré sur l’humain. Elle vise à garantir que les systèmes d’IA utilisés en Europe sont sûrs et stimulent l’innovation, tout en respectant les droits fondamentaux, avec un accent particulier sur :
Pour les PME, la loi sur l’IA apportera principalement une plus grande certitude juridique, car elle définit clairement le cadre de l’innovation : les principes de conception, de développement et d’application des systèmes d’IA. Elle facilitera l’investissement des entreprises dans des solutions basées sur l’IA, réduisant ainsi les risques juridiques. De plus, des réglementations applicables dans l’ensemble de l’Union empêcheront la fragmentation du marché.
Les réglementations européennes sur l’intelligence artificielle ont été adoptées par le Parlement européen et le Conseil de l’Europe le 9 décembre 2023. Maintenant, elles doivent être formellement acceptées par les deux institutions pour entrer en vigueur.
La loi sur l’IA de l’UE introduit un ensemble d’exigences pour les systèmes d’IA, en fonction du niveau de risque. Ces exigences incluent, entre autres :
Les fabricants et les entreprises utilisant des systèmes d’IA seront également tenus de surveiller les risques après leur introduction sur le marché. Cela aura un impact direct sur les entreprises concevant et mettant en œuvre des systèmes d’IA.
La loi sur l’IA classe les systèmes d’IA en quatre catégories en fonction de leur niveau de risque :
Examinons de plus près comment chaque groupe sera défini, avec des exemples de systèmes et leurs classifications.
L’Union européenne impose une interdiction totale de l’utilisation des technologies énumérées dans la loi sur l’IA comme systèmes à risque inacceptable. Il s’agit principalement de systèmes conçus pour exploiter la susceptibilité des individus à la suggestion pour manipulation ou tromperie, de systèmes donnant à l’intelligence artificielle la capacité de prendre des décisions dans des affaires cruciales, et de ceux qui pourraient conduire à un abus de pouvoir. Des exemples d’IA à risque inacceptable incluent :
Pour les entreprises, la dernière catégorie est particulièrement importante. C’est pourquoi la transparence dans le fonctionnement des systèmes fournissant des suggestions aux utilisateurs et aux clients sera cruciale pour se conformer à la nouvelle législation de l’Union européenne.
L’intelligence artificielle classée comme solution d’IA à haut risque devra répondre à des exigences rigoureuses avant d’entrer sur le marché. Cela implique des évaluations de conformité et des tests stricts avant d’être approuvée pour utilisation. Cette catégorie de risque comprend huit domaines, tels que :
Pour les systèmes à risque limité, les législateurs ont heureusement accordé beaucoup moins d’attention. Cette catégorie comprend :
Les solutions d’IA à faible risque ne sont pas soumises à des réglementations juridiques. La loi sur l’IA mentionnera seulement que les créateurs et les utilisateurs de telles solutions devraient établir volontairement des politiques d’utilisation. Cela concerne des solutions telles que :
Pour vérifier si l’intelligence artificielle utilisée par une entreprise est conforme à la loi sur l’IA, vous devez :
Examinons des exemples de solutions d’IA fréquemment utilisées par les entreprises. Quelles exigences devront-elles respecter ?
Un chatbot de service client fournissant des informations de base sur les produits ou répondant à des questions typiques des clients sera probablement classé comme un système à risque minimal. Il devra :
Un système de recommandation de produits dans le commerce électronique sera probablement considéré comme un système à faible risque. Il sera nécessaire d’informer les clients qu’ils reçoivent des recommandations personnalisées et de leur donner la possibilité de les désactiver.
D’un autre côté, un système de diagnostic médical automatique sera classé comme un système à haut risque. Il devra subir une évaluation rigoureuse avant d’entrer sur le marché et être supervisé par un humain. De plus, il sera nécessaire de surveiller son fonctionnement et de signaler les incidents.
Le système de prévention de la criminalité urbaine sera également considéré comme à haut risque. Il devra se conformer aux réglementations sur la protection de la vie privée et d’autres droits fondamentaux. Son fonctionnement devra être sous supervision humaine constante.
Il n’est pas clair dans quelle catégorie tomberont les systèmes de prise de décision basés sur l’IA. Il est probable qu’un système de recrutement basé sur l’IA qui prend des décisions d’embauche de manière autonome sera considéré comme une solution d’IA à risque inacceptable. En revanche, un système de soutien au recrutement qui aide les gens à faire leur travail serait considéré comme une solution à haut risque.
Pour le bien-être des utilisateurs, ainsi que pour d’éventuels changements de classifications, il est très important d’aborder la construction et l’utilisation des systèmes d’IA de manière éthique et responsable dès le départ.
Ne pas suivre la loi sur l’IA pourrait entraîner des amendes significatives pour les entreprises, allant de 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les grandes entreprises à 7,5 millions d’euros ou 1,5 % pour les PME. Les systèmes d’IA illégaux pourraient être retirés du marché, et leur utilisation pourrait être limitée.
Alors, comment préparer une entreprise qui utilise l’intelligence artificielle à l’entrée en vigueur de la loi sur l’IA en 2025 ? Voici quelques conseils sur la façon dont les PME et les startups peuvent se préparer à ce moment :
L’introduction de la loi sur l’IA représente un grand changement pour l’écosystème de l’IA en Europe. Cependant, avec des règles claires et cohérentes, elle promet d’assurer le développement sûr et éthique de cette technologie, ce qui devrait bénéficier en particulier aux PME et aux startups.
La loi sur l’IA, qui entrera en vigueur en 2025, apportera des changements significatifs dans la manière dont les petites et moyennes entreprises (PME) peuvent tirer parti de l’intelligence artificielle. Pour les PME, cela signifie principalement la nécessité d’une réflexion et d’une analyse minutieuses des solutions d’IA qu’elles utilisent, tant en termes de conformité aux réglementations que d’impact potentiel sur les clients et la communauté.
Pour les propriétaires et les gestionnaires de petites entreprises, il est essentiel de comprendre comment leurs systèmes d’IA sont classés en termes de risque et quelles actions sont nécessaires pour les aligner sur les réglementations à venir. Prenons, par exemple, les systèmes d’IA utilisés dans la gestion de la clientèle ou le marketing, qui étaient auparavant utilisés assez librement. Maintenant, ils nécessiteront une analyse approfondie pour se conformer à la loi sur l’IA. Cela pourrait créer de nouvelles opportunités pour les entreprises spécialisées dans le conseil juridique en technologie, fournissant aux PME un soutien pour s’adapter à ces nouvelles exigences.
Si vous aimez notre contenu, rejoignez notre communauté de abeilles actives sur Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.
Expert en JavaScript et instructeur qui forme les départements informatiques. Son objectif principal est d'améliorer la productivité de l'équipe en enseignant aux autres comment coopérer efficacement lors du codage.
Les entreprises luttent pour gérer une vaste quantité de contenu publié en ligne, des publications…
À l'ère de la transformation numérique, les entreprises ont accès à une quantité sans précédent…
Saviez-vous que vous pouvez obtenir l'essence d'un enregistrement de plusieurs heures d'une réunion ou d'une…
Imaginez un monde où votre entreprise peut créer des vidéos engageantes et personnalisées pour n'importe…
Pour tirer pleinement parti du potentiel des grands modèles de langage (LLMs), les entreprises doivent…
En 2018, Unilever avait déjà entrepris un voyage conscient pour équilibrer les capacités d'automatisation et…