Bruxelles précise l’AI Act pour les modèles d’IA à usage général

Depuis l’entrée en vigueur de l’AI Act, l’Union européenne s’engage à encadrer le développement et l’utilisation des technologies d’intelligence artificielle. L’un des aspects les plus significatifs de cette législation est la réglementation des modèles d’IA à usage général (GPAI). À partir du 2 août 2025, de nouvelles obligations seront imposées aux fournisseurs de ces modèles, afin d’assurer une transparence et une documentation adéquates.

Cette initiative vise à garantir que les systèmes d’IA soient déployés de manière éthique et sûre, tout en minimisant les risques systémiques associés. La Commission européenne a également élaboré un code de bonnes pratiques et des outils pour faciliter la conformité des entreprises avec les nouvelles exigences.

Définition des modèles d’IA à usage général

Un modèle d’IA à usage général est défini dans l’article 3, point 63 de l’AI Act comme un modèle capable d’exécuter un large éventail de tâches distinctes. Ces modèles peuvent être intégrés dans divers systèmes ou applications, ce qui en fait des outils polyvalents pour de nombreuses industries.

Cette définition souligne l’importance de la flexibilité et de l’adaptabilité des modèles d’IA. Cependant, avec cette polyvalence vient également la responsabilité, car une utilisation inadéquate peut entraîner des conséquences néfastes sur la société.

En conséquence, la réglementation vise à s’assurer que ces modèles ne soient pas seulement efficaces, mais aussi conformes à des normes éthiques élevées.

Obligations de transparence et de documentation

À partir du 2 août 2025, les fournisseurs de modèles d’IA à usage général devront se conformer à des obligations strictes en matière de transparence et de documentation. Cela inclut la nécessité de fournir des informations détaillées sur les données utilisées pour former leurs modèles.

La Commission européenne a mis en place un modèle de résumé des données d’entraînement, qui aidera les fournisseurs à structurer cette information. Ce modèle favorise la transparence, permettant ainsi aux utilisateurs de comprendre comment les décisions sont prises par ces systèmes d’IA.

Cette démarche vise à instaurer une confiance accrue dans les technologies d’IA en fournissant des éclaircissements sur leurs mécanismes internes et leur fonctionnement.

Code de bonnes pratiques

La Commission européenne a récemment publié la version finale d’un code de bonnes pratiques, élaboré avec l’aide de 13 experts indépendants et plus de 1 000 parties prenantes. Ce code a pour but d’aider les fournisseurs à naviguer dans les nouvelles obligations imposées par l’AI Act.

Le code de bonnes pratiques offre des lignes directrices sur la manière de respecter les exigences de transparence, d’éthique et de sécurité. Il constitue un outil essentiel pour les entreprises souhaitant s’assurer qu’elles répondent aux normes requises.

En suivant ces recommandations, les fournisseurs peuvent non seulement éviter des sanctions, mais aussi contribuer à un écosystème d’IA plus responsable.

Classification des modèles présentant un risque systémique

Selon l’article 51 de l’AI Act, certains modèles d’IA à usage général peuvent être classés comme présentant un risque systémique. Cette classification est déterminée par l’évaluation de leurs capacités d’impact et des critères spécifiques établis par la Commission.

Les modèles classés comme à haut risque seront soumis à des exigences supplémentaires pour garantir leur conformité. Cela inclut une évaluation plus rigoureuse de leur sécurité et de leur impact potentiel sur la société.

Cette approche permet de cibler les régulations sur les modèles qui ont le plus grand potentiel d’influence, renforçant ainsi les mesures de sécurité pour les citoyens.

Exigences pour les modèles open source

Les modèles d’IA à usage général qui sont libres et open source peuvent bénéficier d’exemptions à certaines exigences, tant qu’ils ne sont pas classés comme à risque systémique. Cela est particulièrement pertinent pour encourager l’innovation et la collaboration dans le développement de l’IA.

Pour bénéficier de ces exemptions, il est crucial que les paramètres et les informations sur l’architecture du modèle soient rendus publics. Cela garantit une certaine transparence tout en permettant aux développeurs de travailler librement.

Cette approche favorise un environnement de recherche dynamique, tout en maintenant des normes de sécurité minimales pour l’utilisation de ces modèles.

Sanctions en cas de non-conformité

Les entreprises qui ne respectent pas les obligations de l’AI Act s’exposent à des sanctions sévères. Les amendes peuvent atteindre 15 millions d’euros ou 3 % de leur chiffre d’affaires mondial, selon la gravité de la violation.

Ces sanctions sont conçues pour inciter les entreprises à prendre au sérieux leurs responsabilités en matière de développement et d’utilisation de l’IA. Cela envoie un message clair sur l’importance de la conformité dans un domaine en rapide évolution.

En instaurant de telles mesures, l’UE vise à promouvoir une culture de la responsabilité parmi les fournisseurs de technologies d’IA.

Avec l’entrée en vigueur des dispositions de l’AI Act concernant les modèles d’IA à usage général, l’Union européenne fait un pas significatif vers un cadre réglementaire plus rigoureux pour l’intelligence artificielle. Cela vise à garantir que les technologies d’IA soient utilisées de manière éthique et sûre, en protégeant les citoyens contre les risques potentiels.

En répondant aux nouvelles obligations de transparence et de documentation, les fournisseurs de modèles d’IA pourront non seulement se conformer à la législation, mais aussi renforcer la confiance du public dans ces technologies. L’avenir de l’IA en Europe dépendra de la capacité des entreprises à naviguer dans ce nouvel environnement réglementaire de manière responsable.