Europe : l’approbation finale à l’AI Act attendue

Ce mercredi 13 mars, le Parlement européen doit donner son approbation finale à l’AI Act, future loi européenne sur l’intelligence artificielle.


Ce mercredi 13 mars, le Parlement européen doit donner son approbation finale à l’AI Act, future loi européenne sur l’intelligence artificielle. Le texte soumis au vote est le résultat de mois de débats et de négociations. “Que va-t-il changer concrètement ? C’est malheureusement la question que l’on ne peut manquer de se poser à propos des législations concoctées à Bruxelles, particulièrement lorsqu’elles donnent lieu à d’intenses batailles de lobbying”, a commenté l’Observatoire des Multinationales.


Pour cette “plateforme de veille citoyenne pour la démocratie économique”, ce ne sont pas OpenAI ni Microsoft, Meta (Facebook) ou Google qui ont été au premier plan de cette bataille - du moins sur la dernière ligne droite. Ce sont les start-up européennes du secteur, à commencer par l’allemande Aleph Alpha et la française Mistral AI. Et, grâce au soutien appuyé de leurs gouvernements, ces entreprises ont largement obtenu gain de cause. “Dans sa forme finale, l’AI Act est tout à fait gérable pour nous”, se félicitait ainsi Arthur Mensch, cofondateur et directeur de Mistral AI. Le patron d’Aleph Alpha, Jonas Andrulis, est plus direct encore : “La version actuelle de l’AI Act est bonne. Il y a eu beaucoup de travail qui a mené à des améliorations importantes près de la ligne d’arrivée”.


L’Observatoire des Multinationales qui a ajouté que dans la version finale de la loi européenne, leurs modèles à usage général ne sont plus classifiés comme à risque, de sorte que leurs produits – et quasiment tous les autres à l’exception de ChatGPT – ne plus sont soumis qu’à des obligations minimales de transparence... dont la teneur et la mise en œuvre restent encore à préciser. Selon son point de vue, c’est pour ne pas nuire au développement de potentiels champions européens que les gouvernements ont de fait renoncé à réguler concrètement une grande partie du secteur de l’intelligence artificielle


Intégration de la problématique de l’IA générative

Pour rappel, c’est en 2021 que la Commission européenne a présenté sa proposition de loi initiale sur l’AI. Celle-ci reposait sur un principe simple : celui de séparer les pratiques et technologies entre celles qui doivent être purement et simplement interdites, celles qui doivent être soumises à des régulations plus fortes et celles qui peuvent en être dispensées. La publicité faite autour de ChatGPT lors de son lancement en 2022 a changé la donne. À l’initiative du Parlement européen, la loi européenne a intégré la problématique de l’intelligence artificielle générative, jusqu’alors absente du texte. Les eurodéputés ont introduit des mesures plus contraignantes pour les modèles d’IA dits “à usage général”, du fait des risques que pourraient engendrer certaines utilisations.


Les grandes entreprises du secteur ont alors décidé de réagir. Ainsi, sur l’année 2023, le projet de loi a donné lieu à pas moins de 122 de réunions de lobbying à la Commission européenne, soit une tous les deux jours ouvrables, dont 78% avec les industriels. Mais dans les derniers mois de cette lutte d’influence, les Microsoft, Meta, Google et autres se sont fait plus discrets. Ce sont les acteurs européens qui ont été les têtes de pont de la bataille, en intervenant dans les médias et auprès des politiques.


Autre constat fait par la plateforme : c’est surtout à travers les gouvernements des plus gros États-membres, et notamment ceux de la France et de l’Allemagne – alliés à l’Italie – que l’offensive a été menée. Dans les derniers mois de l’année 2023, les dirigeants de ces trois pays ont multiplié les critiques contre les velléités de régulation du Parlement européen. Lors d’un sommet organisé à Rome en présence d’industriels, les ministres des trois pays ont soutenu la nécessité d’une régulation “favorable à l’innovation dans le domaine de l’AI, y compris l’AI à usage général. Pour l’allemand Robert Halbeck, les règles doivent être établies lorsque des risques spécifiques surviennent dans l’application des modèles...

Enregistrer un commentaire

0 Commentaires