Paul Nemitz : « La démocratie doit l’emporter sur la technologie et les modèles économiques pour le bien commun ».
Paul Nemitz est conseiller principal auprès du directeur général de la justice de la Commission européenne et professeur de droit au Collège d’Europe. Considéré comme l’un des experts européens les plus respectés en matière de liberté numérique, il a dirigé les travaux sur le Règlement général sur la protection des données. Il est également l’auteur, avec Matthias Pfeffer, de L’impératif humain : pouvoir, liberté et démocratie à l’ère de l’intelligence artificielle, un essai sur l’impact des nouvelles technologies sur les libertés individuelles et la société.
Voxeurop : Diriez-vous que l’intelligence artificielle est une opportunité ou une menace pour la démocratie, et pourquoi?
.
Paul Nemitz : Je dirais que l’une des grandes tâches de la démocratie au XXIe siècle est de contrôler le pouvoir technologique. Nous devons prendre conscience du fait que le pouvoir doit être contrôlé. Il y a de bonnes raisons pour lesquelles nous avons une histoire juridique de contrôle du pouvoir des entreprises, des États ou des dirigeants. Ce principe s’applique certainement aussi à l’IA..
Paul Nemitz : Tout d’abord, il s’agit de la primauté de la démocratie sur la technologie et les modèles économiques. Ce à quoi ressemble l’intérêt commun est dans une démocratie, décidé exactement par ce processus dans une démocratie. Les parlements et les législateurs sont le lieu où l’on décide de la direction que doit prendre l’intérêt commun : la loi est l’acte de parole le plus noble de la démocratie.Il y a quelques mois, à propos de la réglementation et de l’IA, certains magnats de la technologie ont écrit une lettre avertissant les gouvernements que l’IA pourrait détruire l’humanité s’il n’y avait pas de règles, demandant une réglementation. Mais de nombreux experts critiques comme Evgeny Morozov et Christopher Wylie, dans deux articles que nous avons récemment publiés, affirment qu’en brandissant la menace d’une extinction induite par l’IA, ces géants de la technologie détournent en fait l’attention du public et des gouvernements des problèmes actuels liés à l’intelligence artificielle. Êtes-vous d’accord avec cela ?
.
Il faut regarder à la fois les défis immédiats d’aujourd’hui, de l’économie numérique, et les défis pour la démocratie et les droits fondamentaux : la concentration du pouvoir dans l’économie numérique est une question d’actualité. L’IA contribue à cette concentration du pouvoir : elle rassemble tous les éléments de l’IA, tels que les chercheurs et les start-uppers, dans des systèmes fonctionnels. Nous avons aujourd’hui un défi immédiat à relever, qui ne vient pas seulement de la technologie elle-même, mais aussi des implications de cet ajout à la concentration du pouvoir.
Les droits fondamentaux : l’IA est un problème actuel.
Et puis nous avons des défis à long terme, mais nous devons considérer les deux. Le principe de précaution fait partie de l’innovation en Europe, et c’est une bonne chose. Il est devenu un principe de législation et de droit primaire dans l’Union européenne, nous obligeant à examiner les impacts à long terme de la technologie et leurs conséquences potentiellement terribles. Si nous ne pouvons pas exclure avec certitude que ces conséquences négatives se produiront, nous devons prendre des décisions aujourd’hui pour nous assurer qu’elles ne se produiront pas. C’est ce que prévoit le principe de précaution, et notre législation sert aussi en partie cet objectif.
Elon Musk a tweeté qu’il était nécessaire de procéder à des déréglementations globales. Est-ce le moyen de protéger les droits individuels et la démocratie ?
Pour moi, ceux qui écrivaient déjà des livres dans lesquels ils disaient que l’IA est comme la puissance atomique avant de mettre sur le marché des innovations comme le ChatGPT et d’appeler ensuite à des réglementations n’en ont pas tiré les conséquences. Si vous pensez à Bill Gates, Elon Musk, ou au président de Microsoft Brad Smith, ils étaient tous très clairs sur les risques et les opportunités de l’IA. Microsoft a d’abord acheté une grande partie de l’IA ouverte et l’a simplement mise sur le marché pour encaisser quelques milliards avant de dire « maintenant, nous avons besoin de lois ». Mais s’il avait été pris au sérieux, le parallèle avec l’énergie atomique aurait signifié qu’il fallait attendre la mise en place d’une réglementation. Lorsque l’énergie atomique a été introduite dans nos sociétés, personne n’a eu l’idée de commencer à l’exploiter sans que ces réglementations soient établies. Si l’on examine l’histoire de la réglementation juridique des technologies, on constate que le secteur des entreprises s’y est toujours opposé. Il a fallu 10 ans pour introduire les ceintures de sécurité dans les voitures américaines et européennes, les gens mouraient parce que l’industrie automobile exerçait un lobbying très efficace, même si tout le monde savait que les décès seraient réduits de moitié si les ceintures de sécurité étaient introduites.
Pour l’instant, il n’y a pas eu de changement dans la législation.
Je crois aussi que l’idée que tous les problèmes de ce monde peuvent être résolus par la technologie, comme nous l’avons entendu de la bouche de l’ex-président Trump lorsque les États-Unis ont quitté les accords sur le climat à Paris, est en fait erronée en matière de politique climatique comme pour toutes les grandes questions de ce monde. Le coronavirus nous a montré que les règles de comportement sont essentielles. Nous devons investir dans la capacité à nous mettre d’accord : la ressource la plus rare aujourd’hui pour résoudre les problèmes n’est pas la prochaine grande technologie et toutes ces discussions idéologiques. La ressource la plus rare aujourd’hui est la capacité et la volonté des gens à se mettre d’accord, dans la démocratie et entre les pays. Qu’il s’agisse des relations transatlantiques, du droit international ou de la possibilité pour des parties qui se font la guerre de renouer avec la paix, c’est là le plus grand défi de notre époque. Et je dirais que ceux qui pensent que la technologie résoudra tous les problèmes sont animés d’un certain orgueil.
Enfin, en Amérique, c’est le lobby qui l’emporte. Si vous écoutez le grand professeur de droit constitutionnel Lawrence Lessig sur le pouvoir de l’argent en Amérique et son analyse de la raison pour laquelle aucune loi limitant les grandes technologies ne sort plus du Congrès, l’argent joue un rôle très important. En Europe, nous parvenons encore à nous mettre d’accord. Bien sûr, le lobby est très fort à Bruxelles et nous devons en parler ouvertement : l’argent que les grandes entreprises technologiques dépensent, comment elles essaient d’influencer non seulement les politiciens, mais aussi les journalistes et les scientifiques.
Il existe une GAFAM culture qui consiste à essayer d’influencer l’opinion publique, et dans mon livre, j’ai décrit leur boîte à outils de manière assez détaillée. Ils sont très présents, mais je dirais que notre processus démocratique fonctionne encore parce que nos partis politiques et nos députés ne sont pas dépendants de l’argent des grandes entreprises technologiques comme le sont les parlementaires américains. Je pense que nous pouvons être fiers du fait que notre démocratie est encore capable d’innover, car légiférer sur ces questions de pointe n’est pas une question technologique, c’est vraiment au cœur des questions sociétales. L’objectif est de transformer ces idées en lois qui fonctionnent ensuite comme les lois normales : il n’y a pas de loi qui soit parfaitement appliquée. Cela fait également partie de l’innovation. L’innovation n’est pas seulement une question technologique.
L’un des grands leitmotivs du point de vue d’Evgeny Morozovs sur l’intelligence artificielle et les grandes technologies en général est de mettre en évidence le solutionnisme, ce que vous avez mentionné comme l’idée que la technologie peut tout résoudre. L’Union européenne discute actuellement de la loi sur l’IA qui devrait réglementer l’intelligence artificielle. Quelle est l’orientation de cette réglementation et savons-nous dans quelle mesure le lobby de la technologie l’a influencée ? Nous savons que c’est le lobby le plus important en termes de budget au sein des institutions européennes. Peut-on dire que la loi sur l’IA est la loi la plus complète sur le sujet aujourd’hui ?
Strong>.
Strong>.
D’abord, voyons si toutes les promesses faites par l’IA spécialisée sont vraiment tenues. Je n’en suis pas convaincu, on ne sait pas quand le pas vers l’AGI sera franchi. Stuart Russell, auteur de « Human Compatible : Artificial Intelligence and the Problem of Control », Stuart Russell affirme que l’IA ne sera jamais en mesure de rendre opérationnels des principes généraux tels que les principes constitutionnels ou les droits fondamentaux. C’est pourquoi, chaque fois qu’il s’agit de prendre une décision sur un principe de valeur, les programmes doivent être conçus de manière à revenir à l’homme. Je pense que cette pensée devrait nous guider, nous et ceux qui développent l’AGI, pour le moment. Il pense également que des décennies s’écouleront avant que nous ne disposions de l’AGI, mais il fait le parallèle avec la fission de l’atome, arguant que de nombreux scientifiques très compétents disaient que ce n’était pas possible et qu’un jour, par surprise, un scientifique a prononcé un discours à Londres et a montré le lendemain que c’était en effet possible. Je pense donc que nous devons nous préparer à cela, et à bien d’autres choses encore. Il y a beaucoup de fantasmes sur la façon dont la technologie va évoluer, mais je pense que l’important est que les administrations publiques, les parlements et les gouvernements gardent le cap et surveillent tout cela de très près.
.
Je pense que les amendes ne sont pas tout, mais nous vivons dans un monde d’énorme concentration de pouvoir et nous avons besoin d’un contre-pouvoir. Et le contre-pouvoir doit être avec l’État, donc nous devons être en mesure d’appliquer toutes les lois, si nécessaire avec une main dure. Malheureusement, ces entreprises ne réagissent en grande partie qu’à une main dure. L’Amérique sait comment gérer le capitalisme : les gens vont en prison lorsqu’ils créent un cartel, lorsqu’ils se mettent d’accord sur les prix, ce qui n’est pas le cas en Europe. Je pense donc que nous devons apprendre de l’Amérique à cet égard, nous devons être prêts et disposés à appliquer nos lois avec fermeté, parce que la démocratie signifie que des lois sont élaborées et que la démocratie signifie également que les lois sont respectées. Et il ne peut y avoir d’exception pour les grandes entreprises technologiques.
Cela veut-il dire que nous devrions nous orienter vers une approche plus américaine ?Cela dit, ce n’est pas suffisant : nous devons nous rappeler que dans une société démocratique, le contre-pouvoir vient des citoyens et de la société civile. Nous ne pouvons pas laisser les individus se battre seuls pour leurs droits face aux grandes entreprises technologiques. Nous avons besoin d’une application publique et nous devons donner à la société civile les moyens de lutter pour les droits des individus. Je pense que cela fait partie du contrôle du pouvoir de la technologie au 21e siècle et que cela guidera l’innovation. Ce n’est pas un obstacle à l’innovation, mais cela l’oriente vers l’intérêt public et une légalité moyenne. Et c’est ce dont nous avons besoin ! Il faut que les grandes et puissantes entreprises technologiques apprennent que ce n’est pas une bonne chose d’aller vite et de tout casser si « tout casser » implique d’enfreindre la loi. Je pense que nous sommes tous en faveur de l’innovation, mais cela sape notre démocratie si nous permettons à des acteurs puissants de perturber et d’enfreindre la loi et de s’en tirer à bon compte. Ce n’est pas bon pour la démocratie.
Thierry Breton, le commissaire européen à l’industrie, a écrit une lettre à Elon Musk, lui disant que si X continuait à favoriser la désinformation, il pourrait se heurter à des sanctions de la part de l’UE. Elon Musk a répondu que dans ce cas, il pourrait quitter l’Europe, et que d’autres géants de la technologie pourraient être tentés de faire de même s’ils n’aiment pas la réglementation que l’Europe est en train de mettre en place. Quel est donc le rapport de force entre les deux ?
Je dirais que c’est très simple, je suis quelqu’un de très simple à cet égard : on ne peut jamais faire chanter la démocratie. S’ils essaient de nous faire chanter, nous devons simplement nous moquer d’eux : s’ils veulent partir, ils sont libres de partir, et je souhaite bonne chance à Elon Musk à la bourse s’il quitte l’Europe. Heureusement, nous sommes encore un marché très important et rentable, alors s’il peut se permettre de partir : au revoir Elon Musk, nous vous souhaitons le meilleur.
Qu’en est-il du danger de l’utilisation non conventionnelle de l’IA ? .Pour revenir à ce que Chris Wiley a dit dans l’article que nous avons mentionné : l’approche réglementaire actuelle ne fonctionne pas parce qu’elle « traite l’intelligence artificielle comme un service, et non comme une architecture ». Partagez-vous ce point de vue?
.Je dirais que la barre de ce qui fonctionne et de ce qui ne fonctionne pas, et de ce qui est considéré comme fonctionnant et ne fonctionnant pas dans le droit des technologies ne devrait pas être plus élevée que dans n’importe quel autre domaine du droit. Nous savons tous que nous avons des lois fiscales et que nous essayons de les appliquer le mieux possible. Mais nous savons que de nombreuses personnes et entreprises s’en tirent en ne payant pas leurs impôts.  ; Nous avons des lois sur la propriété intellectuelle et elles ne sont pas toujours respectées. Le meurtre est quelque chose de très puni, mais des gens sont assassinés tous les jours.
Je pense donc qu’en matière de droit des technologies, nous ne devrions pas tomber dans le piège du discours de l’industrie des technologies selon lequel « nous préférons l’absence de loi à une mauvaise loi », une mauvaise loi étant une loi qui ne peut pas être parfaitement appliquée. Ma réponse est la suivante : il n’y a pas de loi qui fonctionne parfaitement, et il n’y a pas de loi qui puisse être parfaitement appliquée. Mais ce n’est pas un argument contre l’existence de lois. Les lois sont l’acte le plus noble de la démocratie, et cela signifie qu’elles sont un compromis.
