Menu

Notizie europee senza confini. Nella tua lingua.

Menu
×

Paul Nemitz: “La democrazia deve prevalere sulla tecnologia e sui modelli di business per il bene comune”.

Paul Nemitz è consulente senior del Direttorio generale per la Giustizia della Commissione europea e professore di Diritto al Collège d’Europe. Considerato uno dei più stimati esperti europei di libertà digitali, ha guidato il lavoro sul Regolamento generale sulla protezione dei dati. È inoltre autore, insieme a Matthias Pfeffer, di L’imperativo umano: potere, libertà e democrazia nell’era dell’intelligenza artificiale, un saggio sull’impatto delle nuove tecnologie sulle libertà individuali e sulla società. 

Voxeurop: Secondo lei l’intelligenza artificiale è un’opportunità o una minaccia per la democrazia, e perché? 

Paul Nemitz: Direi che uno dei grandi compiti della democrazia nel XXI secolo è controllare il potere tecnologico. Dobbiamo prendere atto del fatto che il potere deve essere controllato. Ci sono buone ragioni per cui abbiamo una storia legale di controllo del potere delle aziende, degli Stati o dei dirigenti. Questo principio si applica certamente anche all’IA.

Molte, se non tutte le tecnologie hanno un elemento di opportunità, ma comportano anche dei rischi: lo sappiamo dalle sostanze chimiche o dall’energia atomica, ed è proprio per questo che è così importante che la democrazia si occupi di inquadrare il modo in cui la tecnologia viene sviluppata, in quale direzione dovrebbe andare l’innovazione e quali possono essere i limiti dell’innovazione, della ricerca e dell’uso. Abbiamo una lunga storia di limitazioni alla ricerca, ad esempio sugli agenti biologici pericolosi, sulla genetica o sull’energia atomica: tutto questo è stato fortemente inquadrato, quindi non è strano che la democrazia guardi alle nuove tecnologie come l’intelligenza artificiale, pensi al loro impatto e se ne faccia carico. Penso che sia una buona cosa.

Quindi in quale direzione dovrebbe essere regolamentata l’intelligenza artificiale? È possibile regolamentare l’intelligenza artificiale per il bene comune e, in caso affermativo, in cosa consisterebbe?

Paul Nemitz: Prima di tutto, è una questione di primato della democrazia rispetto alla tecnologia e ai modelli di business. L’interesse comune è in democrazia, deciso proprio attraverso questo processo in democrazia. I parlamenti e i legislatori sono il luogo in cui si decide la direzione che deve prendere l’interesse comune: la legge è il più nobile atto di parola della democrazia. 

Qualche mese fa, parlando di regolamentazione e IA, alcuni magnati della tecnologia hanno scritto una lettera in cui avvertivano i governi che l’IA avrebbe potuto distruggere l’umanità in assenza di regole, chiedendo una regolamentazione. Ma molti esperti critici come Evgeny Morozov Christopher Wylie, in due articoli che abbiamo pubblicato di recente, affermano che brandendo la minaccia dell’estinzione indotta dall’IA, quei giganti tecnologici stanno in realtà distogliendo l’attenzione dell’opinione pubblica e dei governi dai problemi attuali dell’intelligenza artificiale. Siete d’accordo?

Dobbiamo guardare sia alle sfide immediate di oggi, dell’economia digitale, sia alle sfide alla democrazia e ai diritti fondamentali: la concentrazione di potere nell’economia digitale è un problema attuale. L’IA si aggiunge a questa concentrazione di potere: riunisce tutti gli elementi dell’IA, come i ricercatori e gli startupper, in sistemi funzionanti. Oggi abbiamo una sfida immediata, che deriva non solo dalla tecnologia in sé, ma anche dalle implicazioni di questa aggiunta alla concentrazione di potere.

E poi abbiamo sfide a lungo termine, ma dobbiamo considerare entrambe le cose. Il principio di precauzione fa parte dell’innovazione in Europa, ed è una parte positiva. È diventato un principio della legislazione e del diritto primario nell’Unione europea, costringendoci a guardare agli impatti a lungo termine della tecnologia e alle loro potenzialmente terribili conseguenze. Se non possiamo escludere con certezza che queste conseguenze negative si verifichino, dobbiamo prendere decisioni oggi per assicurarci che non si verifichino. Questo è il senso del principio di precauzione, e anche la nostra legislazione serve in parte a questo scopo. 

Elon Musk ha twittato che c’è bisogno di una deregolamentazione globale. È questo il modo di tutelare i diritti individuali e la democrazia?

Per me, coloro che già scrivevano libri in cui dicevano che l’IA è come l’energia atomica prima di mettere sul mercato innovazioni come ChatGPT e poi chiedevano regolamentazioni, non ne hanno tratto le conseguenze. Se si pensa a Bill Gates, Elon Musk, al presidente di Microsoft Brad Smith, erano tutti molto chiari sui rischi e le opportunità dell’IA. Microsoft ha prima acquistato una parte importante dell’IA aperta e l’ha messa sul mercato per incassare qualche miliardo prima di uscire e dire “ora abbiamo bisogno di leggi”. Ma, se preso sul serio, il parallelo con l’energia atomica avrebbe comportato l’attesa di una regolamentazione. Quando l’energia atomica è stata introdotta nelle nostre società, nessuno ha avuto l’idea di iniziare a gestirla senza che fossero state stabilite le norme. Se guardiamo alla storia della regolamentazione legale della tecnologia, c’è sempre stata resistenza da parte del settore commerciale. Ci sono voluti 10 anni per introdurre le cinture di sicurezza nelle auto americane ed europee, la gente moriva perché l’industria automobilistica esercitava pressioni con grande successo, anche se tutti sapevano che le morti si sarebbero dimezzate se le cinture fossero state introdotte. 

Quindi non mi impressiona se alcuni uomini d’affari dicono che la cosa migliore del mondo sarebbe non regolamentare per legge: questo è il sogno bagnato dei capitalisti e dei neoliberisti di questo tempo. Ma democrazia significa proprio il contrario: in democrazia, le questioni importanti della società, e l’IA è una di queste, non possono essere lasciate alle aziende e alle loro regole comunitarie o all’autoregolamentazione. Le questioni importanti nelle società democratiche devono essere affrontate dal legislatore democratico. Questo è il senso della democrazia. 

Credo anche che l’idea che tutti i problemi di questo mondo possano essere risolti dalla tecnologia, come abbiamo sentito dire dall’ex presidente Trump quando gli Stati Uniti hanno abbandonato gli accordi sul clima di Parigi, sia in realtà sbagliata sia nella politica climatica che in tutte le grandi questioni di questo mondo. Il coronavirus ci ha dimostrato che le regole di comportamento sono fondamentali. Dobbiamo investire nella capacità di trovare un accordo: la risorsa più scarsa oggi per la risoluzione dei problemi non è la prossima grande tecnologia e tutti questi discorsi ideologici. La risorsa più scarsa oggi è la capacità e la volontà delle persone di trovare un accordo, in democrazia e tra i Paesi. Che si tratti di relazioni transatlantiche, di diritto internazionale, di parti che si fanno la guerra per tornare alla pace, questa è la sfida più grande del nostro tempo. E direi che coloro che pensano che la tecnologia risolverà tutti i problemi sono guidati da una certa arroganza.

È ottimista sul fatto che la regolamentazione attraverso un processo democratico sarà abbastanza forte da limitare le forze di deregolamentazione dei lobbisti?

Mettiamola così: in America, la lobby prevale. Se ascoltate il grande professore di diritto costituzionale Lawrence Lessig sul potere del denaro in America e la sua analisi sul perché non c’è più nessuna legge che limiti le big tech che esce dal Congresso, il denaro gioca un ruolo molto importante. In Europa siamo ancora in grado di trovare un accordo. Naturalmente la lobby è molto forte a Bruxelles e dobbiamo parlarne apertamente: i soldi che le big tech spendono,  come cercano di influenzare non solo i politici ma anche i giornalisti e gli scienziati.

C’è una GAFAM cultura del tentativo di influenzare l’opinione pubblica, e nel mio libro ho descritto la loro cassetta degli attrezzi in modo abbastanza dettagliato. Sono molto presenti, ma direi che il nostro processo democratico funziona ancora perché i nostri partiti politici e i nostri membri del Parlamento non dipendono dai soldi delle big tech come i parlamentari americani. Penso che possiamo essere orgogliosi del fatto che la nostra democrazia sia ancora in grado di innovare, perché legiferare su questi temi all’avanguardia non è una questione tecnologica, ma è davvero al centro delle questioni sociali. L’obiettivo è trasformare queste idee in leggi che poi funzionano come le leggi normali: non esiste una legge che sia perfettamente applicata. Anche questo fa parte dell’innovazione. L’innovazione non è solo una questione tecnologica.

Uno dei grandi leitmotiv della visione di Evgeny Morozovs sull’intelligenza artificiale e sulle big tech in generale è l’evidenziazione del soluzionismo, quello che lei ha citato come l’idea che la tecnologia possa risolvere tutto. Attualmente l’Unione Europea sta discutendo l’AI act che dovrebbe regolamentare l’intelligenza artificiale. Dove sta andando questa regolamentazione e sappiamo in che misura la lobby tecnologica l’ha influenzata? Sappiamo che è la lobby più grande in termini di budget all’interno delle istituzioni europee. Possiamo dire che la legge sull’intelligenza artificiale è oggi la legge più completa sull’argomento?

Per avere parità di condizioni in Europa, abbiamo bisogno di un’unica legge, non vogliamo avere 27 leggi in tutti i diversi Stati membri, quindi è una questione di parità di trattamento. Direi che la cosa più importante di questa legge sull’IA è che ancora una volta stabiliamo il principio del primato della democrazia sulla tecnologia e sui modelli di business. Questo è fondamentale, e per il resto sono molto fiducioso che il Consiglio e il Parlamento europeo saranno in grado di concordare la versione finale di questa legge prima delle prossime elezioni europee, quindi al massimo entro febbraio.

Evgeny Morozov dice che è l’ascesa dell’intelligenza artificiale generale (AGI), in pratica un’IA che non ha bisogno di essere programmata e che quindi potrebbe avere un comportamento imprevedibile, a preoccupare la maggior parte degli esperti. Tuttavia, i sostenitori come Sam Altman, fondatore di openAI, affermano che potrebbe dare il turbo all’economia e “elevare l’umanità aumentando l’abbondanza”.  Qual è la vostra opinione in merito?

Prima di tutto, vediamo se tutte le promesse fatte dalle IA specializzate sono davvero mantenute. Non ne sono convinto, non è chiaro quando avverrà il passaggio all’IA. Stuart Russell, autore di “Human Compatible: Artificial Intelligence and the Problem of Control”, sostiene che l’IA non sarà mai in grado di rendere operativi principi generali come quelli costituzionali o i diritti fondamentali. Per questo motivo, ogni volta che si deve prendere una decisione su un principio di valore, i programmi devono essere progettati in modo tale da tornare agli esseri umani. Credo che questo pensiero debba guidare noi e coloro che sviluppano l’AGI per il momento. Anche lui ritiene che passeranno decenni prima di avere l’AGI, ma fa un parallelo con la scissione dell’atomo, sostenendo che molti scienziati molto competenti dicevano che non era possibile e poi un giorno, a sorpresa, uno scienziato ha tenuto un discorso a Londra e il giorno dopo ha dimostrato come fosse effettivamente possibile. Penso quindi che dobbiamo prepararci a questo e ad altro. Ci sono molte fantasie sul modo in cui la tecnologia si evolverà, ma credo che la cosa importante sia che le amministrazioni pubbliche, i parlamenti e i governi mantengano la rotta e la osservino con molta attenzione. 

Abbiamo bisogno di un obbligo di verità da parte di coloro che stanno sviluppando queste tecnologie, spesso a porte chiuse. C’è un’ironia nella legislazione dell’UE: quando ci occupiamo di casi di concorrenza, possiamo imporre una multa se le grandi aziende ci mentono. Facebook, ad esempio, ha ricevuto una multa di oltre 100 milioni per non averci detto tutta la verità sull’acquisizione di WhatsApp. Ma non c’è alcun obbligo di verità quando ci consultiamo come Commissione nella preparazione di una proposta legislativa o quando il Parlamento europeo si consulta per preparare i suoi dibattiti o processi legislativi. Purtroppo c’è una lunga tradizione di imprese digitali, così come di altre imprese, che mentono nel corso di questo processo. La situazione deve cambiare. Credo che sia necessario un obbligo legale di verità, che deve essere anche sanzionato. Abbiamo bisogno di un cambiamento culturale, perché siamo sempre più dipendenti da ciò che ci dicono. E se la politica dipende da ciò che le aziende raccontano, allora dobbiamo essere in grado di farle rispettare la verità. 

Queste multe hanno un qualche impatto? Anche se Facebook viene multato per un miliardo di dollari, fa qualche differenza? Inizieranno ad agire in modo diverso, cosa significherà per loro in termini di denaro o di impatto? È tutto quello che abbiamo?

Penso che le multe non siano tutto, ma viviamo in un mondo di enorme concentrazione di potere e abbiamo bisogno di un contropotere. E il contropotere deve essere dello Stato, quindi dobbiamo essere in grado di far rispettare tutte le leggi, se necessario con la mano dura. Purtroppo queste aziende reagiscono in gran parte solo alla mano dura. L’America sa come affrontare il capitalismo: si va in prigione quando si crea un cartello, quando si concordano i prezzi, in Europa no. Penso quindi che dobbiamo imparare dall’America in questo senso, dobbiamo essere pronti e disposti a far rispettare le nostre leggi con la mano dura, perché democrazia significa che le leggi vengono fatte e democrazia significa anche che le leggi vengono rispettate. E non ci possono essere eccezioni per le big tech. 

Questo significa che dovremmo orientarci verso un modo più americano?

Significa che dobbiamo prendere sul serio l’applicazione delle nostre leggi e purtroppo questo rende spesso necessaria una multa. Nel diritto della concorrenza possiamo multare fino al 10% del fatturato complessivo delle grandi aziende, e credo che questo abbia un effetto. Nella legge sulla privacy è solo il 4%, ma credo che queste multe abbiano comunque l’effetto di motivare i membri dei consigli di amministrazione ad assicurarsi che le loro aziende siano conformi.

Detto questo, non basta: dobbiamo ricordare che in una società democratica il contropotere viene dai cittadini e dalla società civile. Non possiamo lasciare gli individui da soli a lottare per i loro diritti di fronte alle grandi tecnologie. Abbiamo bisogno di un’applicazione pubblica e di dare alla società civile il potere di lottare per i diritti degli individui. Penso che questo faccia parte del controllo del potere della tecnologia nel XXI secolo e che guiderà l’innovazione. Non è un ostacolo all’innovazione, ma la guida verso l’interesse pubblico e la legalità di mezzo. E questo è ciò di cui abbiamo bisogno! Abbiamo bisogno che le grandi e potenti aziende tecnologiche imparino che non è una buona cosa muoversi velocemente e rompere le cose se “rompere le cose” implica infrangere la legge. Penso che siamo tutti a favore dell’innovazione, ma la nostra democrazia viene minata se permettiamo ai potenti attori di interrompere e infrangere la legge e farla franca. Questo non è un bene per la democrazia. 

Thierry Breton, commissario europeo per l’industria, ha scritto una lettera a Elon Musk, dicendogli che se X continuerà a favorire la disinformazione potrebbe incorrere in alcune sanzioni da parte dell’UE. Musk ha risposto che in questo caso potrebbe lasciare l’Europa e che altri giganti della tecnologia potrebbero essere tentati di fare lo stesso se non gradiscono la regolamentazione che l’Europa sta stabilendo. Qual è dunque il rapporto di forza tra i due?

Direi che è molto semplice, sono una persona molto semplice da questo punto di vista: la democrazia non può mai essere ricattata. Se cercano di ricattarci, dovremmo semplicemente riderci sopra: se vogliono andarsene sono liberi di farlo, e auguro a Elon Musk buona fortuna in borsa se lascia l’Europa. Fortunatamente siamo ancora un mercato molto grande e redditizio, quindi se può permettersi di andarsene: addio Elon Musk, ti auguriamo tutto il meglio.

E che dire del pericolo dell’uso non convenzionale dell’IA?

Sì, “non convenzionale” significa l’uso per la guerra. Certo, questo è un pericolo, le Nazioni Unite stanno lavorando su questo, e le armi che stanno sfuggendo al controllo sono un problema per ogni persona che capisce la sicurezza e il funzionamento delle forze armate: i militari vogliono avere il controllo sulle loro armi. In passato abbiamo fatto firmare ai Paesi accordi multilaterali, non solo sulla non proliferazione delle armi atomiche, ma anche per le armi di piccolo calibro e per quelle che sfuggono al controllo, come le mine antiuomo. Credo che nell’interesse comune del mondo, dell’umanità e della governabilità, sia necessario progredire sulle regole per l’uso dell’IA a fini militari. Questi colloqui sono difficili, a volte possono richiedere anni, in alcuni casi anche decenni per giungere ad accordi, ma alla fine penso che abbiamo bisogno di regole per le armi autonome, certamente, e in questo contesto anche per l’IA.

Per tornare a quanto detto da Chris Wiley nell’articolo che abbiamo citato: l’attuale approccio normativo non funziona perché “tratta l’intelligenza artificiale come un servizio, non come un’architettura”. Condividete questa opinione?

Direi che l’asticella di ciò che funziona e di ciò che non funziona, e di ciò che è considerato funzionante e non funzionante nel diritto tecnologico non dovrebbe essere più alta che in qualsiasi altro campo del diritto. Sappiamo tutti che abbiamo delle leggi fiscali e cerchiamo di farle rispettare il più possibile. Ma sappiamo che ci sono molte persone e aziende che la fanno franca non pagando le tasse.  Abbiamo leggi sulla proprietà intellettuale e non sempre vengono rispettate. L’omicidio è qualcosa che viene punito severamente, ma le persone vengono uccise quotidianamente.

Quindi penso che nel diritto tecnologico non dovremmo cadere nella trappola del discorso dell’industria tecnologica secondo cui “preferiremmo nessuna legge piuttosto che una cattiva legge”, intendendo per cattiva legge quella che non può essere perfettamente applicata. La mia risposta è: non esiste una legge che funzioni perfettamente, e non esiste una legge che possa essere applicata perfettamente. Ma questo non è un argomento contro le leggi. Le leggi sono l’atto più nobile della democrazia, e questo significa che sono un compromesso.

Sono un compromesso con gli interessi delle lobby, che queste aziende portano in Parlamento e che sono ripresi da alcuni partiti più che da altri. E poiché le leggi sono un compromesso, non sono perfette né dal punto di vista scientifico né da quello funzionale. Sono creature della democrazia e alla fine direi che è meglio che ci si trovi d’accordo su una legge anche se molti la considerano imperfetta. A Bruxelles diciamo che se alla fine tutti gridano: le imprese che dicono “questo è un ostacolo troppo grande all’innovazione” e la società civile che pensa che sia un successo della lobby, allora probabilmente abbiamo ottenuto più o meno il giusto risultato a metà strada.

Guarda il video del Voxeurop Live con Paul Nemitz qui.

Go to top