{"id":37486,"date":"2024-01-08T12:24:27","date_gmt":"2024-01-08T11:24:27","guid":{"rendered":"https:\/\/archive.displayeurope.eu\/?post_type=article&#038;p=37486"},"modified":"2024-09-06T16:41:37","modified_gmt":"2024-09-06T14:41:37","slug":"paul-nemitz-la-democrazia-deve-prevalere-sulle-tecnologie-e-modelli-di-business-per-il-bene-comune","status":"publish","type":"article","link":"https:\/\/archive.displayeurope.eu\/it\/article\/paul-nemitz-la-democrazia-deve-prevalere-sulle-tecnologie-e-modelli-di-business-per-il-bene-comune\/","title":{"rendered":"Paul Nemitz: &#8220;La democrazia deve prevalere sulla tecnologia e sui modelli di business per il bene comune&#8221;."},"content":{"rendered":"\n<p><strong>Paul Nemitz \u00e8 consulente senior del Direttorio generale per la Giustizia della Commissione europea e professore di Diritto al Coll\u00e8ge d&#8217;Europe. Considerato uno dei pi\u00f9 stimati esperti europei di libert\u00e0 digitali, ha guidato il lavoro sul&nbsp;<a href=\"https:\/\/gdpr-info.eu\/\" target=\"_blank\" rel=\"noreferrer noopener\">Regolamento generale sulla protezione dei dati<\/a>. \u00c8 inoltre autore, insieme a Matthias Pfeffer, di&nbsp;<a href=\"https:\/\/ethicspress.com\/products\/the-human-imperative\" target=\"_blank\" rel=\"noreferrer noopener\"><em>L&#8217;imperativo umano: potere, libert\u00e0 e democrazia nell&#8217;era dell&#8217;intelligenza artificiale<\/em><\/a>, un saggio sull&#8217;impatto delle nuove tecnologie sulle libert\u00e0 individuali e sulla societ\u00e0.&nbsp;<\/strong><\/p>\n\n\n\n<p><strong>Voxeurop: Secondo lei&nbsp;<\/strong><a href=\"https:\/\/voxeurop.eu\/en\/tag\/artificial-intelligence\/\"><strong>l&#8217;intelligenza artificiale<\/strong><\/a><strong>&nbsp;\u00e8 un&#8217;opportunit\u00e0 o una minaccia per la democrazia, e perch\u00e9?&nbsp;<\/strong><\/p>\n\n\n\n<p><strong>Paul Nemitz<\/strong>: Direi che uno dei grandi compiti della democrazia nel XXI secolo \u00e8 controllare il potere tecnologico. Dobbiamo prendere atto del fatto che il potere deve essere controllato. Ci sono buone ragioni per cui abbiamo una storia legale di controllo del potere delle aziende, degli Stati o dei dirigenti. Questo principio si applica certamente anche all&#8217;IA.<\/p>\n\n\n\n<p>Molte, se non tutte le tecnologie hanno un elemento di opportunit\u00e0, ma comportano anche dei rischi: lo sappiamo dalle sostanze chimiche o dall&#8217;energia atomica, ed \u00e8 proprio per questo che \u00e8 cos\u00ec importante che la democrazia si occupi di inquadrare il modo in cui la tecnologia viene sviluppata, in quale direzione dovrebbe andare l&#8217;innovazione e quali possono essere i limiti dell&#8217;innovazione, della ricerca e dell&#8217;uso. Abbiamo una lunga storia di limitazioni alla ricerca, ad esempio sugli agenti biologici pericolosi, sulla genetica o sull&#8217;energia atomica: tutto questo \u00e8 stato fortemente inquadrato, quindi non \u00e8 strano che la democrazia guardi alle nuove tecnologie come l&#8217;intelligenza artificiale, pensi al loro impatto e se ne faccia carico. Penso che sia una buona cosa.<\/p>\n\n\n\n<p><strong>Quindi in quale direzione dovrebbe essere regolamentata l&#8217;intelligenza artificiale? \u00c8 possibile regolamentare l&#8217;intelligenza artificiale per il bene comune e, in caso affermativo, in cosa consisterebbe?\n\n\n\n<p><strong>Paul Nemitz<\/strong>: Prima di tutto, \u00e8 una questione di primato della democrazia rispetto alla tecnologia e ai modelli di business. L&#8217;interesse comune \u00e8 in democrazia, deciso proprio attraverso questo processo in democrazia. I parlamenti e i legislatori sono il luogo in cui si decide la direzione che deve prendere l&#8217;interesse comune: la legge \u00e8 il pi\u00f9 nobile atto di parola della democrazia.&nbsp;<\/p>\n\n\n\n<p><strong>Qualche mese fa, parlando di regolamentazione e IA, alcuni magnati della tecnologia hanno scritto una lettera in cui avvertivano i governi che l&#8217;IA avrebbe potuto distruggere l&#8217;umanit\u00e0 in assenza di regole, chiedendo una regolamentazione. Ma molti esperti critici come&nbsp;<\/strong><a href=\"https:\/\/voxeurop.eu\/en\/evgeny-morozov-ai-neoliberalism-hip-friend\/\"><strong>Evgeny Morozov<\/strong><\/a><strong>&nbsp;<\/strong><a href=\"https:\/\/voxeurop.eu\/en\/christopher-wylie-need-regulate-artificial-intelligence-before-regulates-us\/\"><strong>Christopher Wylie<\/strong><\/a><strong>, in due articoli che abbiamo pubblicato di recente, affermano che brandendo la minaccia dell&#8217;estinzione indotta dall&#8217;IA, quei giganti tecnologici stanno in realt\u00e0 distogliendo l&#8217;attenzione dell&#8217;opinione pubblica e dei governi dai problemi attuali dell&#8217;intelligenza artificiale. Siete d&#8217;accordo? <\/strong><\/p>\n\n\n\n<p>Dobbiamo guardare sia alle sfide immediate di oggi, dell&#8217;economia digitale, sia alle sfide alla democrazia e ai diritti fondamentali: la concentrazione di potere nell&#8217;economia digitale \u00e8 un problema attuale. L&#8217;IA si aggiunge a questa concentrazione di potere: riunisce tutti gli elementi dell&#8217;IA, come i ricercatori e gli startupper, in sistemi funzionanti. Oggi abbiamo una sfida immediata, che deriva non solo dalla tecnologia in s\u00e9, ma anche dalle implicazioni di questa aggiunta alla concentrazione di potere.<\/p>\n\n\n\n<p>E poi abbiamo sfide a lungo termine, ma dobbiamo considerare entrambe le cose. Il principio di precauzione fa parte dell&#8217;innovazione in Europa, ed \u00e8 una parte positiva. \u00c8 diventato un principio della legislazione e del diritto primario nell&#8217;Unione europea, costringendoci a guardare agli impatti a lungo termine della tecnologia e alle loro potenzialmente terribili conseguenze. Se non possiamo escludere con certezza che queste conseguenze negative si verifichino, dobbiamo prendere decisioni oggi per assicurarci che non si verifichino. Questo \u00e8 il senso del principio di precauzione, e anche la nostra legislazione serve in parte a questo scopo.&nbsp;<\/p>\n\n\n\n<p><strong>Elon Musk ha twittato che c&#8217;\u00e8 bisogno di una deregolamentazione globale. \u00c8 questo il modo di tutelare i diritti individuali e la democrazia?\n\n\n\n<p>Per me, coloro che gi\u00e0 scrivevano libri in cui dicevano che l&#8217;IA \u00e8 come l&#8217;energia atomica prima di mettere sul mercato innovazioni come ChatGPT e poi chiedevano regolamentazioni, non ne hanno tratto le conseguenze. Se si pensa a Bill Gates, Elon Musk, al presidente di Microsoft Brad Smith, erano tutti molto chiari sui rischi e le opportunit\u00e0 dell&#8217;IA. Microsoft ha prima acquistato una parte importante dell&#8217;IA aperta e l&#8217;ha messa sul mercato per incassare qualche miliardo prima di uscire e dire &#8220;ora abbiamo bisogno di leggi&#8221;. Ma, se preso sul serio, il parallelo con l&#8217;energia atomica avrebbe comportato l&#8217;attesa di una regolamentazione. Quando l&#8217;energia atomica \u00e8 stata introdotta nelle nostre societ\u00e0, nessuno ha avuto l&#8217;idea di iniziare a gestirla senza che fossero state stabilite le norme. Se guardiamo alla storia della regolamentazione legale della tecnologia, c&#8217;\u00e8 sempre stata resistenza da parte del settore commerciale. Ci sono voluti 10 anni per introdurre le cinture di sicurezza nelle auto americane ed europee, la gente moriva perch\u00e9 l&#8217;industria automobilistica esercitava pressioni con grande successo, anche se tutti sapevano che le morti si sarebbero dimezzate se le cinture fossero state introdotte.&nbsp;<\/p>\n\n\n\n<p>Quindi non mi impressiona se alcuni uomini d&#8217;affari dicono che la cosa migliore del mondo sarebbe non regolamentare per legge: questo \u00e8 il sogno bagnato dei capitalisti e dei neoliberisti di questo tempo. Ma democrazia significa proprio il contrario: in democrazia, le questioni importanti della societ\u00e0, e l&#8217;IA \u00e8 una di queste, non possono essere lasciate alle aziende e alle loro regole comunitarie o all&#8217;autoregolamentazione. Le questioni importanti nelle societ\u00e0 democratiche devono essere affrontate dal legislatore democratico. Questo \u00e8 il senso della democrazia.&nbsp;<\/p>\n\n\n\n<p>Credo anche che l&#8217;idea che tutti i problemi di questo mondo possano essere risolti dalla tecnologia, come abbiamo sentito dire dall&#8217;ex presidente Trump quando gli Stati Uniti hanno abbandonato gli accordi sul clima di Parigi, sia in realt\u00e0 sbagliata sia nella politica climatica che in tutte le grandi questioni di questo mondo. Il coronavirus ci ha dimostrato che le regole di comportamento sono fondamentali. Dobbiamo investire nella capacit\u00e0 di trovare un accordo: la risorsa pi\u00f9 scarsa oggi per la risoluzione dei problemi non \u00e8 la prossima grande tecnologia e tutti questi discorsi ideologici. La risorsa pi\u00f9 scarsa oggi \u00e8 la capacit\u00e0 e la volont\u00e0 delle persone di trovare un accordo, in democrazia e tra i Paesi. Che si tratti di relazioni transatlantiche, di diritto internazionale, di parti che si fanno la guerra per tornare alla pace, questa \u00e8 la sfida pi\u00f9 grande del nostro tempo. E direi che coloro che pensano che la tecnologia risolver\u00e0 tutti i problemi sono guidati da una certa arroganza.<\/p>\n\n\n\n<p><strong>\u00c8 ottimista sul fatto che la regolamentazione attraverso un processo democratico sar\u00e0 abbastanza forte da limitare le forze di deregolamentazione dei lobbisti? <\/strong><\/p>\n\n\n\n<p>Mettiamola cos\u00ec: in America, la lobby prevale. Se ascoltate il grande professore di diritto costituzionale&nbsp;<a href=\"https:\/\/en.wikipedia.org\/wiki\/Lawrence_Lessig\" target=\"_blank\" rel=\"noreferrer noopener\">Lawrence Lessig<\/a>&nbsp;sul potere del denaro in America e la sua analisi sul perch\u00e9 non c&#8217;\u00e8 pi\u00f9 nessuna legge che limiti le big tech che esce dal Congresso, il denaro gioca un ruolo molto importante. In Europa siamo ancora in grado di trovare un accordo. Naturalmente la lobby \u00e8 molto forte a Bruxelles e dobbiamo parlarne apertamente: i soldi che le big tech spendono,&nbsp; come cercano di influenzare non solo i politici ma anche i giornalisti e gli scienziati.<\/p>\n\n\n\n<p>C&#8217;\u00e8 una&nbsp;<a href=\"https:\/\/voxeurop.eu\/en\/tag\/gafam-2\/\">GAFAM<\/a>&nbsp;cultura del tentativo di influenzare l&#8217;opinione pubblica, e nel mio libro ho descritto la loro cassetta degli attrezzi in modo abbastanza dettagliato. Sono molto presenti, ma direi che il nostro processo democratico funziona ancora perch\u00e9 i nostri partiti politici e i nostri membri del Parlamento non dipendono dai soldi delle big tech come i parlamentari americani. Penso che possiamo essere orgogliosi del fatto che la nostra democrazia sia ancora in grado di innovare, perch\u00e9 legiferare su questi temi all&#8217;avanguardia non \u00e8 una questione tecnologica, ma \u00e8 davvero al centro delle questioni sociali. L&#8217;obiettivo \u00e8 trasformare queste idee in leggi che poi funzionano come le leggi normali: non esiste una legge che sia perfettamente applicata. Anche questo fa parte dell&#8217;innovazione. L&#8217;innovazione non \u00e8 solo una questione tecnologica.<\/p>\n\n\n\n<p><strong>Uno dei grandi leitmotiv della visione di Evgeny Morozovs sull&#8217;intelligenza artificiale e sulle big tech in generale \u00e8 l&#8217;evidenziazione del soluzionismo, quello che lei ha citato come l&#8217;idea che la tecnologia possa risolvere tutto. Attualmente l&#8217;Unione Europea sta discutendo l&#8217;AI act che dovrebbe regolamentare l&#8217;intelligenza artificiale. Dove sta andando questa regolamentazione e sappiamo in che misura la lobby tecnologica l&#8217;ha influenzata? Sappiamo che \u00e8 la lobby pi\u00f9 grande in termini di budget all&#8217;interno delle istituzioni europee. Possiamo dire che la legge sull&#8217;intelligenza artificiale \u00e8 oggi la legge pi\u00f9 completa sull&#8217;argomento?\n\n\n\n<p>Per avere parit\u00e0 di condizioni in Europa, abbiamo bisogno di un&#8217;unica legge, non vogliamo avere 27 leggi in tutti i diversi Stati membri, quindi \u00e8 una questione di parit\u00e0 di trattamento. Direi che la cosa pi\u00f9 importante di questa legge sull&#8217;IA \u00e8 che ancora una volta stabiliamo il principio del primato della democrazia sulla tecnologia e sui modelli di business. Questo \u00e8 fondamentale, e per il resto sono molto fiducioso che il Consiglio e il Parlamento europeo saranno in grado di concordare la versione finale di questa legge prima delle prossime elezioni europee, quindi al massimo entro febbraio.<\/p>\n\n\n\n<p><strong><a href=\"https:\/\/voxeurop.eu\/en\/evgeny-morozov-ai-neoliberalism-hip-friend\/\">Evgeny Morozov dice&nbsp;<\/a>che \u00e8 l&#8217;ascesa dell&#8217;intelligenza artificiale generale (AGI), in pratica un&#8217;IA che non ha bisogno di essere programmata e che quindi potrebbe avere un comportamento imprevedibile, a preoccupare la maggior parte degli esperti. Tuttavia, i sostenitori come Sam Altman, fondatore di openAI, affermano che potrebbe dare il turbo all&#8217;economia e &#8220;elevare l&#8217;umanit\u00e0 aumentando l&#8217;abbondanza&#8221;.&nbsp; Qual \u00e8 la vostra opinione in merito? <\/strong><\/p>\n\n\n\n<p>Prima di tutto, vediamo se tutte le promesse fatte dalle IA specializzate sono davvero mantenute. Non ne sono convinto, non \u00e8 chiaro quando avverr\u00e0 il passaggio all&#8217;IA. Stuart Russell, autore di &#8220;Human Compatible: Artificial Intelligence and the Problem of Control&#8221;, sostiene che l&#8217;IA non sar\u00e0 mai in grado di rendere operativi principi generali come quelli costituzionali o i diritti fondamentali. Per questo motivo, ogni volta che si deve prendere una decisione su un principio di valore, i programmi devono essere progettati in modo tale da tornare agli esseri umani. Credo che questo pensiero debba guidare noi e coloro che sviluppano l&#8217;AGI per il momento. Anche lui ritiene che passeranno decenni prima di avere l&#8217;AGI, ma fa un parallelo con la scissione dell&#8217;atomo, sostenendo che molti scienziati molto competenti dicevano che non era possibile e poi un giorno, a sorpresa, uno scienziato ha tenuto un discorso a Londra e il giorno dopo ha dimostrato come fosse effettivamente possibile. Penso quindi che dobbiamo prepararci a questo e ad altro. Ci sono molte fantasie sul modo in cui la tecnologia si evolver\u00e0, ma credo che la cosa importante sia che le amministrazioni pubbliche, i parlamenti e i governi mantengano la rotta e la osservino con molta attenzione.&nbsp;<\/p>\n\n\n\n<p> Abbiamo bisogno di un obbligo di verit\u00e0 da parte di coloro che stanno sviluppando queste tecnologie, spesso a porte chiuse. C&#8217;\u00e8 un&#8217;ironia nella legislazione dell&#8217;UE: quando ci occupiamo di casi di concorrenza, possiamo imporre una multa se le grandi aziende ci mentono. Facebook, ad esempio, ha ricevuto una multa di oltre 100 milioni per non averci detto tutta la verit\u00e0 sull&#8217;acquisizione di WhatsApp. Ma non c&#8217;\u00e8 alcun obbligo di verit\u00e0 quando ci consultiamo come Commissione nella preparazione di una proposta legislativa o quando il Parlamento europeo si consulta per preparare i suoi dibattiti o processi legislativi. Purtroppo c&#8217;\u00e8 una lunga tradizione di imprese digitali, cos\u00ec come di altre imprese, che mentono nel corso di questo processo. La situazione deve cambiare. Credo che sia necessario un obbligo legale di verit\u00e0, che deve essere anche sanzionato. Abbiamo bisogno di un cambiamento culturale, perch\u00e9 siamo sempre pi\u00f9 dipendenti da ci\u00f2 che ci dicono. E se la politica dipende da ci\u00f2 che le aziende raccontano, allora dobbiamo essere in grado di farle rispettare la verit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Queste multe hanno un qualche impatto? Anche se Facebook viene multato per un miliardo di dollari, fa qualche differenza? Inizieranno ad agire in modo diverso, cosa significher\u00e0 per loro in termini di denaro o di impatto? \u00c8 tutto quello che abbiamo? <\/strong><\/p>\n\n\n\n<p>Penso che le multe non siano tutto, ma viviamo in un mondo di enorme concentrazione di potere e abbiamo bisogno di un contropotere. E il contropotere deve essere dello Stato, quindi dobbiamo essere in grado di far rispettare tutte le leggi, se necessario con la mano dura. Purtroppo queste aziende reagiscono in gran parte solo alla mano dura. L&#8217;America sa come affrontare il capitalismo: si va in prigione quando si crea un cartello, quando si concordano i prezzi, in Europa no. Penso quindi che dobbiamo imparare dall&#8217;America in questo senso, dobbiamo essere pronti e disposti a far rispettare le nostre leggi con la mano dura, perch\u00e9 democrazia significa che le leggi vengono fatte e democrazia significa anche che le leggi vengono rispettate. E non ci possono essere eccezioni per le big tech.&nbsp;<\/p>\n\n\n\n<p><strong>Questo significa che dovremmo orientarci verso un modo pi\u00f9 americano? <\/strong><\/p>\n\n\n\n<p>Significa che dobbiamo prendere sul serio l&#8217;applicazione delle nostre leggi e purtroppo questo rende spesso necessaria una multa. Nel diritto della concorrenza possiamo multare fino al 10% del fatturato complessivo delle grandi aziende, e credo che questo abbia un effetto. Nella legge sulla privacy \u00e8 solo il 4%, ma credo che queste multe abbiano comunque l&#8217;effetto di motivare i membri dei consigli di amministrazione ad assicurarsi che le loro aziende siano conformi.<\/p>\n\n\n\n<p>Detto questo, non basta: dobbiamo ricordare che in una societ\u00e0 democratica il contropotere viene dai cittadini e dalla societ\u00e0 civile. Non possiamo lasciare gli individui da soli a lottare per i loro diritti di fronte alle grandi tecnologie. Abbiamo bisogno di un&#8217;applicazione pubblica e di dare alla societ\u00e0 civile il potere di lottare per i diritti degli individui. Penso che questo faccia parte del controllo del potere della tecnologia nel XXI secolo e che guider\u00e0 l&#8217;innovazione. Non \u00e8 un ostacolo all&#8217;innovazione, ma la guida verso l&#8217;interesse pubblico e la legalit\u00e0 di mezzo. E questo \u00e8 ci\u00f2 di cui abbiamo bisogno! Abbiamo bisogno che le grandi e potenti aziende tecnologiche imparino che non \u00e8 una buona cosa muoversi velocemente e rompere le cose se &#8220;rompere le cose&#8221; implica infrangere la legge. Penso che siamo tutti a favore dell&#8217;innovazione, ma la nostra democrazia viene minata se permettiamo ai potenti attori di interrompere e infrangere la legge e farla franca. Questo non \u00e8 un bene per la democrazia.&nbsp;<\/p>\n\n\n\n<p><strong>Thierry Breton, commissario europeo per l&#8217;industria, ha scritto una lettera a Elon Musk, dicendogli che se X continuer\u00e0 a favorire la disinformazione potrebbe incorrere in alcune sanzioni da parte dell&#8217;UE. Musk ha risposto che in questo caso potrebbe lasciare l&#8217;Europa e che altri giganti della tecnologia potrebbero essere tentati di fare lo stesso se non gradiscono la regolamentazione che l&#8217;Europa sta stabilendo. Qual \u00e8 dunque il rapporto di forza tra i due? <\/strong><\/p>\n\n\n\n<p>Direi che \u00e8 molto semplice, sono una persona molto semplice da questo punto di vista: la democrazia non pu\u00f2 mai essere ricattata. Se cercano di ricattarci, dovremmo semplicemente riderci sopra: se vogliono andarsene sono liberi di farlo, e auguro a Elon Musk buona fortuna in borsa se lascia l&#8217;Europa. Fortunatamente siamo ancora un mercato molto grande e redditizio, quindi se pu\u00f2 permettersi di andarsene: addio Elon Musk, ti auguriamo tutto il meglio.<\/p>\n\n\n\n<p><strong>E che dire del pericolo dell&#8217;uso non convenzionale dell&#8217;IA? <\/strong><\/p>\n\n\n\n<p>S\u00ec, &#8220;non convenzionale&#8221; significa l&#8217;uso per la guerra. Certo, questo \u00e8 un pericolo, le Nazioni Unite stanno lavorando su questo, e le armi che stanno sfuggendo al controllo sono un problema per ogni persona che capisce la sicurezza e il funzionamento delle forze armate: i militari vogliono avere il controllo sulle loro armi. In passato abbiamo fatto firmare ai Paesi accordi multilaterali, non solo sulla non proliferazione delle armi atomiche, ma anche per le armi di piccolo calibro e per quelle che sfuggono al controllo, come le mine antiuomo. Credo che nell&#8217;interesse comune del mondo, dell&#8217;umanit\u00e0 e della governabilit\u00e0, sia necessario progredire sulle regole per l&#8217;uso dell&#8217;IA a fini militari. Questi colloqui sono difficili, a volte possono richiedere anni, in alcuni casi anche decenni per giungere ad accordi, ma alla fine penso che abbiamo bisogno di regole per le armi autonome, certamente, e in questo contesto anche per l&#8217;IA.<\/p>\n\n\n\n<p><strong>Per tornare a quanto detto da Chris Wiley nell&#8217;articolo che abbiamo citato: l&#8217;attuale approccio normativo non funziona perch\u00e9 &#8220;tratta l&#8217;intelligenza artificiale come un servizio, non come un&#8217;architettura&#8221;. Condividete questa opinione? <\/strong><\/p>\n\n\n\n<p> Direi che l&#8217;asticella di ci\u00f2 che funziona e di ci\u00f2 che non funziona, e di ci\u00f2 che \u00e8 considerato funzionante e non funzionante nel diritto tecnologico non dovrebbe essere pi\u00f9 alta che in qualsiasi altro campo del diritto. Sappiamo tutti che abbiamo delle leggi fiscali e cerchiamo di farle rispettare il pi\u00f9 possibile. Ma sappiamo che ci sono molte persone e aziende che la fanno franca non pagando le tasse.&nbsp; Abbiamo leggi sulla propriet\u00e0 intellettuale e non sempre vengono rispettate. L&#8217;omicidio \u00e8 qualcosa che viene punito severamente, ma le persone vengono uccise quotidianamente.<\/p>\n\n\n\n<p>Quindi penso che nel diritto tecnologico non dovremmo cadere nella trappola del discorso dell&#8217;industria tecnologica secondo cui &#8220;preferiremmo nessuna legge piuttosto che una cattiva legge&#8221;, intendendo per cattiva legge quella che non pu\u00f2 essere perfettamente applicata. La mia risposta \u00e8: non esiste una legge che funzioni perfettamente, e non esiste una legge che possa essere applicata perfettamente. Ma questo non \u00e8 un argomento contro le leggi. Le leggi sono l&#8217;atto pi\u00f9 nobile della democrazia, e questo significa che sono un compromesso.<\/p>\n\n\n\n<p>Sono un compromesso con gli interessi delle lobby, che queste aziende portano in Parlamento e che sono ripresi da alcuni partiti pi\u00f9 che da altri. E poich\u00e9 le leggi sono un compromesso, non sono perfette n\u00e9 dal punto di vista scientifico n\u00e9 da quello funzionale. Sono creature della democrazia e alla fine direi che \u00e8 meglio che ci si trovi d&#8217;accordo su una legge anche se molti la considerano imperfetta. A Bruxelles diciamo che se alla fine tutti gridano: le imprese che dicono &#8220;questo \u00e8 un ostacolo troppo grande all&#8217;innovazione&#8221; e la societ\u00e0 civile che pensa che sia un successo della lobby, allora probabilmente abbiamo ottenuto pi\u00f9 o meno il giusto risultato a met\u00e0 strada.<\/p>\n\n\n\n<p><strong>Guarda il video del Voxeurop Live con Paul Nemitz <a href=\"https:\/\/voxeurop.eu\/en\/event\/live-ai-paul-nemitz-how-to-square-the-circle\/\">qui<\/a>.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nel suo contributo a un intervento di Voxeurop Live sulla questione se l&#8217;IA sia un&#8217;opportunit\u00e0 o una minaccia per la democrazia, l&#8217;esperto Paul Nemitz sottolinea la necessit\u00e0 di un controllo democratico sui progressi tecnologici e l&#8217;istituzione di leggi che diano priorit\u00e0 agli interessi della societ\u00e0 rispetto a quelli delle imprese.<\/p>\n","protected":false},"author":1,"featured_media":18809,"parent":0,"template":"","tags":[],"displeu_category":[],"class_list":["post-37486","article","type-article","status-publish","has-post-thumbnail","hentry"],"_links":{"self":[{"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/article\/37486","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/article"}],"about":[{"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/types\/article"}],"author":[{"embeddable":true,"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/users\/1"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/media\/18809"}],"wp:attachment":[{"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/media?parent=37486"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/tags?post=37486"},{"taxonomy":"displeu_category","embeddable":true,"href":"https:\/\/archive.displayeurope.eu\/it\/wp-json\/wp\/v2\/displeu_category?post=37486"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}