Menu

Europejskie wiadomości bez granic. W Twoim języku.

Menu
×

Paul Nemitz: „Demokracja musi przeważyć nad technologią i modelami biznesowymi dla wspólnego dobra

Paul Nemitz jest starszym doradcą dyrektora generalnego Komisji Europejskiej ds. sprawiedliwości i profesorem prawa w Collège d’Europe. Uważany za jednego z najbardziej szanowanych europejskich ekspertów w dziedzinie wolności cyfrowej, kierował pracami nad ogólnym rozporządzeniem o ochronie danych. Jest także autorem, wraz z Matthiasem Pfefferem,  The Human imperative: power, freedom and democracy in the Age of Artificial Intelligence, eseju na temat wpływu nowych technologii na wolności jednostki i społeczeństwo. 

Voxeurop: Czy powiedziałbyś, że sztuczna inteligencja&nbspjest szansą czy zagrożeniem dla demokracji i dlaczego?  

Paul Nemitz: Powiedziałbym, że jednym z największych zadań demokracji w XXI wieku jest kontrolowanie władzy technologicznej. Musimy wziąć pod uwagę fakt, że władza musi być kontrolowana. Istnieją dobre powody, dla których mamy prawną historię kontrolowania władzy firm, państw lub kadry kierowniczej. Zasada ta z pewnością odnosi się również do sztucznej inteligencji.

Wiele, jeśli nie wszystkie, technologie niosą ze sobą element możliwości, ale także ryzyko: wiemy to na przykładzie chemikaliów lub energii atomowej, dlatego tak ważne jest, aby demokracja przejęła odpowiedzialność za kształtowanie rozwoju technologii, w jakim kierunku powinny podążać innowacje i gdzie mogą znajdować się granice innowacji, badań i użytkowania. Mamy długą historię ograniczania badań, na przykład nad niebezpiecznymi czynnikami biologicznymi, genetyką lub energią atomową: wszystko to było ściśle określone, więc nie jest niczym niezwykłym, że demokracja patrzy na nowe technologie, takie jak sztuczna inteligencja, myśli o ich wpływie i przejmuje kontrolę. Myślę, że to dobra rzecz.

W jakim kierunku powinna być regulowana sztuczna inteligencja? Czy możliwe jest uregulowanie sztucznej inteligencji dla wspólnego dobra, a jeśli tak, to co by to było?

Paul Nemitz: Przede wszystkim jest to kwestia prymatu demokracji nad technologią i modelami biznesowymi. O tym, jak wygląda wspólny interes, decyduje się w demokracji właśnie poprzez ten proces. Parlamenty i prawodawcy są miejscem, w którym decyduje się o kierunku, w jakim powinien podążać wspólny interes: prawo jest najszlachetniejszym aktem demokracji. 

>

Kilka miesięcy temu, mówiąc o regulacjach i sztucznej inteligencji, niektórzy potentaci technologiczni napisali list ostrzegający rządy, że sztuczna inteligencja może zniszczyć ludzkość, jeśli nie będzie żadnych zasad, prosząc o regulacje. Jednak wielu krytycznych ekspertów, takich jak Evgeny Morozov i Christopher Wylie, w dwóch artykułach, które niedawno opublikowaliśmy, twierdzi, że poprzez straszenie wyginięciem spowodowanym przez sztuczną inteligencję, ci giganci technologiczni w rzeczywistości odwracają uwagę opinii publicznej i rządu od bieżących kwestii związanych ze sztuczną inteligencją. Zgadzasz się z tym?

Musimy spojrzeć zarówno na bezpośrednie wyzwania dzisiejszej gospodarki cyfrowej, jak i na wyzwania dla demokracji i praw podstawowych: koncentracja władzy w gospodarce cyfrowej jest aktualnym problemem. Sztuczna inteligencja przyczynia się do tej koncentracji władzy: łączy wszystkie elementy sztucznej inteligencji, takie jak badacze i start-upowcy, w funkcjonujące systemy. Mamy dziś do czynienia z bezpośrednim wyzwaniem, wynikającym nie tylko z samej technologii, ale także z implikacji tego dodatku do koncentracji władzy.

A potem mamy długoterminowe wyzwania, ale musimy spojrzeć na oba. Zasada ostrożności jest częścią innowacji w Europie, i to dobrą częścią. Stała się ona zasadą prawodawstwa i prawa pierwotnego w Unii Europejskiej, zmuszając nas do przyjrzenia się długoterminowym skutkom technologii i ich potencjalnie strasznym konsekwencjom. Jeśli nie możemy z całą pewnością wykluczyć, że takie negatywne konsekwencje wystąpią, musimy podejmować decyzje już dziś, aby upewnić się, że tak się nie stanie. O to właśnie chodzi w zasadzie ostrożności, a nasze prawodawstwo również częściowo służy temu celowi.

Elon Musk napisał na Twitterze, że istnieje potrzeba kompleksowej deregulacji. Czy jest to sposób na ochronę praw jednostki i demokracji?

Dla mnie ci, którzy pisali książki, w których mówili, że sztuczna inteligencja jest jak energia atomowa, zanim wprowadzili na rynek innowacje takie jak ChatGPT, a następnie wzywali do wprowadzenia regulacji, nie wyciągnęli z tego konsekwencji. Jeśli pomyślisz o Billu Gatesie, Elonie Musku, jeśli pomyślisz o prezydencie Microsoftu Bradzie Smithie, wszyscy oni bardzo jasno mówili o zagrożeniach i możliwościach związanych ze sztuczną inteligencją. Microsoft najpierw kupił dużą część otwartej sztucznej inteligencji i po prostu wprowadził ją na rynek, aby zarobić kilka miliardów, zanim wyszedł i powiedział „teraz potrzebujemy prawa”. Gdyby jednak potraktować to poważnie, podobieństwo do energii atomowej oznaczałoby poczekanie do czasu wprowadzenia regulacji. Kiedy energia atomowa została wprowadzona do naszych społeczeństw, nikt nie wpadł na pomysł, aby rozpocząć jej eksploatację bez ustanowienia tych regulacji. Jeśli spojrzymy wstecz na historię prawnej regulacji technologii, zawsze pojawiał się opór ze strony sektora biznesowego. Wprowadzenie pasów bezpieczeństwa w amerykańskich i europejskich samochodach zajęło 10 lat, ludzie umierali, ponieważ przemysł samochodowy tak skutecznie lobbował, mimo że wszyscy wiedzieli, że liczba zgonów spadłaby o połowę, gdyby wprowadzono pasy bezpieczeństwa.

Nie jestem więc pod wrażeniem, gdy niektórzy biznesmeni mówią, że najlepszą rzeczą na świecie byłby brak regulacji prawnych: to mokry sen kapitalistów i neoliberałów tych czasów. Ale demokracja w rzeczywistości oznacza coś przeciwnego: w demokracji ważne sprawy społeczne, a sztuczna inteligencja jest jedną z nich, nie mogą być pozostawione firmom i ich zasadom wspólnotowym lub samoregulacji. Ważnymi sprawami w demokratycznych społeczeństwach musi zajmować się demokratyczny ustawodawca. Na tym właśnie polega demokracja.

Uważam również, że pomysł, iż wszystkie&nbspproblemy tego świata można rozwiązać za pomocą technologii, jak słyszeliśmy od byłego prezydenta Trumpa, gdy USA opuściły porozumienia klimatyczne w Paryżu, jest w rzeczywistości błędny w polityce klimatycznej, jak również we wszystkich wielkich kwestiach tego świata. Koronawirus pokazał nam, że zasady zachowania są kluczowe. Musimy zainwestować w możliwość porozumienia się w pewnych kwestiach: obecnie najbardziej deficytowym zasobem do rozwiązywania problemów nie jest kolejna wspaniała technologia i cała ta ideologiczna gadanina. Obecnie najbardziej deficytowym zasobem jest zdolność i wola ludzi do osiągania porozumienia, zarówno w demokracji, jak i między krajami. Czy to w stosunkach transatlantyckich, czy w prawie międzynarodowym, czy między stronami, które toczą ze sobą wojnę, aby ponownie zawrzeć pokój, jest to największe wyzwanie naszych czasów. I powiedziałbym, że ci, którzy myślą, że technologia rozwiąże wszystkie problemy, kierują się pewną pychą.

Czy jesteś optymistą, że regulacja poprzez proces demokratyczny będzie wystarczająco silna, aby ograniczyć deregulacyjne siły lobbystów?

Ujmijmy to w ten sposób: w Ameryce dominuje lobby. Jeśli posłuchać wielkiego profesora prawa konstytucyjnego, Lawrence’a Lessiga o potędze pieniądza w Ameryce i jego analizy, dlaczego nie ma już w Kongresie prawa ograniczającego wielkie technologie, pieniądze odgrywają bardzo poważną rolę. W Europie wciąż jesteśmy w stanie dojść do porozumienia. Oczywiście lobby w Brukseli jest bardzo silne i musimy o tym otwarcie rozmawiać: o pieniądzach, jakie wydaje wielka technologia, o tym, jak próbuje wpływać nie tylko na polityków, ale także na dziennikarzy i naukowców.

Istnieje GAFAM kultura prób wpływania na opinię publiczną, a w mojej książce dość szczegółowo opisałem ich zestaw narzędzi. Są bardzo obecni, ale powiedziałbym, że nasz proces demokratyczny nadal funkcjonuje, ponieważ nasze partie polityczne i nasi członkowie parlamentu nie są zależni od pieniędzy wielkich firm technologicznych, tak jak amerykańscy parlamentarzyści. Myślę, że możemy być dumni z faktu, że nasza demokracja wciąż jest w stanie wprowadzać innowacje, ponieważ stanowienie prawa w tych najnowocześniejszych kwestiach nie jest kwestią technologiczną, ale sednem kwestii społecznych. Celem jest przekształcenie tych pomysłów w prawa, które następnie działają w sposób, w jaki działają normalne prawa: nie ma prawa, które jest doskonale egzekwowane. Jest to również część innowacji. Innowacja to nie tylko kwestia technologiczna.

Jednym z głównych motywów przewodnich podejścia Evgeny’ego Morozovsa do sztucznej inteligencji i ogólnie wielkich technologii jest wskazywanie na solucjonizm, o którym wspomniałeś jako o idei, że technologia może rozwiązać wszystko. Obecnie Unia Europejska dyskutuje nad ustawą o sztucznej inteligencji, która powinna regulować sztuczną inteligencję. W jakim kierunku zmierza ta regulacja i czy wiemy, w jakim stopniu lobby technologiczne miało na nią wpływ? Wiemy, że jest to największe lobby pod względem budżetu w instytucjach UE. Czy możemy powiedzieć, że ustawa o sztucznej inteligencji jest obecnie najbardziej kompleksowym prawem w tej dziedzinie?

Aby mieć równe szanse w Europie, potrzebujemy jednego prawa, nie chcemy mieć 27 przepisów we wszystkich państwach członkowskich, więc jest to kwestia równego traktowania. Powiedziałbym, że najważniejszą rzeczą w tej ustawie o sztucznej inteligencji jest to, że po raz kolejny ustanawiamy zasadę prymatu demokracji nad technologią i modelami biznesowymi. To jest kluczowe, a co do reszty jestem bardzo przekonany, że Rada i Parlament Europejski będą w stanie uzgodnić ostateczną wersję tej ustawy przed następnymi wyborami europejskimi, czyli najpóźniej do lutego.

Evgeny Morozov mówi , że to wzrost sztucznej inteligencji ogólnej (AGI), w zasadzie sztucznej inteligencji, która nie musi być programowana, a zatem może mieć nieprzewidywalne zachowanie, martwi większość ekspertów. Jednak zwolennicy, tacy jak założyciel openAI Sam Altman, twierdzą, że może to przyspieszyć gospodarkę i „podnieść ludzkość poprzez zwiększenie obfitości”.  Jaka jest Twoja opinia na ten temat?

Po pierwsze, zobaczmy, czy wszystkie obietnice składane przez wyspecjalizowaną sztuczną inteligencję są rzeczywiście spełnione. Nie jestem przekonany, nie jest jasne, kiedy nastąpi krok w kierunku AGI. Stuart Russell, autor książki „Human Compatible: Artificial Intelligence and the Problem of Control”, twierdzi, że SI nigdy nie będzie w stanie zoperacjonalizować ogólnych zasad, takich jak zasady konstytucyjne czy prawa podstawowe. Dlatego za każdym razem, gdy trzeba podjąć decyzję dotyczącą wartości, programy muszą być zaprojektowane w taki sposób, aby wracały do ludzi. Myślę, że ta myśl powinna na razie przyświecać nam i tym, którzy rozwijają AGI. Uważa również, że miną dziesięciolecia, zanim będziemy mieli AGI, ale czyni podobieństwo z rozszczepieniem atomu, argumentując, że wielu bardzo kompetentnych naukowców twierdziło, że nie jest to możliwe, a pewnego dnia, z zaskoczenia, naukowiec wygłosił przemówienie w Londynie i następnego dnia pokazał, że rzeczywiście jest to możliwe. Myślę więc, że musimy się na to przygotować. Istnieje wiele fantazji na temat tego, jak technologia będzie ewoluować, ale myślę, że ważne jest, aby administracja publiczna, parlamenty i rządy pozostały na właściwym kursie i uważnie się temu przyglądały.

Potrzebujemy zobowiązania do prawdy od tych, którzy rozwijają te technologie, często za zamkniętymi drzwiami. Istnieje ironia w prawie UE: kiedy prowadzimy sprawy dotyczące konkurencji, możemy nałożyć grzywnę, jeśli duże korporacje nas okłamują. Facebook, na przykład, otrzymał grzywnę w wysokości ponad 100 milionów za to, że nie powiedział nam całej historii o przejęciu WhatsApp. Ale nie ma obowiązku mówienia prawdy, gdy jako Komisja konsultujemy się w sprawie przygotowania wniosku legislacyjnego lub gdy Parlament Europejski konsultuje się w celu przygotowania debat legislacyjnych lub procesów. Niestety, istnieje długa tradycja, że firmy cyfrowe, a także inne firmy, kłamią w trakcie tego procesu. To musi się zmienić. Myślę, że potrzebujemy prawnego obowiązku mówienia prawdy, który musi być również usankcjonowany. Potrzebujemy zmiany kultury, ponieważ jesteśmy coraz bardziej zależni od tego, co nam mówią. A jeśli polityka zależy od tego, co mówią firmy, to musimy być w stanie pociągnąć je do prawdy.

Czy te grzywny mają jakikolwiek wpływ? Nawet jeśli Facebook zostanie ukarany grzywną w wysokości miliarda dolarów, czy to coś zmieni? Czy zaczną działać inaczej, co to dla nich oznacza pod względem pieniędzy lub wpływu? Czy to wszystko, co mamy?

Uważam, że grzywny to nie wszystko, ale żyjemy w świecie ogromnej koncentracji władzy i potrzebujemy przeciwwładzy. A przeciwwładzą musi być państwo, więc musimy być w stanie egzekwować wszystkie prawa, jeśli to konieczne, twardą ręką. Niestety te firmy w dużej mierze reagują tylko na twardą rękę. Ameryka wie, jak radzić sobie z kapitalizmem: ludzie idą do więzienia, gdy tworzą kartel, gdy zgadzają się na ceny, w Europie tego nie robią. Myślę więc, że musimy uczyć się od Ameryki w tym względzie, musimy być gotowi i chętni do egzekwowania naszych praw twardą ręką, ponieważ demokracja oznacza, że prawa są tworzone, a demokracja oznacza również, że prawa są przestrzegane. I nie może być wyjątku dla wielkich technologii. 

Czy to oznacza, że powinniśmy podążać w kierunku bardziej amerykańskiej drogi?

Oznacza to, że musimy poważnie podchodzić do egzekwowania naszych przepisów, co niestety często wiąże się z koniecznością nakładania grzywien. W prawie konkurencji możemy nałożyć grzywnę w wysokości do 10% całkowitego obrotu dużych firm, myślę, że ma to wpływ. W prawie ochrony prywatności jest to tylko 4%, ale myślę, że te grzywny nadal motywują członków zarządu do upewnienia się, że ich firmy przestrzegają przepisów.

To jednak nie wystarczy: musimy pamiętać, że w demokratycznym społeczeństwie przeciwwaga pochodzi od obywateli i społeczeństwa obywatelskiego. Nie możemy pozostawić jednostek samym sobie w walce o swoje prawa w obliczu wielkich technologii. Potrzebujemy publicznego egzekwowania prawa i musimy wzmocnić pozycję społeczeństwa obywatelskiego w walce o prawa jednostek. Myślę, że jest to część kontrolowania potęgi technologii w XXI wieku i będzie kierować innowacjami. Nie jest to przeszkodą dla innowacji, ale kieruje je w stronę interesu publicznego i legalności. I tego właśnie potrzebujemy! Potrzebujemy, aby wielkie, potężne firmy technologiczne nauczyły się, że nie jest dobrze poruszać się szybko i łamać rzeczy, jeśli „łamanie rzeczy” oznacza łamanie prawa. Myślę, że wszyscy jesteśmy zwolennikami innowacji, ale podważa to naszą demokrację, jeśli pozwolimy potężnym graczom na zakłócanie i łamanie prawa i ujdzie im to na sucho. To nie jest dobre dla demokracji. 

Thierry Breton, europejski komisarz ds. przemysłu, napisał list do Elona Muska, informując go, że jeśli X nadal będzie faworyzował dezinformację, może spotkać się z sankcjami ze strony UE. Musk odpowiedział, że w takim przypadku może opuścić Europę, a inni giganci technologiczni mogą ulec pokusie, aby zrobić to samo, jeśli nie podoba im się regulacja, którą ustanawia Europa. Jaka jest więc równowaga sił między tymi dwoma podmiotami?

Powiedziałbym, że to bardzo proste, jestem bardzo prostą osobą w tym względzie: demokracja nigdy nie może być szantażowana. Jeśli próbują nas szantażować, powinniśmy ich po prostu wyśmiać: jeśli chcą odejść, mogą odejść, a ja życzę Elonowi Muskowi powodzenia na giełdzie, jeśli opuści Europę. Na szczęście wciąż jesteśmy bardzo dużym i dochodowym rynkiem, więc jeśli może sobie pozwolić na wyjazd: żegnaj Elon Musk, życzymy ci wszystkiego najlepszego.

A co z niebezpieczeństwem niekonwencjonalnego wykorzystania AI?

Tak, „niekonwencjonalne” oznacza wykorzystanie do celów wojennych. Oczywiście jest to niebezpieczeństwo, trwają nad tym prace w ONZ, a broń, która wymyka się spod kontroli, jest problemem dla każdej osoby, która rozumie bezpieczeństwo i sposób działania wojska: wojsko chce mieć kontrolę nad swoją bronią. W przeszłości kraje podpisywały wielostronne porozumienia, nie tylko w sprawie nierozprzestrzeniania broni atomowej, ale także broni ręcznej i broni, która wymyka się spod kontroli, jak miny lądowe. Myślę, że we wspólnym interesie świata, ludzkości i możliwości zarządzania potrzebujemy postępu w zakresie zasad wykorzystywania sztucznej inteligencji do celów wojskowych. Rozmowy te są trudne, czasami osiągnięcie porozumienia może zająć lata, a w niektórych przypadkach nawet dziesięciolecia, ale ostatecznie uważam, że potrzebujemy zasad dotyczących broni autonomicznej, a w tym kontekście także sztucznej inteligencji.

Wracając do tego, co powiedział Chris Wiley w artykule, o którym wspomnieliśmy: obecne podejście regulacyjne nie działa, ponieważ „traktuje sztuczną inteligencję jak usługę, a nie jak architekturę”. Czy podzielasz tę opinię?

Powiedziałbym, że poprzeczka dla tego, co działa, a co nie, i co jest uważane za działające, a co nie, w prawie technologicznym nie powinna być wyższa niż w jakiejkolwiek innej dziedzinie prawa. Wszyscy wiemy, że mamy przepisy podatkowe i staramy się je egzekwować najlepiej jak potrafimy. Wiemy jednak, że jest wiele osób i firm, którym uchodzi na sucho niepłacenie podatków.  Mamy prawa własności intelektualnej i nie zawsze są one przestrzegane. Morderstwo jest czymś, co jest surowo karane, ale ludzie są mordowani każdego dnia.

Myślę więc, że w prawie technologicznym nie powinniśmy wpadać w pułapkę, która jest dyskursem branży technologicznej, zgodnie z którym „wolelibyśmy raczej brak prawa niż złe prawo”, przy czym złe prawo to takie, którego nie można doskonale egzekwować. Moja odpowiedź na to pytanie brzmi: nie ma prawa, które działa idealnie i nie ma prawa, które może być idealnie egzekwowane. Nie jest to jednak argument przeciwko istnieniu prawa. Prawa są najszlachetniejszym aktem demokracji, a to oznacza, że są kompromisem.

Są kompromisem z interesami lobby, które te firmy wnoszą do parlamentu i które są podejmowane przez niektóre partie bardziej niż przez inne. A ponieważ prawa są kompromisem, nie są doskonałe ani z naukowego punktu widzenia, ani z funkcjonalnego. Są one tworem demokracji i ostatecznie powiedziałbym, że lepiej jest, gdy zgadzamy się na prawo, nawet jeśli wielu uważa je za niedoskonałe. W Brukseli mówimy, że jeśli na końcu wszyscy krzyczą: firmy mówią „to zbyt duża przeszkoda dla innowacji”, a społeczeństwo obywatelskie uważa, że jest to sukces lobby, to prawdopodobnie mamy to mniej więcej pośrodku.

Obejrzyj wideo z Voxeurop Live z Paulem Nemitzem tutaj.

Go to top