Menü

Europäische Nachrichten ohne Grenzen. In Ihrer Sprache.

Menü
×

Paul Nemitz: „Die Demokratie muss sich im Interesse des Gemeinwohls gegen Technologie und Geschäftsmodelle durchsetzen

Paul Nemitz ist ein leitender Berater des Generaldirektors für Justiz der Europäischen Kommission und Professor für Recht am Collège d’Europe. Er gilt als einer der angesehensten Experten für digitale Freiheit in Europa und leitete die Arbeit an der General Data Protection Regulation. Außerdem ist er zusammen mit Matthias Pfeffer Autor von Der menschliche Imperativ: Macht, Freiheit und Demokratie im Zeitalter der künstlichen Intelligenz, einem Essay über die Auswirkungen der neuen Technologien auf die individuellen Freiheiten und die Gesellschaft. 

Voxeurop: Würden Sie sagen, dass Künstliche Intelligenz eine Chance oder eine Gefahr für die Demokratie ist, und warum? 

Paul Nemitz: Ich würde sagen, dass eine der großen Aufgaben der Demokratie im 21. Jahrhundert darin besteht, die technologische Macht zu kontrollieren. Wir müssen uns der Tatsache stellen, dass Macht kontrolliert werden muss. Es gibt gute Gründe, warum wir eine Rechtsgeschichte der Machtkontrolle von Unternehmen, Staaten oder in der Exekutive haben. Dieses Prinzip gilt sicher auch für KI.

Viele, wenn nicht alle Technologien bergen Chancen, aber auch Risiken: Wir kennen das von der Chemie oder der Atomenergie, und gerade deshalb ist es so wichtig, dass die Demokratie den Rahmen dafür vorgibt, wie Technologie entwickelt wird, in welche Richtung Innovation gehen soll und wo die Grenzen von Innovation, Forschung und Nutzung liegen können. Wir haben eine lange Geschichte der Begrenzung der Forschung, zum Beispiel in Bezug auf gefährliche biologische Agenzien, Genetik oder Atomenergie: All dies wurde in hohem Maße gerahmt, so dass es nichts Ungewöhnliches ist, dass die Demokratie neue Technologien wie künstliche Intelligenz betrachtet, über ihre Auswirkungen nachdenkt und die Verantwortung übernimmt. Ich denke, das ist eine gute Sache.

In welche Richtung sollte KI also reguliert werden? Ist es möglich, künstliche Intelligenz im Sinne des Gemeinwohls zu regulieren, und wenn ja, in welcher Form?“

Paul Nemitz: Zunächst einmal ist es eine Frage des Vorrangs der Demokratie vor Technologie und Geschäftsmodellen. Wie das Gemeinwohl aussieht, wird in einer Demokratie genau durch diesen Prozess in einer Demokratie entschieden. Parlamente und Gesetzgeber sind der Ort, an dem entschieden wird, in welche Richtung das Gemeinwohl gehen soll: das Gesetz ist der vornehmste Sprechakt der Demokratie.

Vor einigen Monaten, als es um Regulierung und KI ging, schrieben einige Tech-Mogule einen Brief, in dem sie die Regierungen warnten, dass KI die Menschheit zerstören könnte, wenn es keine Regeln gäbe, und forderten eine Regulierung. Aber viele kritische Experten wie Evgeny Morozov Christopher Wylie sagen in zwei Artikeln, die wir kürzlich veröffentlicht haben, dass diese Tech-Giganten, indem sie die Bedrohung durch das Aussterben der KI heraufbeschwören, in Wirklichkeit die Aufmerksamkeit der Öffentlichkeit und der Regierung von den aktuellen Problemen der künstlichen Intelligenz ablenken. Stimmen Sie dem zu?

Wir müssen sowohl die unmittelbaren Herausforderungen von heute, der digitalen Wirtschaft, als auch die Herausforderungen für die Demokratie und die Grundrechte betrachten: die Machtkonzentration in der digitalen Wirtschaft ist ein aktuelles Problem. Die künstliche Intelligenz trägt zu dieser Machtkonzentration bei: Sie bringt alle Elemente der künstlichen Intelligenz, wie z. B. Forscher und Start-Ups, in funktionierende Systeme zusammen. Wir stehen heute vor einer unmittelbaren Herausforderung, die nicht nur von der Technologie selbst ausgeht, sondern auch von den Auswirkungen dieser zusätzlichen Machtkonzentration.

>

Und dann haben wir langfristige Herausforderungen, aber wir müssen beides betrachten. Das Vorsorgeprinzip ist ein Teil der Innovation in Europa, und es ist ein guter Teil. Es ist zu einem Prinzip der Gesetzgebung und des Primärrechts in der Europäischen Union geworden, das uns zwingt, die langfristigen Auswirkungen der Technologie und ihre potenziell schrecklichen Folgen zu betrachten. Wenn wir nicht mit Sicherheit ausschließen können, dass diese negativen Folgen eintreten werden, müssen wir heute Entscheidungen treffen, um sicherzustellen, dass sie nicht eintreten. Das ist der Sinn des Vorsorgeprinzips, und unsere Gesetzgebung dient teilweise auch diesem Zweck.

Elon Musk twitterte, dass eine umfassende Deregulierung notwendig sei. Ist das der Weg, um individuelle Rechte und die Demokratie zu schützen? 

Für mich haben diejenigen, die schon Bücher geschrieben haben, in denen sie sagten, KI sei wie Atomkraft, bevor sie Innovationen wie ChatGPT auf den Markt brachten und danach nach Regulierungen riefen, nicht die Konsequenzen daraus gezogen. Denken Sie an Bill Gates, Elon Musk, denken Sie an den Präsidenten von Microsoft Brad Smith, sie alle waren sich über die Risiken und Chancen von KI sehr klar. Microsoft kaufte zunächst einen großen Teil der offenen KI und brachte ihn auf den Markt, um ein paar Milliarden zu kassieren, bevor es sagte: „Jetzt brauchen wir Gesetze“. Aber wenn man die Parallele zur Atomkraft ernst nimmt, hätte man warten müssen, bis es eine Regulierung gibt. Als die Atomkraft in unseren Gesellschaften eingeführt wurde, kam niemand auf die Idee, sie zu betreiben, ohne dass diese Regelungen geschaffen wurden. Wenn wir auf die Geschichte der gesetzlichen Regulierung von Technologie zurückblicken, gab es immer Widerstand von Seiten der Wirtschaft. Es hat 10 Jahre gedauert, bis Sicherheitsgurte in amerikanischen und europäischen Autos eingeführt wurden, Menschen starben, weil die Autoindustrie so erfolgreich Lobbyarbeit betrieb, obwohl jeder wusste, dass sich die Zahl der Todesfälle durch die Einführung von Sicherheitsgurten halbieren würde.

Ich bin also nicht beeindruckt, wenn einige Geschäftsleute sagen, dass es das Beste auf der Welt wäre, nicht per Gesetz zu regulieren: das ist der feuchte Traum der Kapitalisten und Neoliberalisten dieser Zeit. Aber Demokratie bedeutet eigentlich das Gegenteil: In der Demokratie können die wichtigen Angelegenheiten der Gesellschaft, und KI ist eine davon, nicht den Unternehmen und ihren Gemeinschaftsregeln oder der Selbstregulierung überlassen werden. Wichtige Angelegenheiten in demokratischen Gesellschaften müssen vom demokratischen Gesetzgeber geregelt werden. Darum geht es in der Demokratie.

Ich glaube auch, dass die Idee, dass alle Probleme dieser Welt durch Technologie gelöst werden können, wie wir es von Ex-Präsident Trump gehört haben, als die USA aus den Klimavereinbarungen in Paris ausgestiegen sind, in der Klimapolitik wie in allen großen Fragen dieser Welt eigentlich falsch ist. Das Coronavirus hat uns gezeigt, dass Verhaltensregeln der Schlüssel sind. Wir müssen in die Fähigkeit investieren, uns auf Dinge zu einigen: Die knappste Ressource für die Lösung von Problemen ist heute nicht die nächste große Technologie und all das ideologische Gerede. Die knappste Ressource ist heute die Fähigkeit und Bereitschaft der Menschen, sich zu einigen, in der Demokratie und zwischen Ländern. Ob es um die transatlantischen Beziehungen geht, ob es um das Völkerrecht geht, ob es darum geht, zwischen Parteien, die Krieg gegeneinander führen, wieder Frieden zu schließen, das ist die größte Herausforderung unserer Zeit. Und ich würde sagen, dass diejenigen, die glauben, dass die Technologie alle Probleme lösen wird, von einer gewissen Hybris getrieben sind.

Sind Sie optimistisch, dass die Regulierung durch einen demokratischen Prozess stark genug sein wird, um die Deregulierungskräfte der Lobbyisten einzudämmen?

Sagen wir es mal so: In Amerika setzt sich die Lobby durch. Wenn man dem großen Verfassungsrechtsprofessor Lawrence Lessig über die Macht des Geldes in Amerika zuhört und seine Analyse darüber, warum kein Gesetz mehr aus dem Kongress kommt, das Big Tech einschränkt, dann spielt Geld eine sehr ernste Rolle. In Europa sind wir noch in der Lage, uns zu einigen. Natürlich ist die Lobby in Brüssel sehr stark, und wir müssen offen darüber sprechen: das Geld, das Big Tech ausgibt,  wie sie versuchen, nicht nur Politiker, sondern auch Journalisten und Wissenschaftler zu beeinflussen.

Es gibt eine GAFAM Kultur des Versuchs, die öffentliche Meinung zu beeinflussen, und in meinem Buch habe ich ihren Werkzeugkasten recht detailliert beschrieben. Sie sind sehr präsent, aber ich würde sagen, dass unser demokratischer Prozess immer noch funktioniert, weil unsere politischen Parteien und unsere Parlamentsabgeordneten nicht vom Geld der Big Tech abhängig sind, wie es die amerikanischen Parlamentarier sind. Ich denke, wir können stolz darauf sein, dass unsere Demokratie immer noch in der Lage ist, innovativ zu sein, denn die Erarbeitung von Gesetzen zu diesen bahnbrechenden Themen ist keine technologische Angelegenheit, sondern steht wirklich im Mittelpunkt gesellschaftlicher Fragen. Das Ziel besteht darin, diese Ideen in Gesetze umzusetzen, die dann so funktionieren, wie normale Gesetze funktionieren: Es gibt kein Gesetz, das perfekt durchgesetzt wird. Auch das ist ein Teil der Innovation. Innovation ist nicht nur eine technologische Angelegenheit.

Eines der großen Leitmotive von Evgeny Morozovs Sicht auf künstliche Intelligenz und Big Tech im Allgemeinen ist das Aufzeigen von Solutionism, also der von Ihnen erwähnten Idee, dass Technologie alles lösen kann. Derzeit diskutiert die Europäische Union über ein Gesetz zur künstlichen Intelligenz, das die künstliche Intelligenz regeln soll. Wohin führt diese Regelung, und wissen wir, inwieweit die Tech-Lobby sie beeinflusst hat? Wir wissen, dass sie die größte Lobby innerhalb der EU-Institutionen ist, was das Budget angeht. Können wir sagen, dass das KI-Gesetz heute das umfassendste Gesetz zu diesem Thema ist?

Um gleiche Wettbewerbsbedingungen in Europa zu schaffen, brauchen wir ein einziges Gesetz, wir wollen nicht 27 Gesetze in den verschiedenen Mitgliedsstaaten haben, es geht also um Gleichbehandlung. Ich würde sagen, das Wichtigste an diesem KI-Gesetz ist, dass wir einmal mehr den Grundsatz des Vorrangs der Demokratie vor Technologie und Geschäftsmodellen festschreiben. Das ist der Schlüssel, und im Übrigen bin ich sehr zuversichtlich, dass der Rat und das Europäische Parlament in der Lage sein werden, sich vor der nächsten Europawahl, also spätestens im Februar, auf die endgültige Fassung dieses Gesetzes zu einigen.

Evgeny Morozov sagt dass es der Aufstieg der künstlichen allgemeinen Intelligenz (AGI) ist, im Grunde eine KI, die nicht programmiert werden muss und daher ein unvorhersehbares Verhalten haben könnte, was den meisten Experten Sorgen bereitet. Befürworter wie der Gründer von openAI, Sam Altman, sind jedoch der Meinung, dass sie die Wirtschaft ankurbeln und „die Menschheit durch die Steigerung des Überflusses erheben“ könnte.

Zunächst sollten wir sehen, ob all die Versprechungen, die von der spezialisierten KI gemacht werden, wirklich erfüllt werden. Ich bin nicht überzeugt, es ist unklar, wann der Schritt zur AGI erfolgen wird. Stuart Russell, Autor von „Human Compatible: Artificial Intelligence and the Problem of Control“, sagt, dass KI niemals in der Lage sein wird, allgemeine Prinzipien wie Verfassungsgrundsätze oder Grundrechte zu operationalisieren. Deshalb müssen die Programme immer dann, wenn eine prinzipielle Wertentscheidung zu treffen ist, so gestaltet werden, dass sie auf den Menschen zurückgreifen. Ich denke, dieser Gedanke sollte uns und diejenigen, die AGI entwickeln, vorerst leiten. Er glaubt auch, dass es noch Jahrzehnte dauern wird, bis wir AGI haben, zieht aber die Parallele zur Atomspaltung: Viele sehr kompetente Wissenschaftler hätten gesagt, es sei nicht möglich, und dann habe eines Tages überraschend ein Wissenschaftler in London eine Rede gehalten und am nächsten Tag gezeigt, dass es doch möglich sei. Ich denke also, wir müssen uns darauf vorbereiten, und noch mehr. Es gibt viele Phantasien darüber, wie sich die Technologie entwickeln wird, aber ich denke, das Wichtigste ist, dass die öffentlichen Verwaltungen, die Parlamente und die Regierungen auf Kurs bleiben und die Entwicklung sehr genau beobachten.

Wir brauchen eine Verpflichtung zur Wahrheit von denjenigen, die diese Technologien entwickeln, oft hinter verschlossenen Türen. Es gibt eine Ironie im EU-Recht: Wenn wir Wettbewerbsfälle bearbeiten, können wir eine Geldstrafe verhängen, wenn große Unternehmen uns anlügen. Facebook zum Beispiel erhielt eine Geldstrafe von mehr als 100 Millionen, weil es uns nicht die ganze Geschichte über die Übernahme von WhatsApp erzählt hat. Aber es gibt keine Verpflichtung zur Wahrheit, wenn wir als Kommission bei der Vorbereitung eines Legislativvorschlags konsultiert werden oder wenn das Europäische Parlament zur Vorbereitung seiner Legislativdebatten oder -verfahren konsultiert wird. Es gibt leider eine lange Tradition, dass digitale Unternehmen, wie auch andere Unternehmen, im Laufe dieses Prozesses lügen. Das muss sich ändern. Ich denke, was wir brauchen, ist eine gesetzliche Verpflichtung zur Wahrheit, die auch sanktioniert werden muss. Wir brauchen einen Kulturwandel, denn wir sind zunehmend abhängig von dem, was sie uns sagen. Und wenn die Politik darauf angewiesen ist, was die Unternehmen erzählen, dann müssen wir sie auch zur Wahrheit verpflichten können.

Wirken sich diese Geldstrafen überhaupt aus? Selbst wenn Facebook eine Milliarde Dollar Strafe zahlen muss, macht das einen Unterschied? Fangen sie an, anders zu handeln, was bedeutet das für sie in Bezug auf Geld oder Auswirkungen? Ist das alles, was wir haben?

Ich denke, Bußgelder sind nicht alles, aber wir leben in einer Welt mit enormer Machtkonzentration und wir brauchen Gegenmacht. Und die Gegenmacht muss beim Staat liegen, also müssen wir in der Lage sein, alle Gesetze durchzusetzen, notfalls auch mit harter Hand. Leider reagieren diese Unternehmen weitgehend nur auf eine harte Hand. Amerika weiß, wie man mit dem Kapitalismus umgeht: Man geht ins Gefängnis, wenn man ein Kartell bildet, wenn man sich auf Preise einigt, in Europa tut man das nicht. Ich denke also, wir müssen in dieser Hinsicht von Amerika lernen, wir müssen bereit und willens sein, unsere Gesetze mit harter Hand durchzusetzen, denn Demokratie bedeutet, dass Gesetze gemacht werden und Demokratie bedeutet auch, dass Gesetze eingehalten werden. Und da kann es keine Ausnahme für Big Tech geben.

>

Das bedeutet, dass wir uns auf einen amerikanischeren Weg begeben sollten?

Es bedeutet, dass wir die Durchsetzung unserer Gesetze ernst nehmen müssen, und das macht leider oft Bußgelder notwendig. Im Wettbewerbsrecht können wir Bußgelder in Höhe von bis zu 10 % des Gesamtumsatzes großer Unternehmen verhängen, ich denke, das hat Wirkung. Im Datenschutzrecht sind es nur 4 %, aber ich denke, dass diese Bußgelder die Vorstandsmitglieder motivieren, dafür zu sorgen, dass ihre Unternehmen die Vorschriften einhalten.

Allerdings reicht das nicht aus: Wir müssen uns daran erinnern, dass in einer demokratischen Gesellschaft die Gegenmacht von den Bürgern und der Zivilgesellschaft ausgeht. Wir können den Einzelnen nicht allein lassen, wenn es darum geht, für seine Rechte gegenüber der Big-Tech-Industrie zu kämpfen. Wir brauchen eine öffentliche Durchsetzung und wir müssen die Zivilgesellschaft befähigen, für die Rechte des Einzelnen zu kämpfen. Ich denke, dies ist Teil der Kontrolle der Macht der Technologie im 21. Es ist kein Hindernis für die Innovation, sondern lenkt sie in Richtung öffentliches Interesse und mittelmäßige Legalität. Und das ist es, was wir brauchen! Die großen, mächtigen Technologieunternehmen müssen lernen, dass es nicht gut ist, schnell zu sein und Dinge zu zerstören, wenn „Dinge zerstören“ bedeutet, das Gesetz zu brechen. Ich denke, wir sind alle für Innovation, aber es untergräbt unsere Demokratie, wenn wir es zulassen, dass mächtige Akteure die Welt stören und das Gesetz brechen und damit davonkommen. Das ist nicht gut für die Demokratie. 

Thierry Breton, der europäische Kommissar für Industrie, hat Elon Musk in einem Brief mitgeteilt, dass er mit Sanktionen seitens der EU rechnen muss, wenn X weiterhin die Desinformation fördert. Musk antwortete, dass er in diesem Fall Europa verlassen könnte, und dass andere Tech-Giganten versucht sein könnten, dasselbe zu tun, wenn ihnen die von Europa eingeführten Vorschriften nicht gefallen. Wie sieht also das Machtgleichgewicht zwischen den beiden aus? 

Ich würde sagen, es ist sehr einfach, ich bin in dieser Hinsicht ein sehr einfacher Mensch: Demokratie kann niemals erpresst werden. Wenn sie versuchen, uns zu erpressen, sollten wir sie einfach auslachen: Wenn sie gehen wollen, steht es ihnen frei zu gehen, und ich wünsche Elon Musk viel Glück an der Börse, wenn er Europa verlässt. Zum Glück sind wir immer noch ein sehr großer und profitabler Markt, wenn er es sich also leisten kann zu gehen: Auf Wiedersehen Elon Musk, wir wünschen Ihnen alles Gute.

Wie steht es mit der Gefahr des unkonventionellen Einsatzes von KI?

Ja, „unkonventionell“ bedeutet den Einsatz für den Krieg. Natürlich ist das eine Gefahr, in den Vereinten Nationen wird daran gearbeitet, und Waffen, die außer Kontrolle geraten, sind ein Problem für jeden, der sich mit Sicherheit und der Funktionsweise des Militärs auskennt: Das Militär will die Kontrolle über seine Waffen haben. In der Vergangenheit haben wir Länder dazu gebracht, multilaterale Abkommen zu unterzeichnen, nicht nur über die Nichtverbreitung von Atomwaffen, sondern auch für Kleinwaffen und Waffen, die außer Kontrolle geraten, wie Landminen. Ich denke, im gemeinsamen Interesse der Welt, der Menschheit und der Regierbarkeit brauchen wir Fortschritte bei den Regeln für den Einsatz von KI zu militärischen Zwecken. Diese Gespräche sind schwierig, manchmal kann es Jahre, in manchen Fällen sogar Jahrzehnte dauern, um zu Vereinbarungen zu kommen, aber letztendlich denke ich, dass wir sicherlich Regeln für autonome Waffen brauchen, und in diesem Zusammenhang auch für KI.

Um auf das zurückzukommen, was Chris Wiley in dem von uns erwähnten Artikel sagte: Der derzeitige Regulierungsansatz funktioniert nicht, weil er „künstliche Intelligenz wie eine Dienstleistung und nicht wie eine Architektur behandelt“. Teilen Sie diese Meinung? 

Ich würde sagen, dass die Messlatte für das, was funktioniert und was nicht funktioniert, und für das, was als funktionierend und nicht funktionierend angesehen wird, im technischen Recht nicht höher sein sollte als in jedem anderen Rechtsgebiet. Wir alle wissen, dass wir Steuergesetze haben, und wir versuchen, sie so gut wie möglich durchzusetzen. Aber wir wissen auch, dass es viele Menschen und Unternehmen gibt, die ihre Steuern nicht zahlen. Wir haben Gesetze zum Schutz des geistigen Eigentums, die nicht immer befolgt werden. Mord wird hart bestraft, aber es werden täglich Menschen ermordet.

Ich denke also, dass wir im Bereich des Tech-Rechts nicht in die Falle tappen sollten, die der Diskurs der Tech-Industrie darstellt, der besagt, dass „wir lieber kein Gesetz als ein schlechtes Gesetz hätten“, wobei ein schlechtes Gesetz eines ist, das nicht perfekt durchgesetzt werden kann. Meine Antwort darauf lautet: Es gibt kein Gesetz, das perfekt funktioniert, und es gibt kein Gesetz, das perfekt durchgesetzt werden kann. Aber das ist kein Argument gegen Gesetze. Gesetze sind der vornehmste Akt der Demokratie, und das bedeutet, dass sie ein Kompromiss sind.

Sie sind ein Kompromiss mit den Lobbyinteressen, die diese Unternehmen ins Parlament tragen und die von einigen Parteien mehr aufgegriffen werden als von anderen. Und weil Gesetze Kompromisse sind, sind sie weder aus wissenschaftlicher noch aus funktionaler Sicht perfekt. Sie sind Geschöpfe der Demokratie, und ich würde sagen, es ist besser, wenn wir uns auf ein Gesetz einigen, auch wenn viele es für unvollkommen halten. In Brüssel sagen wir, wenn am Ende alle aufschreien: die Unternehmen, die sagen, „das ist ein zu großes Hindernis für die Innovation“, und die Zivilgesellschaft, die meint, es sei ein Lobby-Erfolg, dann haben wir es wahrscheinlich mehr oder weniger in der Mitte getroffen.

Sehen Sie das Video der Voxeurop Live mit Paul Nemitz hier.

Go to top