Paul Nemitz: “A democracia deve prevalecer sobre a tecnologia e os modelos empresariais para o bem comum
Paul Nemitz é conselheiro sénior do diretor-geral da Justiça da Comissão Europeia e professor de Direito no Collège d’Europe. Considerado um dos especialistas mais respeitados da Europa em matéria de liberdade digital, liderou o trabalho sobre o Regulamento Geral de Proteção de Dados. É também autor, juntamente com Matthias Pfeffer, de O imperativo humano: poder, liberdade e democracia na era da inteligência artificial, um ensaio sobre o impacto das novas tecnologias nas liberdades individuais e na sociedade.
Voxeurop: Diria que inteligência artificial é uma oportunidade ou uma ameaça para a democracia, e porquê?
Paul Nemitz: Eu diria que uma das grandes tarefas da democracia no século XXI é controlar o poder tecnológico. Temos de ter em conta o facto de que o poder precisa de ser controlado. Há boas razões para termos uma história jurídica de controlo do poder das empresas, dos Estados ou dos executivos. Este princípio aplica-se certamente também à IA.
Muitas, se não todas as tecnologias, têm um elemento de oportunidade, mas também comportam riscos: sabemo-lo com os produtos químicos ou com a energia atómica, e é exatamente por isso que é tão importante que a democracia se encarregue de enquadrar a forma como a tecnologia é desenvolvida, em que direção a inovação deve ir e onde podem estar os limites da inovação, da investigação e da utilização. Temos uma longa história de limitação da investigação, por exemplo, sobre agentes biológicos perigosos, genética ou energia atómica: tudo isto foi altamente enquadrado, por isso não é nada de invulgar que a democracia olhe para novas tecnologias como a inteligência artificial, pense no seu impacto e assuma o controlo. Penso que é uma coisa boa.
Então, em que direção deve a IA ser regulamentada? É possível regular a inteligência artificial para o bem comum e, em caso afirmativo, o que seria isso?
Paul Nemitz: Antes de mais, é uma questão de primazia da democracia sobre a tecnologia e os modelos de negócio. O interesse comum é decidido em democracia, exatamente através deste processo em democracia. Os parlamentos e os legisladores são o lugar para decidir sobre a direção que o interesse comum deve tomar: a lei é o ato de fala mais nobre da democracia.
Há alguns meses, falando de regulação e IA, alguns magnatas da tecnologia escreveram uma carta avisando os governos que a IA poderia destruir a humanidade se não houvesse regras, pedindo regulação. Mas muitos especialistas críticos como Evgeny Morozov e Christopher Wylie, em duas histórias que publicámos recentemente, dizem que, ao empunhar a ameaça de extinção induzida pela IA, esses gigantes da tecnologia estão, na verdade, a desviar a atenção do público e do governo das questões actuais com a inteligência artificial. Concorda com isso? Temos de olhar tanto para os desafios imediatos de hoje, da economia digital, como para os desafios da democracia e dos direitos fundamentais: a concentração de poder na economia digital é um problema atual. A IA contribui para esta concentração de poder: reúne todos os elementos da IA, como investigadores e start-ups, em sistemas funcionais. Temos hoje um desafio imediato, que advém não só da tecnologia em si, mas também das implicações deste acréscimo à concentração de poder. E depois temos desafios a longo prazo, mas temos de olhar para ambos. O princípio da precaução faz parte da inovação na Europa, e é uma boa parte. Tornou-se um princípio de legislação e de direito primário na União Europeia, obrigando-nos a olhar para os impactos a longo prazo da tecnologia e para as suas consequências potencialmente terríveis. Se não pudermos excluir com certeza que essas consequências negativas irão surgir, temos de tomar decisões hoje para garantir que não surjam. É disso que trata o princípio da precaução, e a nossa legislação também serve parcialmente este objetivo. Elon Musk tweetou que há necessidade de desregulamentações abrangentes. Será esta a forma de proteger os direitos individuais e a democracia?
Para mim, aqueles que já escreviam livros em que diziam que a IA é como a energia atómica, antes de colocarem inovações como o ChatGPT no mercado e depois pedirem regulamentação, não tiraram as consequências disso. Se pensarmos em Bill Gates, Elon Musk, se pensarmos no presidente da Microsoft Brad Smith, todos eles foram muito claros quanto aos riscos e oportunidades da IA. A Microsoft começou por comprar uma grande parte da IA aberta e colocou-a no mercado para ganhar alguns milhares de milhões antes de sair e dizer “agora precisamos de leis”. Mas, se fosse levado a sério, o paralelo com a energia atómica significaria esperar até que a regulamentação estivesse em vigor. Quando a energia atómica foi introduzida nas nossas sociedades, ninguém teve a ideia de a pôr a funcionar sem que essa regulamentação estivesse estabelecida. Se olharmos para a história da regulamentação jurídica da tecnologia, verificamos que houve sempre resistência por parte do sector empresarial. Foram necessários 10 anos para introduzir os cintos de segurança nos automóveis americanos e europeus, as pessoas morriam porque a indústria automóvel fazia um lobby muito bem sucedido, apesar de toda a gente saber que as mortes seriam reduzidas para metade se os cintos de segurança fossem introduzidos. Portanto, não me impressiona que alguns empresários digam que a melhor coisa do mundo seria não regular por lei: este é o sonho húmido dos capitalistas e neoliberalistas deste tempo. Mas a democracia significa, de facto, o oposto: em democracia, as questões importantes da sociedade, e a IA é uma delas, não podem ser deixadas às empresas e às suas regras comunitárias ou à autorregulação. As questões importantes das sociedades democráticas devem ser tratadas pelo legislador democrático. É para isso que serve a democracia. Também acredito que a ideia de que todos os problemas deste mundo podem ser resolvidos pela tecnologia, como ouvimos do ex-presidente Trump quando os EUA deixaram os acordos climáticos em Paris, está de facto errada na política climática, bem como em todas as grandes questões deste mundo. O coronavírus mostrou-nos que as regras de comportamento são fundamentais. Temos de investir na capacidade de chegar a acordo sobre as coisas: o recurso mais escasso atualmente para a resolução de problemas não é a próxima grande tecnologia e toda esta conversa ideológica. O recurso mais escasso atualmente é a capacidade e a vontade das pessoas de chegarem a acordo, em democracia e entre países. Quer se trate das relações transatlânticas, quer do direito internacional, quer se trate das relações entre partes que se guerreiam mutuamente para voltarem à paz, este é o maior desafio dos nossos tempos. E eu diria que aqueles que pensam que a tecnologia resolverá todos os problemas são movidos por uma certa arrogância. Está otimista quanto à possibilidade de a regulamentação através de um processo democrático ser suficientemente forte para travar as forças de desregulamentação dos lobistas?
Vamos colocar as coisas desta forma: na América, o lobby prevalece. Se ouvirmos o grande professor de direito constitucional Lawrence Lessig sobre o poder do dinheiro na América e a sua análise sobre a razão pela qual já não existe nenhuma lei que restrinja as grandes tecnologias a sair do Congresso, o dinheiro desempenha um papel muito importante. Na Europa, ainda conseguimos chegar a acordo. É claro que o lóbi é muito forte em Bruxelas e temos de falar abertamente sobre isto: o dinheiro que as grandes tecnologias gastam, a forma como tentam influenciar não só os políticos mas também os jornalistas e os cientistas.
Há uma GAFAM cultura de tentar influenciar a opinião pública, e no meu livro descrevi a sua caixa de ferramentas com bastante pormenor. Estão muito presentes, mas eu diria que o nosso processo democrático ainda funciona porque os nossos partidos políticos e os nossos deputados não estão dependentes do dinheiro das grandes empresas tecnológicas, como acontece com os deputados americanos. Penso que podemos orgulhar-nos do facto de a nossa democracia ainda ser capaz de inovar, porque a elaboração de leis sobre estas questões de ponta não é uma questão tecnológica, está realmente no centro das questões sociais. O objetivo é transformar estas ideias em leis que depois funcionem da mesma forma que as leis normais: não há nenhuma lei que seja perfeitamente aplicada. Isto também faz parte da inovação. A inovação não é apenas uma questão tecnológica. Um dos grandes Leitmotives da visão de Evgeny Morozovs sobre a inteligência artificial e a grande tecnologia em geral é apontar o solucionismo, o que mencionou como a ideia de que a tecnologia pode resolver tudo. Atualmente, a União Europeia está a debater a lei da IA que deverá regulamentar a inteligência artificial. Para onde se dirige esta regulamentação e até que ponto o lobby tecnológico a influenciou? Sabemos que é o maior lóbi em termos de orçamento nas instituições europeias. Podemos dizer que a lei sobre a IA é a lei mais abrangente sobre o assunto atualmente? Para termos condições de concorrência equitativas na Europa, precisamos de uma lei, não queremos ter 27 leis em todos os diferentes Estados-Membros, por isso é uma questão de igualdade de tratamento. Diria que o mais importante desta lei sobre a IA é que, mais uma vez, estabelecemos o princípio da primazia da democracia sobre a tecnologia e os modelos de negócio. Isso é fundamental e, quanto ao resto, estou muito confiante de que o Conselho e o Parlamento Europeu serão capazes de chegar a acordo sobre a versão final desta lei antes das próximas eleições europeias, ou seja, o mais tardar em fevereiro. Evgeny Morozov diz que é a ascensão da inteligência artificial geral (AGI), basicamente uma IA que não precisa de ser programada e, portanto, que pode ter um comportamento imprevisível, que preocupa a maioria dos especialistas. No entanto, apoiantes como o fundador da openAI, Sam Altman, dizem que pode turbinar a economia e “elevar a humanidade ao aumentar a abundância”. Qual é a sua opinião sobre isso? Primeiro, vamos ver se todas as promessas feitas pela IA especializada são realmente cumpridas. Não estou convencido, não é claro quando surgirá o passo para a AGI. Stuart Russell, autor de “Human Compatible: A Inteligência Artificial e o Problema do Controlo”, afirma que a IA nunca será capaz de operacionalizar princípios gerais como os princípios constitucionais ou os direitos fundamentais. É por isso que, sempre que há uma decisão de princípio de valor a tomar, os programas têm de ser concebidos de forma a que se voltem para os humanos. Penso que este pensamento deve guiar-nos a nós e àqueles que desenvolvem AGI, por enquanto. Também acredita que passarão décadas até termos AGI, mas faz o paralelo com a divisão do átomo, argumentando que muitos cientistas muito competentes disseram que não era possível e um dia, de surpresa, um cientista fez um discurso em Londres e no dia seguinte mostrou como era de facto possível. Por isso, penso que temos de nos preparar para isto e muito mais. Há muitas fantasias por aí sobre a forma como a tecnologia vai evoluir, mas penso que o importante é que as administrações públicas, os parlamentos e os governos mantenham o rumo e observem isto com muita atenção.
Precisamos de uma obrigação de verdade por parte daqueles que estão a desenvolver estas tecnologias, muitas vezes à porta fechada. Há uma ironia na legislação da UE: quando fazemos casos de concorrência, podemos impor uma coima se as grandes empresas nos mentirem. O Facebook, por exemplo, recebeu uma coima de mais de 100 milhões de euros por não nos ter contado toda a história sobre a aquisição do WhatsApp. Mas não existe qualquer dever de verdade quando consultamos a Comissão na preparação de uma proposta legislativa ou quando o Parlamento Europeu efectua consultas para preparar os seus debates ou julgamentos legislativos. Infelizmente, há uma longa tradição de empresas digitais, bem como outras empresas, que mentem durante este processo. Isto tem de mudar. Penso que o que precisamos é de uma obrigação legal de verdade, que também tem de ser sancionada. Precisamos de uma mudança de cultura, porque estamos cada vez mais dependentes do que nos dizem. E se a política está dependente do que as empresas dizem, então temos de ser capazes de as obrigar a dizer a verdade. Estas multas têm algum impacto? Mesmo que o Facebook seja multado em mil milhões de dólares, isso faz alguma diferença? Começam a agir de forma diferente, o que é que isso significa para eles em termos de dinheiro, ou de impacto? É só isso que temos? Acho que multar não é tudo, mas vivemos num mundo de enorme concentração de poder e precisamos de contrapoder. E o contra-poder deve ser do Estado, por isso temos de ser capazes de fazer cumprir todas as leis, se necessário com mão-de-ferro. Infelizmente, estas empresas, em grande parte, só reagem a uma mão dura. A América sabe como lidar com o capitalismo: as pessoas vão para a prisão quando criam um cartel, quando chegam a acordo sobre os preços, na Europa não. Por isso, penso que temos de aprender com a América neste domínio, temos de estar prontos e dispostos a aplicar as nossas leis com mão-de-ferro, porque a democracia significa que as leis são feitas e a democracia também significa que as leis são cumpridas. E não pode haver exceção para a grande tecnologia.
Isso significa que deveríamos estar a caminhar para uma forma mais americana? Isso significa que devemos levar a sério a aplicação das nossas leis e, infelizmente, isso faz com que muitas vezes seja necessário aplicar coimas. No direito da concorrência podemos aplicar coimas até 10% do volume de negócios global das grandes empresas, penso que isso tem um efeito. Na legislação relativa à proteção da vida privada são apenas 4%, mas penso que estas coimas continuam a ter o efeito de motivar os membros dos conselhos de administração a certificarem-se de que as suas empresas cumprem a lei. Dito isto, não basta: é preciso lembrar que, numa sociedade democrática, o contrapoder vem dos cidadãos e da sociedade civil. Não podemos deixar os indivíduos sozinhos a lutar pelos seus direitos face às grandes tecnologias. Precisamos de um controlo público e precisamos de capacitar a sociedade civil para lutar pelos direitos dos indivíduos. Penso que isto faz parte do controlo do poder da tecnologia no século XXI e orientará a inovação. Não é um obstáculo à inovação, mas orienta-a para o interesse público e para uma legalidade intermédia. E é disso que precisamos! Precisamos que as grandes e poderosas empresas tecnológicas aprendam que não é bom andar depressa e quebrar coisas se “quebrar coisas” implicar quebrar a lei. Penso que somos todos a favor da inovação, mas a nossa democracia fica comprometida se permitirmos que actores poderosos perturbem e violem a lei e fiquem impunes. Isso não é bom para a democracia.
Thierry Breton, o comissário europeu para a indústria, escreveu uma carta a Elon Musk, dizendo-lhe que se X continuar a favorecer a desinformação poderá ser alvo de sanções por parte da UE. Musk respondeu que, nesse caso, poderia deixar a Europa e que outros gigantes da tecnologia poderiam ser tentados a fazer o mesmo se não gostassem da regulamentação que a Europa está a criar. Então, qual é o equilíbrio de poder entre os dois? Eu diria que é muito simples, eu sou uma pessoa muito simples neste aspeto: a democracia nunca pode ser chantageada. Se tentarem chantagear-nos, devemos rir-nos deles: se quiserem sair, são livres de sair, e desejo boa sorte a Elon Musk na bolsa se sair da Europa. Felizmente, continuamos a ser um mercado muito grande e lucrativo, por isso, se ele puder dar-se ao luxo de sair: adeus Elon Musk, desejamos-lhe tudo de bom. E quanto ao perigo do uso não convencional da IA? Sim, “não convencional” significa a utilização para a guerra. É claro que isso é um perigo, há um trabalho sobre isso nas Nações Unidas, e as armas que estão a ficar fora de controlo são um problema para qualquer pessoa que entenda de segurança e de como os militares funcionam: os militares querem ter controlo sobre as suas armas. No passado, tivemos países que assinaram acordos multilaterais, não só sobre a não proliferação de armas atómicas, mas também sobre pequenas armas e armas que ficam fora de controlo, como as minas terrestres. Penso que, no interesse comum do mundo, da humanidade e da governabilidade, precisamos de fazer progressos no que se refere às regras de utilização da IA para fins militares. Estas conversações são difíceis, por vezes podem levar anos, em alguns casos até décadas, para se chegar a acordos, mas penso que, eventualmente, precisamos de regras para as armas autónomas e, neste contexto, também para a IA. Para voltar ao que Chris Wiley disse no artigo que mencionámos: a atual abordagem regulamentar não funciona porque “trata a inteligência artificial como um serviço, não como uma arquitetura”. Partilha desta opinião? Eu diria que a fasquia para o que funciona e o que não funciona, e o que se considera estar a funcionar e não estar a funcionar no direito tecnológico não deve ser mais elevada do que em qualquer outro campo do direito. Todos sabemos que temos leis fiscais e tentamos aplicá-las o melhor possível. Mas sabemos que há muitas pessoas e empresas que não pagam os seus impostos… Temos leis de propriedade intelectual e nem sempre são cumpridas. O homicídio é algo que é altamente punido, mas as pessoas estão a ser assassinadas diariamente. Por isso, penso que no direito tecnológico não devemos cair na armadilha que é o discurso da indústria tecnológica segundo o qual “preferimos não ter lei do que ter uma má lei”, sendo que uma má lei é aquela que não pode ser perfeitamente aplicada. A minha resposta é: não há nenhuma lei que funcione perfeitamente e não há nenhuma lei que possa ser perfeitamente aplicada. Mas isso não é um argumento contra a existência de leis. As leis são o ato de fala mais nobre da democracia, o que significa que são um compromisso. São um compromisso com os interesses dos lóbis, que estas empresas transportam para o Parlamento e que são assumidos mais por uns partidos do que por outros. E porque as leis são compromissos, não são perfeitas nem do ponto de vista científico, nem do ponto de vista funcional. São criaturas da democracia e, no final, eu diria que é melhor chegarmos a acordo sobre uma lei, mesmo que muitos a considerem imperfeita. Em Bruxelas, dizemos que se no final todos estiverem a gritar: as empresas a dizer “isto é um obstáculo demasiado grande à inovação” e a sociedade civil a pensar que é um sucesso do lóbi, então provavelmente conseguimos chegar mais ou menos ao meio. Veja o vídeo do Voxeurop Live com Paul Nemitz aqui.
