Paul Nemitz: «La democracia debe prevalecer sobre la tecnología y los modelos de negocio por el bien común
Paul Nemitz es asesor principal del directorio general de Justicia de la Comisión Europea y profesor de Derecho en el Collège d’Europe. Considerado uno de los expertos europeos más respetados en materia de libertad digital, dirigió los trabajos sobre el Reglamento General de Protección de Datos. También es autor, junto con Matthias Pfeffer, de El imperativo humano: poder, libertad y democracia en la era de la Inteligencia Artificial, un ensayo sobre el impacto de las nuevas tecnologías en las libertades individuales y la sociedad.
El imperativo humano: poder, libertad y democracia en la era de la Inteligencia Artificial.
Voxeurop: ¿Diría usted que la inteligencia artificial es una oportunidad o una amenaza para la democracia, y por qué?
Paul Nemitz: Yo diría que una de las grandes tareas de la democracia en el siglo XXI es controlar el poder tecnológico. Tenemos que darnos cuenta de que el poder necesita ser controlado. Hay buenas razones por las que tenemos una historia legal de control del poder de las empresas, los Estados o en los ejecutivos. Sin duda, este principio también se aplica a la IA.
Muchas, si no todas las tecnologías, tienen un elemento de oportunidad pero también conllevan riesgos: lo sabemos por ejemplo con los productos químicos o la energía atómica, que es exactamente por lo que es tan importante que la democracia se haga cargo de enmarcar cómo se desarrolla la tecnología, en qué dirección debe ir la innovación y dónde pueden estar los límites de la innovación, la investigación y el uso. Tenemos una larga historia de limitación de la investigación, por ejemplo sobre agentes biológicos peligrosos, genética o energía atómica: todo esto estaba muy enmarcado, así que no es nada raro que la democracia mire a las nuevas tecnologías como la inteligencia artificial, piense en su impacto y se haga cargo. Creo que es algo bueno.
Entonces, ¿en qué dirección debería regularse la IA? ¿Es posible regular la inteligencia artificial para el bien común y, si es así, cuál sería?
Paul Nemitz: En primer lugar, se trata de la primacía de la democracia sobre la tecnología y los modelos de negocio. Cómo es el interés común en una democracia, se decide exactamente a través de este proceso en una democracia. Los parlamentos y los legisladores son el lugar para decidir la dirección que debe tomar el interés común: la ley es el acto de habla más noble de la democracia.
Hace unos meses, hablando de regulación e IA, algunos magnates de la tecnología escribieron una carta advirtiendo a los gobiernos de que la IA podría destruir a la humanidad si no había reglas, pidiendo regulación. Pero muchos expertos críticos como Evgeny Morozov y Christopher Wylie, en dos historias que publicamos recientemente, dicen que al esgrimir la amenaza de la extinción inducida por la IA, esos gigantes tecnológicos están en realidad desviando la atención del público y de los gobiernos de los problemas actuales con la inteligencia artificial. ¿Estás de acuerdo con eso?
Tenemos que mirar tanto a los retos inmediatos de hoy, de la economía digital, como a los retos para la democracia y los derechos fundamentales: la concentración de poder en la economía digital es un tema actual. La IA contribuye a esta concentración de poder: reúne todos los elementos de la IA, como investigadores y start-ups, en sistemas que funcionan. Hoy tenemos un reto inmediato, que no sólo proviene de la propia tecnología, sino también de las implicaciones de este añadido a la concentración de poder.
Y luego tenemos retos a largo plazo, pero tenemos que considerar ambos. El principio de precaución forma parte de la innovación en Europa, y es una buena parte. Se ha convertido en un principio de legislación y de derecho primario en la Unión Europea, que nos obliga a examinar los impactos a largo plazo de la tecnología y sus consecuencias potencialmente terribles. Si no podemos excluir con certeza que se vayan a producir esas consecuencias negativas, tenemos que tomar decisiones hoy para asegurarnos de que no se produzcan. En eso consiste el principio de precaución, y nuestra legislación también sirve parcialmente a este propósito.
Elon Musk tuiteó que se necesitan desregulaciones integrales. ¿Es esta la forma de proteger los derechos individuales y la democracia?
Para mí, los que ya escribían libros en los que decían que la IA es como la energía atómica antes de poner en el mercado innovaciones como ChatGPT y después pedían regulaciones no sacaron las consecuencias de esto. Si pensamos en Bill Gates, Elon Musk, si pensamos en el presidente de Microsoft Brad Smith, todos ellos tenían muy claros los riesgos y las oportunidades de la IA. Microsoft primero compró una gran parte de la IA abierta y simplemente la sacó al mercado para sacar unos cuantos miles de millones antes de salir y decir «ahora necesitamos leyes». Pero, si se tomara en serio, el paralelismo con la energía atómica habría significado esperar a que existiera una regulación. Cuando se introdujo la energía atómica en nuestras sociedades, a nadie se le ocurrió empezar a explotarla sin que estuviera establecida esa reglamentación. Si repasamos la historia de la regulación legal de la tecnología, siempre ha habido resistencia por parte del sector empresarial. Se tardaron 10 años en introducir los cinturones de seguridad en los coches americanos y europeos, la gente moría porque la industria del automóvil presionaba con mucho éxito, a pesar de que todo el mundo sabía que las muertes se reducirían a la mitad si se introdujeran los cinturones de seguridad.
Así que no me impresiona que algunos empresarios digan que lo mejor del mundo sería no regular por ley: este es el sueño húmedo de los capitalistas y neoliberalistas de este tiempo. Pero democracia significa en realidad lo contrario: en democracia, los asuntos importantes de la sociedad, y la IA es uno de ellos, no pueden dejarse en manos de las empresas y sus normas comunitarias o su autorregulación. Los asuntos importantes de las sociedades democráticas deben ser tratados por el legislador democrático. En eso consiste la democracia.
También creo que la idea de que todos los problemas de este mundo pueden ser resueltos por la tecnología, como hemos escuchado del ex presidente Trump cuando EE.UU. abandonó los acuerdos climáticos en París, es realmente errónea en la política climática, así como en todos los grandes problemas de este mundo. El coronavirus nos ha demostrado que las normas de comportamiento son fundamentales. Tenemos que invertir en ser capaces de ponernos de acuerdo: el recurso más escaso hoy en día para resolver problemas no es la próxima gran tecnología ni toda esta palabrería ideológica. El recurso más escaso hoy en día es la capacidad y la voluntad de las personas para ponerse de acuerdo, en democracia y entre países. Ya sea en la relación transatlántica, ya sea en el derecho internacional, ya sea entre partes que hacen la guerra entre sí para volver a la Paz, éste es el mayor reto de nuestro tiempo. Y yo diría que los que piensan que la tecnología resolverá todos los problemas se dejan llevar por una cierta arrogancia.
¿Es usted optimista de que la regulación a través de un proceso democrático será lo suficientemente fuerte como para frenar las fuerzas desreguladoras de los grupos de presión?
Pongámoslo así: en Estados Unidos, el lobby prevalece. Si escuchas al gran profesor de derecho constitucional Lawrence Lessig sobre el poder del dinero en Estados Unidos y su análisis de por qué ya no sale del Congreso ninguna ley que limite las grandes tecnológicas, el dinero juega un papel muy importante. En Europa todavía somos capaces de ponernos de acuerdo. Por supuesto, el lobby es muy fuerte en Bruselas y tenemos que hablar de ello abiertamente: el dinero que gastan las grandes tecnológicas, cómo intentan influir no sólo en los políticos, sino también en los periodistas y los científicos.
Hay una GAFAM cultura de intentar influir en la opinión pública, y en mi libro he descrito su caja de herramientas con bastante detalle. Están muy presentes, pero yo diría que nuestro proceso democrático sigue funcionando porque nuestros partidos políticos y nuestros parlamentarios no dependen del dinero de las grandes tecnológicas como los parlamentarios estadounidenses. Creo que podemos estar orgullosos de que nuestra democracia siga siendo capaz de innovar, porque legislar sobre estas cuestiones de vanguardia no es una cuestión tecnológica, sino que realmente está en el centro de las cuestiones sociales. El objetivo es transformar estas ideas en leyes que luego funcionen como funcionan las leyes normales: no hay ninguna ley que se cumpla a la perfección. Esto también forma parte de la innovación. La innovación no es sólo una cuestión tecnológica.
Uno de los grandes Leitmotives de la visión de Evgeny Morozovs sobre la inteligencia artificial y la big tech en general es señalar el solucionismo, lo que mencionabas como la idea de que la tecnología puede resolverlo todo. Actualmente, la Unión Europea está debatiendo la ley sobre IA que debería regular la inteligencia artificial. ¿Hacia dónde se dirige esta regulación y sabemos hasta qué punto ha influido en ella el lobby tecnológico? Sabemos que es el mayor lobby en términos de presupuesto dentro de las instituciones de la UE. ¿Podemos decir que la ley sobre IA es la más completa sobre el tema en la actualidad?
Para que haya igualdad de condiciones en Europa, necesitamos una ley, no queremos tener 27 leyes en todos los Estados miembros, así que es una cuestión de igualdad de trato. Yo diría que lo más importante de esta ley sobre IA es que establecemos una vez más el principio de la primacía de la democracia sobre la tecnología y los modelos de negocio. Eso es clave, y por lo demás confío mucho en que el Consejo y el Parlamento Europeo puedan llegar a un acuerdo sobre la versión final de esta ley antes de las próximas elecciones europeas, es decir, en febrero a más tardar.
La Comisión Europea y el Consejo de la Unión Europea se han puesto de acuerdo sobre esta ley.
Evgeny Morozov afirma que lo que preocupa a la mayoría de los expertos es el auge de la inteligencia artificial general (IAG), básicamente una IA que no necesita ser programada y que, por tanto, podría tener un comportamiento impredecible. Sin embargo, partidarios como el fundador de openAI, Sam Altman, afirman que podría turboalimentar la economía y «elevar a la humanidad al aumentar la abundancia».
; ¿Cuál es tu opinión al respecto?Primero, veamos si realmente se cumplen todas las promesas de la IA especializada. No estoy convencido, no está claro cuándo se dará el paso a la AGI. Stuart Russell, autor de «Human Compatible: Artificial Intelligence and the Problem of Control», afirma que la IA nunca podrá hacer operativos principios generales como los principios constitucionales o los derechos fundamentales. Por eso, siempre que haya que tomar una decisión sobre un principio de valor, los programas tienen que diseñarse de tal forma que vuelvan a los humanos. Creo que este pensamiento debería guiarnos a nosotros y a quienes desarrollan la AGI por el momento». También cree que pasarán décadas hasta que tengamos AGI, pero hace el paralelismo con la división del átomo, argumentando que muchos científicos muy competentes decían que no era posible y luego un día, por sorpresa, un científico dio un discurso en Londres y al día siguiente demostró cómo sí era posible. Así que creo que tenemos que prepararnos para esto, y más. Hay muchas fantasías por ahí sobre cómo evolucionará la tecnología, pero creo que lo importante es que las administraciones públicas, los parlamentos y los gobiernos mantengan el rumbo y observen esto con mucha atención.
Necesitamos una obligación con la verdad por parte de quienes están desarrollando estas tecnologías, a menudo a puerta cerrada. Hay una ironía en la legislación de la UE: cuando nos ocupamos de casos de competencia podemos imponer una multa si las grandes empresas nos mienten. Facebook, por ejemplo, recibió una multa de más de 100 millones por no contarnos toda la historia sobre la absorción de WhatsApp. Pero no hay deber de veracidad cuando consultamos como Comisión en la preparación de una propuesta legislativa o cuando el Parlamento Europeo consulta para preparar sus debates o juicios legislativos. Por desgracia, hay una larga tradición de empresas digitales, así como de otras empresas, que mienten en el curso de este proceso. Esto tiene que cambiar. Creo que lo que necesitamos es una obligación legal a la verdad, que también tiene que ser sancionada. Necesitamos un cambio de cultura, porque cada vez dependemos más de lo que nos cuentan. Y si la política depende de lo que cuentan las empresas, entonces tenemos que ser capaces de exigirles que digan la verdad.
¿Tienen alguna repercusión estas multas? Incluso si Facebook es multado con mil millones de dólares, ¿hay alguna diferencia? ¿Empiezan a actuar de manera diferente, qué significa para ellos en términos de dinero, o impacto? ¿Es todo lo que tenemos?
Creo que multar no lo es todo, pero vivimos en un mundo de enorme concentración de poder y necesitamos contrapoder. Y el contrapoder debe estar en el estado, por lo que debemos ser capaces de hacer cumplir todas las leyes, si es necesario con mano dura. Por desgracia, estas empresas sólo reaccionan en gran medida ante la mano dura. Estados Unidos sabe cómo lidiar con el capitalismo: se va a la cárcel cuando se crea un cártel, cuando se acuerdan precios, en Europa no. Así que creo que tenemos que aprender de Estados Unidos en este sentido, debemos estar preparados y dispuestos a hacer cumplir nuestras leyes con mano dura, porque la democracia significa que las leyes se hacen y la democracia también significa que las leyes se cumplen. Y no puede haber excepción para las grandes tecnológicas.
¿Significa eso que deberíamos avanzar hacia un modo más americano?
Significa que debemos tomarnos en serio la aplicación de nuestras leyes y, por desgracia, esto hace que a menudo sea necesario multar. En la ley de competencia podemos multar hasta el 10% de la facturación total de las grandes empresas, creo que eso tiene un efecto. En la ley de privacidad es sólo el 4%, pero creo que estas multas siguen teniendo el efecto de motivar a los miembros del consejo para asegurarse de que sus empresas cumplen.
Dicho esto, no es suficiente: debemos recordar que en una sociedad democrática, el contrapoder proviene de los ciudadanos y de la sociedad civil. No podemos dejar solos a los individuos en la lucha por sus derechos frente a las grandes tecnológicas. Necesitamos la aplicación pública y necesitamos dar poder a la sociedad civil para que luche por los derechos de los individuos. Creo que esto forma parte del control del poder de la tecnología en el siglo XXI y guiará la innovación. No es un obstáculo para la innovación, sino que la orienta hacia el interés público y la legalidad intermedia. Y eso es lo que necesitamos. Necesitamos que las grandes y poderosas empresas tecnológicas aprendan que no es bueno moverse rápido y romper cosas si «romper cosas» implica romper la ley. Creo que todos estamos a favor de la innovación, pero socava nuestra democracia si permitimos que los actores poderosos perturben y violen la ley y se salgan con la suya. Eso no es bueno para la democracia.
Thierry Breton, comisario europeo de Industria, ha escrito una carta a Elon Musk diciéndole que si X sigue favoreciendo la desinformación podría encontrarse con algunas sanciones por parte de la UE. Musk ha respondido que en ese caso podrían abandonar Europa, y que otros gigantes tecnológicos podrían verse tentados a hacer lo mismo si no les gusta la regulación que está estableciendo Europa. Entonces, ¿cuál es el equilibrio de poder entre ambos?
Yo diría que es muy simple, soy una persona muy simple en este sentido: la democracia nunca puede ser chantajeada. Si intentan chantajearnos, simplemente deberíamos reírnos de ellos: si se quieren ir son libres de irse, y le deseo buena suerte en bolsa a Elon Musk si se va de Europa. Afortunadamente seguimos siendo un mercado muy grande y rentable, así que si puede permitirse marcharse: adiós Elon Musk, te deseamos lo mejor.
¿Qué hay del peligro del uso no convencional de la IA?
Sí, «no convencional» significa el uso para la guerra. Por supuesto que es un peligro, se está trabajando en ello en Naciones Unidas, y las armas que se descontrolan son un problema para cualquier persona que entienda de seguridad y de cómo funciona el ejército: el ejército quiere tener control sobre sus armas. En el pasado, los países firmaron acuerdos multilaterales, no sólo sobre la no proliferación de armas atómicas, sino también sobre armas pequeñas y armas que se descontrolan, como las minas terrestres. Creo que por el interés común del mundo, de la humanidad y de la gobernabilidad, necesitamos avanzar en las normas para el uso de la IA con fines militares. Estas conversaciones son difíciles, a veces puede llevar años, en algunos casos incluso décadas llegar a acuerdos, pero finalmente creo que necesitamos normas para las armas autónomas, sin duda, y en este contexto también para la IA.
Volviendo a lo que decía Chris Wiley en el artículo que mencionábamos: el enfoque regulador actual no funciona porque «trata la inteligencia artificial como un servicio, no como una arquitectura». ¿Comparte esa opinión?
Yo diría que el listón de lo que funciona y no funciona, y de lo que se considera que funciona y no funciona en derecho tecnológico no debería ser más alto que en cualquier otro campo del Derecho. Todos sabemos que tenemos leyes fiscales e intentamos aplicarlas lo mejor que podemos. Pero sabemos que hay muchas personas y empresas que se libran de pagar sus impuestos Tenemos leyes de propiedad intelectual y no siempre se cumplen. El asesinato es algo que está muy castigado, pero la gente es asesinada a diario.
Así que creo que en derecho tecnológico no debemos caer en la trampa que es el discurso de la industria tecnológica según el cual «preferimos que no haya ley a que haya una mala ley», siendo una mala ley aquella que no se puede aplicar perfectamente. Mi respuesta a eso es: no hay ninguna ley que funcione perfectamente, y no hay ninguna ley que pueda aplicarse perfectamente. Pero eso no es un argumento contra la existencia de leyes. Las leyes son el acto más noble de la democracia, y eso significa que son un compromiso.
Son un compromiso con los intereses de los lobbies, que estas empresas llevan al Parlamento y que son asumidos por unos partidos más que por otros. Y como las leyes son un compromiso, no son perfectas ni desde el punto de vista científico ni desde el funcional. Son criaturas de la democracia, y al final yo diría que es mejor que nos pongamos de acuerdo en una ley aunque muchos la consideren imperfecta. En Bruselas decimos que si al final todos están gritando: las empresas diciendo «esto es demasiado obstáculo para la innovación» y la sociedad civil pensando que es un éxito del lobby, entonces probablemente lo hayamos conseguido más o menos en el medio.
Mira el vídeo del Voxeurop Live con Paul Nemitz aquí.
