La democracia en la era de la inteligencia artificial
Nueva Sociedad 294 / Julio - Agosto 2021
En vista de la creciente expansión de la inteligencia artificial en las sociedades modernas, resulta necesario discutir cómo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso dependerá en gran medida de las formas de regulación elegidas.
Así como debe hacerse una clara diferenciación entre internet como tal, una estructura tecnológica que conecta personas e información, y lo que sucede en internet, también debe hacerse una diferenciación entre el potencial teóricamente positivo de la inteligencia artificial y los usos para los cuales se la desarrolla actualmente. Por lo tanto, un análisis diferenciado debe ir más allá de una mera enumeración de las ventajas de la internet gratuita o los beneficios teóricos de la inteligencia artificial y tener en cuenta los efectos reales de las nuevas tecnologías digitales y modelos de negocio en el área de internet e inteligencia artificial.
Por tanto, la influencia de las empresas vinculadas a la inteligencia artificial no solo se limita a la tecnología subyacente, sino que también atraviesa el ámbito social. Es por ello que la concentración de poder tecnológico, económico y político en manos de los «cinco temibles» (Amazon, Apple, Facebook, Google, Microsoft), que ocupan el centro de la escena del desarrollo y uso comercial de la inteligencia artificial, tiene una especial importancia en este contexto.
Ambición de poder
Las megacorporaciones digitales no solo son capaces de ejercer una influencia política y social masiva, tienen también los recursos financieros para comprar nuevos desarrollos y startups en el campo de la inteligencia artificial y en todas las demás áreas relevantes para su modelo de negocio, y eso es exactamente lo que hacen. Su pretensión de concentrar poderío y controlar pone en desventaja al cuarto poder: el periodismo clásico, que es tan importante para la democracia. Su selectivo negocio de publicidad priva al periodismo de su sustento. Es cierto que no son la única razón de la muerte de los periódicos y del retroceso del periodismo clásico tanto en Europa como en Estados Unidos, pero son uno de los principales factores. Si bien es posible que algunas de sus investigaciones fundamentales sobre inteligencia artificial sean de acceso público, el trabajo mucho más elaborado sobre aplicaciones comerciales de inteligencia artificial se realiza en secreto. Los presupuestos en esta área superan con creces la inversión pública de muchos países. Esta acumulación de poder en manos de unos pocos debe ser observada de modo abarcativo: incluye el poder del dinero, el poder sobre la infraestructura democrática y el discurso público, el poder sobre los individuos a través de la elaboración de perfiles precisos y la supremacía en el campo de la inteligencia artificial. Los gigantes de internet han tenido logros sin precedentes como empresas: buena parte de su producción no está regulada, son dominantes en su mercado y son las empresas más rentables en la bolsa de valores. Tienen una inmensa influencia en la formación de opinión y en la política, al tiempo que han conservado su popularidad entre el público.
La cultura predominante de Silicon Valley sigue la «ideología californiana». Sus raíces se remontan al movimiento juvenil de la década de 1960. Parte de las metas de este movimiento era liberarse del dominio político de Washington y del dominio tecnológico de ibm, la empresa de tecnología líder en ese entonces. En esencia, había un gran anhelo de libertad personal y de capacidad individual para actuar como efecto de la descentralización. El desarrollo de la primera computadora personal (pc) y el multipremiado spot publicitario de la Apple Macintosh realizado por el reconocido director Ridley Scott, en el que una joven se libera del «Gran Hermano» («Y verás por qué 1984 no será como 1984»), son una expresión de esta búsqueda de libertad individual y autorrealización, lejos de los imperativos sociales y de la dependencia del Estado. En su famosa «Declaración de independencia del ciberespacio», John Perry Barlow, activista estadounidense por los derechos civiles y compositor de la banda de rock Grateful Dead, rechazó cualquier regulación legal de internet. Alegaba que las formas tradicionales de gobierno, que –diríamos– pueden existir únicamente sobre la base de la ley y el orden, «no tienen soberanía donde nosotros (los actores del ciberespacio) nos reunimos». No fue casualidad que esta declaración se hiciera pública en 1996 en el marco del Foro Económico Mundial de Davos.
La lucha contra las leyes
Esta idea también fue retomada en el discurso jurídico. David R. Johnson y David G. Post, jurisconsultos especializados en espacio digital, afirmaron que si los usuarios quieren establecer reglas en internet y estas no dañan a los no usuarios, entonces «la ley del mundo físico debería ser revocada en favor de esta forma de autorregulación». Pero no fue solo la «ideología californiana» lo que alentó el desacato de la ley. La enseñanza de innovaciones disruptivas, muy difundida en las escuelas de negocios, condujo en algún momento a una comprensión de la ley como algo disruptivo. Esta lucha de las empresas tecnológicas y los activistas contra las nuevas leyes, que siguen poniendo la tecnología por encima de la democracia, continúa hasta el día de hoy.
Por ejemplo, Google insistió en que solo se le aplique la ley de California, ya que las búsquedas hechas desde Europa son respondidas desde los servidores californianos. Es más, se argumentó que los resultados de las búsquedas no deberían clasificarse como «tratamiento de datos». La fundamentación: Google no es responsable de los resultados, ya que son producto del algoritmo automatizado y no pueden ser controlados por la empresa. Aquí es donde se hacen evidentes la cosmovisión de la empresa y la manera de concebir el Estado de derecho: en primer lugar, la automatización en forma de algoritmo como servicio protege a la empresa mediadora de cualquier responsabilidad legal. Visto así, el sueño de John Perry Barlow se haría realidad: en la era digital, la tecnología tendría prioridad sobre la jurisprudencia. En segundo lugar, si existiera cualquier forma de vínculo legal, este solo podría existir en relación con un orden global, presumiblemente dominado por la ley estadounidense y administrado por jueces estadounidenses. Este escenario sería ideal para Google. Los costos se reducirían considerablemente, incluso si la empresa operara en diferentes jurisdicciones. Esto estaría totalmente en línea con la idea de construir una única estructura global de internet que no esté dividida en diferentes jurisdicciones o fragmentada por normas nacionales y que sea muy difícil de atacar legalmente para ciudadanos no estadounidenses.
En este contexto, la reacción del Tribunal de Justicia de la Unión Europea (tjue), generalmente entendida como el «retorno de la ley», fue positiva: el Tribunal respondió al argumento de Google manteniéndose en los límites de la cuestión jurídica planteada, pero sin perder de vista las implicaciones más amplias de esta cuestión. Al final, los reclamos de Google fueron rechazados y así se protegieron los derechos fundamentales de los ciudadanos europeos, sobre la base de la larga tradición europea de protección de la privacidad y protección de datos.
Se puede especular sobre si el argumento de Google de no querer asumir la responsabilidad de los resultados del algoritmo de búsqueda fue usado previendo negar toda responsabilidad por los productos de la futura inteligencia artificial autónoma. En cualquier caso, la respuesta del tjue en este caso fue clara. El presidente ejecutivo de Google se pronuncia actualmente en contra de una regulación general de la inteligencia artificial. Alega que tal regulación obstaculizaría la innovación y que solo puede concebirse una regulación específica de la inteligencia artificial por sectores. Lo que olvida es que se presentó el mismo patrón argumentativo contra el Reglamento General de Protección de Datos de la ue. Pero en vano, y con razón. Porque una normativa puramente sectorial deja sin regular demasiadas aplicaciones de la inteligencia artificial de uso general y, en su complejidad, abruma tanto a quien legisla como a la ciudadanía. Primero necesitamos fundamentos horizontales y generales. Luego se podrán agregar especificaciones por sector.
Cuestiones éticas
Cuando se pone todo esto en contexto, hay un denominador común claro: el intento de evitar responsabilidades, tanto en la legislación como en la jurisprudencia. Y todo surge de un pequeño grupo de empresas que tienen en sus manos un poder sin precedentes. El debate sobre las cuestiones éticas de la inteligencia artificial ya ha expuesto los innumerables desafíos en el ámbito de los derechos fundamentales y el Estado de derecho en este contexto. Es evidente que la inteligencia artificial no puede servir al bien público sin reglas claras. El potencial de la inteligencia artificial obliga a no correr los mismos riesgos que cuando se introdujo internet, que en su momento provocó un vacío legal. Las posibilidades de esta nueva tecnología son tan inmensas que pueden causar estragos y daños irreversibles a la sociedad. Pero mientras que hoy la inteligencia artificial es desarrollada por empresas gigantescas con presupuestos de miles de millones, están regresando los ingenuos argumentos con los que se causó mucho daño en las fases tempranas de internet.
También está claro que los numerosos conflictos de intereses entre empresas y público en relación con la inteligencia artificial no pueden resolverse mediante códigos de ética laxos ni autorregulación. Pero eso no significa que las empresas no deban contribuir a la discusión sobre los desafíos éticos y legales. Muchas de las personas que trabajan para estas empresas tienen las mejores intenciones y pueden hacer importantes aportes al debate. También se puede observar una cierta diferenciación en las actitudes hacia la legislación, según sea el modelo de negocio. Microsoft, que gana mucho dinero por servicios al gobierno y la administración pública, se posiciona de manera más constructiva frente al Estado de derecho y la democracia que otras empresas.
En vista de los enormes presupuestos con los que las megacorporaciones están presentes en muchos ámbitos de la ciencia, la sociedad civil y la opinión pública, es importante que todos quienes participan de la gran discusión sobre la regulación de internet y las nuevas tecnologías ofrezcan información clara sobre relaciones laborales, financiamiento u otras transferencias de servicios y expongan de manera abierta los conflictos de intereses.
Resulta sorprendente hasta qué punto los defensores de una legislación sobre inteligencia artificial estuvieron inicialmente a la defensiva, a pesar de que existe una larga historia de regulaciones legales en el ámbito de la tecnología. Todo arquitecto debe, en el curso de sus estudios universitarios, familiarizarse con las normas de construcción para salvaguardar el interés público, por ejemplo, en la construcción de edificios a prueba de derrumbes. Cada automóvil debe superar varias pruebas para garantizar la seguridad vial. La introducción de los cinturones de seguridad obligatorios, muy resistidos por la industria automotriz y los clubes automovilísticos, finalmente redujo a la mitad la cantidad de muertes en carreteras. Una y otra vez, la sociedad ha visto que, ante la aparición de nuevas tecnologías, es la regulación legal y no la desregulación lo que beneficia al interés público.
Los estímulos para reflexionar sobre la inteligencia artificial no solo han demostrado la multitud de exigencias que las nuevas tecnologías imponen a la legislación, la democracia y los derechos individuales. También han dado lugar a algunos catálogos de reglas éticas en esta área. Por ejemplo, Alan Winfield, profesor de Ética Robótica en la Universidad de Bristol, enumera diez códigos de conducta relacionados con la inteligencia artificial. Las últimas contribuciones a esta lista son la declaración del Grupo de Alto Nivel de la Comisión Europea sobre Inteligencia Artificial Fiable del 18 de abril de 2019 y el informe de la Comisión Alemana de Ética de Datos, presentado el 23 de octubre de 2019. Por tanto, no faltan propuestas sobre principios éticos en el tratamiento de la inteligencia artificial.
Un interrogante es si, después de la experiencia con una internet libre de todo marco legal, nuestra democracia debe volver a exponerse al riesgo de una tecnología omnipresente y decisiva, que puede tener efectos negativos sustanciales si no se la regula. A diferencia de internet, la inteligencia artificial no es producto de unos pocos académicos e idealistas, sino de las poderosísimas empresas de internet que la controlan. Mientras tanto, algunos representantes de estas empresas han llegado recientemente a la misma conclusión y han pedido una legislación sobre inteligencia artificial. También la canciller alemana Angela Merkel ha pedido, durante la conferencia del g-7 en Japón, una regulación legal de la inteligencia artificial, tal como lo es el Reglamento General de Protección de Datos (rgpd). La presidenta de la Comisión Europea, Ursula von der Leyen, dijo, a modo de orientación, que la Comisión Europea presentaría una propuesta para regular la inteligencia artificial dentro de los 100 días posteriores a su asunción, ocurrida el 1o de noviembre de 20191.Todos los argumentos que ahora se utilizan en contra de una ley de inteligencia artificial fueron expuestos antes de 1995, cuando se introdujo la primera directiva de protección de datos personales en la ue. Luego se lo volvió a hacer durante las negociaciones sobre el rgpd en los años 2012 a 2016. Ninguno de los argumentos pudo convencer a los legisladores, y con razón. La afirmación de que la ley no puede seguir el veloz ritmo de desarrollo de la tecnología o los modelos comerciales ha sido refutada por la legislación europea tecnológicamente neutra2. El rgpd es un ejemplo de legislación moderna y tecnológicamente neutra, cuyo significado y relevancia evolucionan a la par del progreso tecnológico, incluida la inteligencia artificial.
Falacia y afirmaciones
La afirmación de que el derecho no es lo suficientemente preciso para regular tecnologías complejas y que una ley que no se adentre absolutamente en los detalles de un código preciso y fácil de usar no puede ser una buena ley constituye otra falacia por parte de los programadores. Por definición, el proceso democrático de elaboración de leyes es un acuerdo. El rgpd se negoció, durante el procedimiento parlamentario, sobre la base de casi 4.000 sugerencias individuales de mejora.
Las leyes (generalmente) las hacen personas razonables y, en caso de un conflicto legal, las interpretan jueces razonables. Este proceso abierto de elaboración de leyes y su posterior interpretación le confiere a la ley flexibilidad para adaptarse a las nuevas circunstancias. Las leyes no tienen que reescribirse una y otra vez como los códigos de programación, que deben ser revisados constantemente desde la versión 1.0 en adelante.
Para decirlo claramente: exigir que una ley sea tan precisa o tan rápidamente actualizable como un código de programación es antidemocrático. Esta exigencia ignora tanto el principio de deliberación y acuerdo en una democracia como el tiempo requerido para el debido proceso.
Por cierto, los grupos de presión no tuvieron ningún problema en evaluar los diversos anteproyectos del rgpd de manera completamente contradictoria: por un lado, como demasiado imprecisos para crear seguridad jurídica y, por el otro, como demasiado detallistas y no suficientemente abiertos y flexibles. Estas críticas encontradas prueban que se deber evitar la ley a toda costa recurriendo al descrédito. La afirmación de que la ley es demasiado inflexible para seguir el ritmo de los desarrollos tecnológicos es básicamente una forma más elegante de parafrasear lo que los neoliberales siempre han dicho: no queremos ninguna obligación legal, porque entonces se nos podrían atribuir responsabilidades legales.
Por lo demás, quienes abogan por una ética de la inteligencia artificial afirman lo mismo. El mundo de los negocios no tiene problemas con los códigos éticos, ya que estos carecen de legitimación democrática y no pueden ser impuestos por fuerza de ley. Pero esta es precisamente la principal ventaja del derecho sobre la ética: con la verosímil amenaza de sanciones anima a los desarrolladores a trabajar en pos del interés público.
Toda tecnología tiene que convivir con la realidad de que la ley le marque límites. Es hora de que Silicon Valley y la industria digital de internet acepten esta necesidad democrática. En un momento en que internet y la inteligencia artificial lo atraviesan todo, la falta de regulación de estas tecnologías claves podría significar el fin de la democracia. Las reglas éticas pueden ser una etapa preliminar y una ayuda orientadora en el camino hacia la legislación y pueden proporcionar contenido para leyes posteriores. Pero no pueden reemplazar la ley, carecen de la legitimidad democrática y la naturaleza vinculante con que los gobiernos y los tribunales pueden hacer cumplir las leyes.
Mark Zuckerberg, fundador de Facebook, y Brad Smith, presidente de Microsoft, han pedido recientemente en textos programáticos una legislación. Pero cuando esto se concreta, las empresas vuelven a lanzar la máquina de lobby contra una legislación eficaz para salvaguardar los datos y la privacidad. Esto se pudo observar hace muy poco en eeuu, tanto en California como en el estado de Washington, donde Microsoft tiene su sede. Además del derecho, también habrá espacio para una ética que vaya más allá de lo que exige la ley: las normas éticas internas de las empresas son buenas si son coherentes con la legislación del país en cuestión y si van más allá, por ejemplo, en lo que respecta al interés público.
Muchas de las cosas buenas que quieren hacer las empresas de Silicon Valley son bienvenidas. Pero esto no puede eximirlas de actuar dentro de la ley y el orden y respetando el proceso democrático. También está completamente claro que el rgpd debe aplicarse siempre que la inteligencia artificial trabaje con datos personales. El rgpd contiene derechos importantes para los consumidores sobre cómo se pueden usar sus datos, y estas reglas también influirán en el diseño de una inteligencia artificial. Los principios de protección de datos del rgpd son una guía importante para la inteligencia artificial, al igual que los límites al tratamiento automatizado de datos y los derechos a la información de los afectados. También está cobrando importancia, en lo que respecta a la inteligencia artificial, la evaluación de las consecuencias del tratamiento de datos personales para las personas afectadas, necesaria en determinadas condiciones. En este aspecto, no se necesita ninguna legislación nueva. Sin embargo, los principios del rgpd con respecto a la inteligencia artificial también deben aplicarse al tratamiento mediante inteligencia artificial de datos que no son personales.
En el discurso democrático, no obstante, es igualmente importante saber si el interlocutor es una persona o una máquina. Si las máquinas participan en el discurso político sin ser identificadas como tales, o si se hacen pasar por personas impunemente, puede producirse una grave distorsión del discurso, lo cual sería insostenible para una democracia. Hasta ahora, ninguna ley nos garantiza que seremos informados si quien entabla un diálogo con nosotros en un contexto político es una máquina.
Sin embargo, un discurso político transparente entre personas es la clave de la democracia. El «principio de materialidad» estipula que se debe, por ley, dejar claro si quien está hablando es una máquina o una persona. Las máquinas no identificadas y, más aún, las máquinas disfrazadas de personas deben ser sancionadas. Quienes controlan la infraestructura del discurso político deben asumir la responsabilidad de establecer una transparencia total. Se necesitan nuevas leyes para ello.
Pero podemos ser optimistas en cuanto a que las regulaciones detalladas de la ue para la lucha contra la discriminación y la protección del consumidor también se aplicarán en el campo de la inteligencia artificial. Teniendo en cuenta esto, es necesario considerar algunos principios básicos de la legislación sobre la inteligencia artificial.
Si bien en Europa la ponderación parlamentaria de la tecnología basada en el principio de responsabilidad de Hans Jonas es ya una rutina y considera que la evaluación del impacto es un elemento clave del principio de precaución, esto no es así en eeuu. Allí, la Oficina de Evaluación de Tecnología (ota, por sus siglas en inglés) se cerró durante el gobierno de Ronald Reagan, una victoria temprana para el movimiento anticiencia. Hillary Clinton anunció en su campaña electoral de 2016 que quería reabrir este órgano o uno similar.
Evaluación de impacto en tres niveles
En Europa, sin embargo, siguen vigentes el principio y el método de evaluación de los efectos a corto y largo plazo de las nuevas tecnologías y el consiguiente asesoramiento político. La Red de Evaluación de Tecnología Parlamentaria Europea (epta, por sus siglas en inglés) reúne los métodos y las evaluaciones de impacto para los parlamentos europeos en una base de datos común. Para fortalecer la confianza en la tecnología en la era de la inteligencia artificial, en tiempos en que la tecnología gana cada vez más terreno en todas las áreas de nuestras vidas, es necesaria una evaluación de impacto en tres niveles.
Primero, como se ha descripto, una evaluación parlamentaria de impacto en el nivel político y legislativo. El objetivo en este caso es averiguar qué áreas afectará una nueva tecnología y qué debe hacer el Poder Legislativo para que sea preservado el interés público. Idealmente, esta evaluación de impacto debería tener lugar antes de que se utilicen tecnologías de alto riesgo. El poder de decisión con respecto a las consecuencias que han sido examinadas en una evaluación de impacto hecha por expertos debe estar en manos del gobierno o del Poder Legislativo, lo que en el nivel de la ue sería área de responsabilidad de la Comisión y el Consejo, así como del Parlamento a modo de colegislativo.
El segundo nivel se refiere a los desarrolladores y usuarios de nuevas tecnologías. Sería importante que se introdujera en relación con la inteligencia artificial una obligación legal para las empresas de realizar una evaluación de impacto de sus productos. Tal obligación legal ya existe para datos personales que se utilizan en procesos automatizados de toma de decisiones. Esto debería extenderse a todos los ámbitos de la democracia, el Estado de derecho y los derechos fundamentales. Al menos si la inteligencia artificial tiene potencial para ser utilizada en el ámbito del ejercicio público del poder, es decir, en el ámbito democrático y político o en el ámbito de los servicios de interés general, independientemente de si se tratan datos personales o no.
Las evaluaciones de impacto en el nivel de desarrollador y usuario favorecerían la comprensión pública de la inteligencia artificial allí donde actualmente sigue faltando transparencia y conocimiento sobre los efectos. Las evaluaciones también ayudarían a que los directores ejecutivos y desarrolladores admitan el poder que realmente ejercen mediante sus productos. Así podría desarrollarse en la industria tecnológica una nueva cultura de responsabilidad por la democracia, el Estado de derecho y los derechos fundamentales.
Los estándares para ese tipo de evaluaciones de impacto antes de la difusión de la inteligencia artificial deberían establecerse en una ley redactada en términos generales, de manera similar a la obligación de realizar una evaluación de impacto en el rgpd. El Estado debe controlar el cumplimiento y debe haber sanciones severas en caso de incumplimiento. Si la inteligencia artificial va a ser utilizada por el Estado o se va a difundir ampliamente en la sociedad, la evaluación de impacto debería ser publicada. Si la tecnología es de alto riesgo, el gobierno debe realizar sus propios análisis y elaborar un plan para minimizar riesgos. Sin diferenciar entre sector público y privado, la resolución del Parlamento Europeo del 16 de febrero de 2017 con recomendaciones destinadas a la Comisión Europea sobre normas de derecho civil sobre robótica (2015/2103/inl) representa el plan mejor desarrollado hasta la fecha para manejar la inteligencia artificial. Contiene certificaciones ex ante y el marco legal para la investigación, el desarrollo y el uso.
En el tercer nivel, a las personas debería asistirlas el derecho legal de estar informadas sobre la funcionalidad exacta de la inteligencia artificial que están utilizando. ¿Qué lógicas sigue? ¿Cómo afecta su uso los propios intereses o los intereses de terceros? Esta obligación de proporcionar información también debería existir aunque no se estén procesando datos personales. En este caso, ya existe la obligación legal en el rgpd.
En este contexto, debe rechazarse la exigencia de los gigantes tecnológicos de mantener en secreto los modos de funcionamiento y los procesos de toma de decisiones de la inteligencia artificial. Ya existen numerosos proyectos de investigación sobre la explicabilidad de la inteligencia artificial. Y aunque existe al menos la obligación legal de proporcionar información cuando están involucrados actores estatales, la realidad es que las empresas mantienen mayormente en secreto los modos en que funciona su inteligencia artificial y las autoridades públicas no pueden cumplir con su obligación de proporcionar información si quieren utilizar esta tecnología.
Por todas estas razones, necesitamos una profunda evaluación de impacto de la inteligencia artificial en los tres niveles mencionados para seguir adelante con el diálogo entre tecnología y democracia. Esto es crucial en un momento en que la inteligencia artificial se está volviendo omnipresente e influye cada vez más en nuestras vidas. Si del debate público resulta una nueva conciencia de la responsabilidad por la democracia, los derechos fundamentales y el Estado de derecho, entonces la inteligencia artificial se habrá ganado una buena cuota de confianza y aceptación en la sociedad.
-
1.
En 2021 se presentó un proyecto para avanzar en la regulación. Ver Marimar Jiménez: «La ue establece líneas rojas a la inteligencia artificial. ¿Por qué, cuáles son, a quién afectan?», suplemento «Cinco días» en El País, 22/4/2021 [N. del E.].
-
2.
El principio de neutralidad tecnológica sostiene que el Estado no ha de imponer preferencias a favor o en contra de una determinada tecnología [N. del E.].