El gran robo de la inteligencia artificial

NAOMI KLEIN. EL PAÍS

Tecnologías como ChatGPT se adueñan del ingenio, la inspiración y las revelaciones colectivas de la humanidad sin nuestro consentimiento. No desembocar en un mundo invadido por manipulaciones y bulos, bucles de imitación y desigualdades agravadas depende de decisiones políticas

En los numerosos debates en torno al rápido lanzamiento de la llamada inteligencia artificial, hay una escaramuza relativamente poco conocida sobre la elección de la palabra “alucinar”. Este es el término que los arquitectos y los promotores de la inteligencia artificial utilizan para calificar las respuestas de los chatbots, que son totalmente inventadas o se equivocan por completo. Como, por ejemplo, cuando le pides a un bot una definición de algo que no existe y te da una respuesta bastante convincente, incluso con notas a pie de página inventadas. “Ninguno de los expertos ha resuelto hasta ahora los problemas de alucinación”, declaró hace poco en una entrevista Sundar Pichai, consejero delegado de Google y Alphabet.MÁS INFORMACIÓN

Todo eso es verdad, pero ¿por qué llamar a los errores “alucinaciones”? ¿Por qué no llamarlos basura algorítmica? ¿O fallos técnicos? Pues porque alucinación indica la misteriosa capacidad del cerebro humano para percibir fenómenos que no están presentes, al menos no de forma convencional y material. Al apropiarse de una palabra de uso común en psicología, psicodelia y diversas formas de misticismo, los impulsores de la IA, aunque reconocen que sus máquinas pueden fallar, alimentan la mitología preferida del sector: que, al construir estos grandes modelos lingüísticos y entrenarlos en todo lo que los seres humanos hemos escrito, dicho y plasmado visualmente, están dando a luz una inteligencia animada que va a desencadenar un salto evolutivo para nuestra especie. Si no, ¿cómo iban a estar los bots como Bing y Bard trastabillando por el éter?

En el mundo de la IA hay alucinaciones retorcidas, sin duda, pero no son los robots los que las padecen, sino los ejecutivos de las empresas tecnológicas que les han dado rienda suelta y su falange de seguidores, atrapados, tanto individual como colectivamente, en unos delirios disparatados. No me refiero a la alucinación en el sentido místico o psicodélico, un estado de alteración mental que incluso puede ayudar a desvelar unas verdades profundas que antes no se percibían. No. Esta gente alucina, sin más: ve —o finge ver— unos hechos completamente inexistentes e incluso conjura unos universos que harían que sus productos contribuyeran a engrandecer y educar a todo el mundo.

Nos dicen que la inteligencia artificial generativa acabará con la pobreza. Curará todas las enfermedades. Solucionará el cambio climático. Hará que nuestro trabajo tenga más sentido y nos entusiasme más. Nos permitirá tener una vida de ocio y contemplación y recuperar la esencia humana que hemos perdido por culpa de la mecanización del tardocapitalismo. Acabará con la soledad. Volverá a nuestros gobiernos racionales y sensibles. Me temo que estas son las auténticas alucinaciones de la IA, las que llevamos oyendo en bucle desde que se presentó ChatGPT, a finales del año pasado.

Existe un mundo en el que la inteligencia artificial generativa, que es una gran herramienta de investigación predictiva y capaz de llevar a cabo las tareas tediosas, podría utilizarse en beneficio de la humanidad, de otras especies y de nuestro hogar común. Ahora bien, para ello, esas tecnologías tendrían que desplegarse en un orden económico y social muy diferente al nuestro, cuyo objetivo fuera satisfacer las necesidades humanas y proteger los sistemas planetarios que sustentan la vida.

Y quienes no estamos alucinando en estos momentos somos muy conscientes de que nuestro sistema actual no tiene nada que ver con eso. Al contrario, está hecho para aumentar al máximo la extracción de riqueza y beneficios —tanto de los seres humanos como del mundo natural—, una realidad que nos ha llevado a lo que podríamos denominar la fase necrotecnológica del capitalismo. En esta realidad de poder y riqueza hiperconcentrados, es mucho más probable que la IA no solo no esté a la altura de todas esas alucinaciones utópicas, sino que acabe siendo una herramienta temible para causar más desposesión y expolio.

Más adelante analizaré por qué. Pero antes conviene pensar en qué propósito tienen las alucinaciones utópicas sobre la IA. ¿Cómo influyen en la cultura estas historias de benevolencia a medida que nos encontramos con estas nuevas y extrañas herramientas? Tengo una hipótesis: son una tapadera que encubre el que quizá sea el mayor robo y el más sustancial de la historia de la humanidad. Porque lo que estamos viendo es a las empresas más ricas de la historia (Microsoft, Apple, Google, Meta, Amazon…) adueñándose unilateralmente de todo el conocimiento humano que existe en formato digital y desechable y encerrándolo dentro de unos productos patentados, que, en muchos casos, atacarán de forma directa a los seres humanos cuyo trabajo de toda una vida ha servido para entrenar a las máquinas, sin que ellos hayan dado su permiso ni su consentimiento.

Esto no debería ser legal. En el caso del material protegido por derechos de autor que, como ahora sabemos, ha servido para entrenar a las máquinas modelo (incluido este periódico), se han presentado varias demandas en las que se alega que esa utilización ha sido claramente ilegal. ¿Por qué, por ejemplo, va a permitirse que una empresa con ánimo de lucro introduzca pinturas, dibujos y fotografías de artistas vivos en un programa como Stable Diffusion o Dall-E 2 con el fin de poder ofrecer después copias exactas de esas obras y de que se beneficie todo el mundo menos los propios artistas?

La pintora e ilustradora Molly Crabapple es una de las que encabezan un movimiento de artistas que luchan contra este robo. “Los generadores de arte de inteligencia artificial se entrenan con unos conjuntos de datos inmensos, millones y millones de imágenes protegidas por derechos de autor, recopiladas sin que lo sepan sus creadores ni, por supuesto, se los compense o se les pida permiso. Es el mayor robo de arte de la historia. Perpetrado por empresas aparentemente respetables respaldadas por capital riesgo de Silicon Valley. Es un robo a plena luz del día”, afirma en una carta abierta de la que es corredactora.

La trampa, por supuesto, es que Silicon Valley dice siempre “disrupción” en vez de robo y se sale demasiadas veces con la suya. La maniobra es conocida: se aventuran en un territorio sin ley, aseguran que las viejas reglas no valen para la tecnología más reciente, claman que la regulación solo sirve para favorecer a China, mientras practican una política de hechos consumados. Para cuando ha pasado la novedad de los nuevos juguetes y empezamos a hacer balance de los destrozos sociales, políticos y económicos que han causado, la tecnología ya es omnipresente, de forma que los tribunales y los responsables políticos se rinden.

Lo hemos visto con las obras de arte y los libros escaneados por Google. Con la colonización espacial de Musk. Con el asalto de Uber al sector del taxi. Con el ataque de Airbnb al mercado del alquiler. Con la promiscuidad de Facebook a la hora de manejar nuestros datos. No hay que pedir permiso, dicen los disruptores, mejor pedir perdón. (Y engrasar las disculpas con generosas contribuciones de campaña).

En La era del capitalismo de la vigilancia, Shoshana Zuboff explica con todo detalle cómo se saltó la aplicación Street View de Google Maps las normas de privacidad cuando envía sus coches provistos de cámaras a fotografiar nuestras vías públicas y el exterior de nuestras casas. Cuando empezaron a presentarse querellas contra la compañía, Street View ya estaba tan implantado en nuestros dispositivos (y era tan estupendo y tan cómodo) que, aparte de los alemanes, hubo pocos tribunales dispuestos a intervenir.

Ahora, lo mismo que pasó con nuestras fachadas está pasando con nuestras palabras, nuestras imágenes, nuestras canciones, toda nuestra vida digital. Todo se confisca y se utiliza para enseñar a las máquinas a simular el pensamiento y la creatividad. Las empresas que lo hacen tienen que saber que están cometiendo un robo o que, por lo menos, hay argumentos de peso para afirmarlo. Pero confían en que vuelva a suceder lo de siempre: que, como la dimensión del atraco ya es tan grande y aumenta a tanta velocidad, los tribunales y las autoridades vuelvan a darse por vencidos ante algo que parece inevitable.

Por eso, también, son tan importantes sus alucinaciones sobre todas las cosas maravillosas que la inteligencia artificial va a hacer por la humanidad. Porque esas nobles proclamas disfrazan este gran robo de regalo, al mismo tiempo que ayudan a racionalizar los peligros innegables de la IA.

La mayoría de nosotros hemos oído hablar del sondeo en el que se pidió a una serie de investigadores y desarrolladores de inteligencia artificial que calculasen la probabilidad de que los sistemas avanzados de IA provoquen “la extinción humana o una privación de poder permanente y grave de la especie humana”. Resulta escalofriante que la respuesta media fuera un 10% de probabilidades.

¿Cómo se puede racionalizar el hecho de ir a trabajar para desarrollar unas herramientas que entrañan tales peligros existenciales? El motivo que se alega suele ser que estos sistemas también pueden tener grandes aspectos positivos; salvo que esos aspectos positivos son, en su mayor parte, producto de alucinaciones. Veamos algunos de los más demenciales.

Alucinación número 1:

La inteligencia artificial solucionará la crisis climática

Las listas de aspectos positivos de la IA empiezan casi siempre con la afirmación de que estos sistemas, no sabemos cómo, resolverán la crisis climática. Lo hemos oído en todas partes, desde el Foro Económico Mundial hasta el Council on Foreign Relations (Consejo de Relaciones Exteriores) estadounidense, pasando por el Boston Consulting Group, que explica que la IA “puede emplearse para ayudar a todas las partes interesadas a adoptar una estrategia mejor documentada y basada en datos para luchar contra las emisiones de carbono y construir una sociedad más ecológica. También puede emplearse para redirigir las campañas mundiales de lucha climática hacia las regiones más expuestas”. El ex director ejecutivo de Google Eric Schmidt resumió el argumento cuando declaró a The Atlantic que los riesgos de la IA merecían la pena porque, “si pensamos en los problemas más graves que tiene el mundo, son todos realmente difíciles: el cambio climático, las organizaciones humanas, etcétera. Por eso siempre quiero que la gente sea más inteligente”.

De acuerdo con este razonamiento, el motivo de que no se hayan podido “resolver” grandes problemas como el cambio climático es un déficit de inteligencia. Da igual que muchas personas inteligentes, llenas de doctorados y premios Nobel, lleven décadas diciendo a nuestros gobiernos lo que hay que hacer para salir de este lío: reducir drásticamente las emisiones, dejar el carbono en el suelo, poner freno al exceso de consumo de los ricos y abordar la falta de consumo de los pobres, porque ninguna fuente de energía está exenta de costes ambientales.

Si se han ignorado estos consejos tan inteligentes no es por un problema de comprensión lectora ni porque necesitemos que las máquinas piensen por nosotros. Es porque, para hacer lo que requiere la crisis climática, habría que abandonar combustibles fósiles por valor de billones de dólares y poner en tela de juicio el modelo de crecimiento basado en el consumo que constituye el centro de nuestras economías. La crisis climática no es ningún misterio ni enigma que todavía no hemos podido resolver porque nos faltan datos. Sabemos lo que se necesita, pero no es una solución rápida, sino un cambio de paradigma. Esperar a que las máquinas nos suelten una respuesta más agradable o rentable no es ningún remedio para esta crisis, sino otro síntoma más.

Si nos quitamos de en medio las alucinaciones, parece mucho más probable que la comercialización de la IA acabe agravando la crisis climática. En primer lugar, los gigantescos servidores que permiten que los chatbots creen de forma instantánea textos y obras de arte son una fuente enorme —cada vez mayor— de emisiones de carbono. En segundo lugar, si las empresas como Coca-Cola empiezan a hacer grandes inversiones con el fin de utilizar la IA generativa para vender más, es evidente que esta nueva tecnología terminará usándose de la misma manera que la última generación de herramientas digitales: una cosa que comienza con altisonantes promesas de extender la libertad y la democracia acaba por enviarnos anuncios superindividualizados para que compremos más cosas inútiles y emisoras de carbono.

Y hay un tercer factor, un poco más difícil de precisar. Cuanto más se inundan nuestros canales mediáticos de deep fakes y clones de diversos tipos, más tenemos la sensación de estar hundiéndonos en unas arenas movedizas informativas. Geoffrey Hinton, a quien suele considerarse “el padrino de la IA” porque la red neuronal que desarrolló hace más de una década forma los cimientos de los grandes modelos lingüísticos actuales, lo sabe bien. Acaba de renunciar a un cargo directivo en Google para poder hablar sin restricciones sobre los peligros de la tecnología que ayudó a crear, incluido, como declaró a The New York Times, el riesgo de que la gente “ya no sea capaz de saber lo que es verdad”.

Hay que tener esto muy en cuenta cuando se oye decir que la inteligencia artificial ayudará a combatir la crisis climática. Porque, si desconfiamos de todo lo que vemos y leemos en este entorno mediático cada vez más raro, estaremos aún menos preparados para resolver los problemas colectivos más acuciantes. Ya había crisis de confianza antes del ChatGPT, por supuesto, pero es indudable que la proliferación de manipulaciones ultrafalseadas (los deep fakes) hará que se disparen las ya florecientes culturas conspiranoicas. Y entonces, ¿qué importará que la IA facilite, o no, avances tecnológicos y científicos? Si el tejido de nuestra realidad común está desintegrándose en nuestras manos, no podremos reaccionar con coherencia.

Alucinación número 2:

La inteligencia artificial proporcionará una gobernanza sensata

Esta alucinación invoca un futuro próximo en el que los políticos y los burócratas podrán utilizar la inmensa inteligencia agregada de los sistemas de IA para “ver los patrones de las necesidades y a partir de esos datos elaborar unos programas” que beneficien más a sus electores. Esta frase procede de un documento publicado por la Fundación Boston Consulting Group, pero están haciéndose eco de ella muchos otros laboratorios de ideas y consultoras. Y es revelador que precisamente las empresas de ese tipo —a las que contratan los gobiernos y otras empresas para que identifiquen maneras de ahorrar costes, lo que muchas veces significa despedir a un gran número de empleados— hayan sido las primeras en subirse al carro de la IA. PwC (antes PricewaterhouseCoopers) acaba de anunciar una inversión de 1.000 millones de dólares, mientras que a Bain & Company y Deloitte parece entusiasmarles el uso de estas herramientas para que sus clientes sean más “eficientes”.

Como en el caso de las afirmaciones sobre el clima, debemos preguntarnos: ¿si los políticos imponen políticas crueles e ineficaces es porque carecen de datos? ¿Por qué son incapaces de “ver patrones”, como sugiere el documento del BCG? ¿Acaso no comprenden el coste humano de privar de fondos a la sanidad pública en medio de una pandemia, o de no invertir en vivienda social cuando nuestros parques están llenos de tiendas de campaña, o de aprobar nuevas infraestructuras de combustibles fósiles cuando las temperaturas se disparan? ¿Necesitan que la IA les haga “más inteligentes”?, por utilizar el término de Schmidt, ¿o precisamente son tan inteligentes que saben quién va a financiar su próxima campaña o, si se desvían de lo acordado, a sus rivales?

Sería estupendo que la IA pudiera cortar de verdad el vínculo entre el dinero de las empresas y la elaboración de políticas insensatas, pero ese vínculo es justo la razón por la que se ha permitido que compañías como Google y Microsoft saquen sus chatbots al mercado a pesar de la avalancha de advertencias y riesgos conocidos. Schmidt y otros llevan a cabo desde hace años una campaña de presión y asegurando a los dos partidos de Washington que, si no se les deja lanzarse adelante con la IA generativa, sin el lastre de una regulación estricta, China adelantará a las potencias occidentales. El año pasado, las principales empresas tecnológicas gastaron nada menos que 70.000 millones de dólares —una cifra récord y superior a la del sector del petróleo y el gas— en hacer labor de presión en Washington, una cantidad, señala Bloomberg News, que se suma a los millones gastados “en su enorme variedad de grupos comerciales, organizaciones sin ánimo de lucro y laboratorios de ideas”.

Y, sin embargo, a pesar de que Sam Altman, director ejecutivo de OpenAI —fabricante de ChatGPT—, conoce a la perfección la influencia política del dinero en nuestras capitales, cuando habla de las perspectivas más optimistas de sus productos, da la impresión de que se olvida de ello. En su lugar, parece tener una alucinación en la que ve un mundo totalmente distinto al nuestro, en el que los políticos y la industria toman decisiones basadas en la información más certera y nunca pondrían en peligro un número sin fin de vidas para obtener beneficios y ventajas geopolíticas. Lo que nos lleva a otra alucinación.

Alucinación número 3:

Podemos fiarnos de que los gigantes tecnológicos no se van a cargar el mundo

Cuando le preguntaron si le preocupaba la fiebre del oro que ha desatado ya ChatGPT, Altman respondió que sí, pero añadió en tono optimista: “Esperemos que todo salga bien”. En cuanto a sus colegas de otras empresas tecnológicas —los que compiten por sacar al mercado sus chatbots rivales—, dijo: “Creo que acabarán triunfando los ángeles buenos”.

¿Los ángeles buenos? ¿En Google? Estoy bastante segura de que la empresa los despidió a casi todos porque publicaban artículos críticos sobre la IA o denunciaban el racismo y el acoso sexual en el lugar de trabajo. Otros “ángeles buenos” han dimitido con gran alarma, el último, Hinton. El motivo es que, en contra de lo que muestran las alucinaciones de las personas que más se benefician de la IA, Google no toma las decisiones que le parecen más convenientes para el mundo, sino las que le parecen más convenientes para los accionistas de Alphabet, que no quieren perderse la última burbuja ahora que Microsoft, Meta y Apple ya están dentro.

Alucinación número 4:

La IA nos liberará de las tareas más monótonas

Si muchos consideran verosímiles las benignas alucinaciones de Silicon Valley, es por una razón muy sencilla. La IA generativa está hoy en la que podríamos denominar su fase de falso socialismo. Forma parte de una estrategia ya conocida en Silicon Valley. Lo primero, crean un producto atractivo (un motor de búsqueda, una herramienta de cartografía, una red social, una plataforma de vídeo, un sistema de vehículos compartidos, etcétera), lo ofrecen gratis o casi gratis durante unos años, sin que se vea ningún modelo de negocio viable (“¡juega con los robots!”, nos dicen, “¡verás qué cosas tan divertidas puedes crear!”); hacen montones de declaraciones altisonantes en el sentido de que lo único que quieren es crear una “plaza pública”, un “espacio común de información” o “conectar a la gente”, además de propagar la libertad y la democracia (y de que no son “malos”). Después, miran cómo se engancha la gente a usar esas herramientas gratuitas mientras sus competidores se declaran en bancarrota. Cuando el campo está despejado, llegan los anuncios individualizados, la vigilancia constante, los contratos policiales y militares, la venta de datos de caja negra y el aumento de las cuotas de suscripción.

Otras versiones anteriores de este manual de estrategia han diezmado ya vidas y sectores muy numerosos, desde los taxistas hasta el mercado del alquiler y los periódicos locales. Con la revolución de la IA, este tipo de pérdidas podrían parecer errores de redondeo, y serán muchos profesores, programadores, artistas visuales, periodistas, traductores, músicos, cuidadores y otros los que se encontrarán con la perspectiva de quedarse sin sus ingresos para que los sustituya un código defectuoso.

No hay que preocuparse, alucinan los entusiastas de la IA: será maravilloso. Pero si a nadie le gusta trabajar. Nos dicen que la IA generativa no acabará con el empleo, sino con el “trabajo aburrido”: los chatbots harán todas las tareas repetitivas que nos comen la moral y los seres humanos se limitarán a supervisarlas. Altman prevé un futuro en el que el trabajo “puede ser un concepto más amplio, no algo que tenemos que hacer para poder comer, sino como forma de expresión creativa y de encontrar la plenitud y la felicidad”.

Es una imagen fascinante de una vida más bella y tranquila, que muchos izquierdistas comparten (incluido el yerno de Karl Marx, Paul Lafargue, que escribió un manifiesto titulado El derecho a la pereza). Pero las personas de izquierdas también sabemos que, para que ganar dinero deje de ser un imperativo, nuestras necesidades de vivienda y sustento deben satisfacerse de otra forma. Un mundo sin trabajos desagradables significa que el alquiler tiene que ser gratis, la sanidad tiene que ser gratuita y todo el mundo debe tener derechos económicos inalienables. Y de repente ya no estamos hablando de IA; estamos hablando de socialismo.

Porque no vivimos en el mundo racional y humanista de Star Trek que parece ocupar las alucinaciones de Altman. Vivimos en un mundo capitalista, un sistema en el que, si se inunda el mercado de tecnologías capaces de desempeñar con credibilidad las funciones económicas de muchísimos trabajadores, la consecuencia no es que esas personas de repente tengan libertad para ser filósofos y artistas, sino que se van a encontrar frente al abismo; y los verdaderos artistas serán los primeros en caer.

Ese es el mensaje de la carta abierta de Crabapple, que pide a “los artistas, editores, periodistas, directores y líderes de los sindicatos periodísticos que se comprometan a defender los valores humanos frente al uso de imágenes generadas por IA” y “a apoyar el arte editorial creado por personas, no por granjas de servidores”. La carta, que ya han firmado cientos de artistas, periodistas y otros, afirma que el trabajo de todos los artistas, salvo de los que están en la cumbre, está “en peligro de extinción”. Y según Hinton, el “padrino de la IA”, no hay motivos para creer que la amenaza se va a quedar ahí. Los chatbots quitan “el trabajo rutinario”, pero “quizá arrebaten más cosas”.

Crabapple y sus coautores escriben: “El arte generativo de la IA es vampírico, se alimenta con voracidad de las obras de arte creadas antes, al mismo tiempo que chupa la sangre de los artistas vivos”. Pero hay formas de resistir: podemos negarnos a utilizar estos productos y organizarnos para exigir que nuestras empresas y nuestros gobiernos también los rechacen. Una carta escrita por destacados especialistas en la ética de la IA, entre los que está Timnit Gebru, a la que despidieron de Google en 2020 por oponerse a la discriminación en el lugar de trabajo, da a conocer algunas herramientas reguladoras a las que los gobiernos pueden recurrir cuanto antes, incluida la transparencia total sobre qué conjuntos de datos se están utilizando para entrenar los modelos. Los autores de la carta escriben: “No solo debe quedar siempre claro cuándo estamos ante medios artificiales, sino que también debe exigirse a las organizaciones que construyen estos sistemas que anoten y divulguen los datos del entrenamiento utilizado y la arquitectura de los modelos (…) Debemos construir unas máquinas que trabajen para nosotros, en vez de adaptar la sociedad para que las máquinas puedan leerla y escribirla”.

Aunque las empresas tecnológicas quieran hacernos creer que ya es demasiado tarde para retirar este producto de imitación masiva que pretende sustituir al ser humano, existen precedentes legales y normativos muy relevantes. Por ejemplo, la Comisión Federal de Comercio de Estados Unidos (FTC) obligó a Cambridge Analytica y a Everalbum —propietaria de una aplicación de fotos— a destruir en su totalidad unos algoritmos a los que se había entrenado con datos obtenidos de forma ilegítima y fotos copiadas. En sus primeros momentos, el Gobierno de Biden hizo muchas declaraciones rimbombantes sobre la regulación de las grandes empresas tecnológicas, entre otras cosas para impedir el robo de datos personales con el fin de crear algoritmos patentados. Ahora que se acercan las elecciones presidenciales, sería un buen momento para cumplir esas promesas y evitar la próxima oleada de despidos masivos antes de que se produzcan.

No es inevitable tener que desem­bocar en un mundo de manipulaciones ultrafalseadas, bucles de imitación y agravamiento de las desigualdades. Depende de una serie de decisiones políticas. Podemos regular la variante actual de chatbots vampíricos para que desaparezcan y empezar a construir un mundo en el que las promesas de la IA que más ilusión despiertan no se limiten a ser alucinaciones de Silicon Valley.

Porque nosotros hemos entrenado a las máquinas. Todos nosotros. Pero nunca hemos dado nuestro consentimiento. Se han alimentado del ingenio, la inspiración y las revelaciones colectivas de la humanidad (además de otros rasgos más materiales). Estos modelos son máquinas de acoso y apropiación, que devoran y privatizan nuestra vida personal y nuestro legado intelectual y artístico colectivo. Y su objetivo nunca ha sido resolver el cambio climático ni hacer que nuestros gobiernos sean más responsables o que nuestra vida cotidiana sea más tranquila, su objetivo ha sido siempre aprovecharse del empobrecimiento generalizado, que es a lo que manifiestamente conduce, en el capitalismo, la sustitución de las funciones humanas por robots.

¿Todo esto suena demasiado dramático? ¿Parece una resistencia conservadora y reconcentrada frente a unas innovaciones apasionantes? ¿Por qué esperar lo peor? Altman nos tranquiliza: “Nadie quiere destruir el mundo”. Quizá no. Pero, como nos demuestran con su empeoramiento diario la crisis climática y los procesos de extinción, a muchas personas e instituciones poderosas no parece que les importe saber que están contribuyendo a destruir la estabilidad de los sistemas que sostienen la vida en el mundo, siempre que puedan seguir obteniendo unos beneficios sin precedentes que creen que les protegerán a ellos y a sus familias de las peores consecuencias. El propio Altman, como muchas criaturas de Silicon Valley, es un preparacionista: ya en 2016 presumía de ello: “Tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras de gas de las Fuerzas de Defensa de Israel y un gran pedazo de tierra en Big Sur al que puedo irme volando”.

Estoy segura de que ese dato dice mucho más de lo que Altman piensa verdaderamente sobre el futuro que está ayudando a desencadenar que cualquier florida alucinación que prefiera comunicar en las entrevistas de prensa.

Naomi Klein es autora de los best sellers No logo y La doctrina del shock, profesora de Justicia Climática y codirectora del Centro para la Justicia Climática de la Universidad de Columbia Británica.

© The Guardian

Traducción de María Luisa Rodríguez Tapia.