POR NAOMI KLEIN
Los directores ejecutivos de tecnología quieren que creamos que la Intliegencia Artificial (IA) generativa beneficiará a la humanidad. Ellos mismos se están engañando.
Dentro de los muchos debates que giran en torno al rápido despliegue de la llamada inteligencia artificial, hay una escaramuza relativamente oscura centrada en la elección de la palabra “alucinar”.
Este es el término que los arquitectos y promotores de la IA generativa han elegido para caracterizar las respuestas proporcionadas por los chatbots que están completamente fabricados o son completamente incorrectos. Como, por ejemplo, cuando le pides a un bot una definición de algo que no existe y, de manera bastante convincente, te da una, completa con notas al pie inventadas. “Nadie en el campo ha resuelto aún los problemas de alucinaciones”, dijo Sundar Pichai, director ejecutivo de Google y Alphabet, a un entrevistador recientemente.
Eso es cierto, pero ¿por qué llamar a los errores “alucinaciones”? ¿Por qué no basura algorítmica? ¿O fallas? Bueno, la alucinación se refiere a la misteriosa capacidad del cerebro humano para percibir fenómenos que no están presentes, al menos no en términos materialistas convencionales. Al apropiarse de una palabra comúnmente utilizada en psicología, psicodélicos y diversas formas de misticismo, los promotores de la IA, al tiempo que reconocen la falibilidad de sus máquinas, también alimentan la mitología más preciada del sector: que al construir estos grandes modelos de lenguaje y entrenarlos en todo lo que los humanos hemos escrito, dicho y representado visualmente, ellos están en el proceso de dar a luz una inteligencia animada a punto de provocar un salto evolutivo para nuestra especie. ¿De qué otra forma podrían bots como Bing y Bard estar tropezando en el éter?
Sin embargo, las alucinaciones distorsionadas están en marcha en el mundo de la IA, pero no son los bots los que las tienen; son los directores ejecutivos de tecnología quienes los desencadenaron, junto con una falange de sus fanáticos, quienes están en las garras de alucinaciones salvajes, tanto individual como colectivamente. Aquí estoy definiendo la alucinación no en el sentido místico o psicodélico, estados alterados de la mente que de hecho pueden ayudar a acceder a verdades profundas, previamente no percibidas. No. Estas personas simplemente están tropezando: viendo, o al menos afirmando ver, evidencia que no existe en absoluto, incluso conjurando mundos enteros que utilizarán sus productos para nuestra elevación y educación universal.
La IA generativa acabará con la pobreza, nos dicen. Curará todas las enfermedades. Resolverá el cambio climático. Hará que nuestros trabajos sean más significativos y emocionantes. Dará rienda suelta a vidas de ocio y contemplación, ayudándonos a recuperar la humanidad que hemos perdido a causa de la mecanización del capitalismo tardío. Acabará con la soledad. Hará que nuestros gobiernos sean racionales y receptivos. Estas, me temo, son las verdaderas alucinaciones de la IA y todos las hemos estado escuchando en bucle desde que se lanzó Chat GPT a fines del año pasado.
Temible herramienta de mayor despojo y expolio
Existe un mundo en el que la IA generativa, como poderosa herramienta de investigación predictiva y ejecutora de tareas tediosas, podría organizarse para beneficiar a la humanidad, a otras especies y a nuestro hogar compartido. Pero para que eso suceda, estas tecnologías tendrían que implementarse dentro de un orden económico y social muy diferente al nuestro, uno que tuviera como propósito satisfacer las necesidades humanas y la protección de los sistemas planetarios que sustentan toda la vida.
Y como bien entendemos aquellos de nosotros que actualmente no estamos tropezando, nuestro sistema actual no es nada de eso. Más bien, está construido para maximizar la extracción de riqueza y ganancias, tanto de los humanos como del mundo natural, una realidad que nos ha llevado a lo que podríamos considerar como la etapa tecno-necro del capitalismo. En esa realidad de poder y riqueza hiperconcentrados, la IA, lejos de estar a la altura de todas esas alucinaciones utópicas, es mucho más probable que se convierta en una temible herramienta de mayor despojo y expolio.
Profundizaré en por qué es así. Pero primero, es útil pensar en el propósito al que sirven las alucinaciones utópicas sobre la IA. ¿Qué trabajo están haciendo estas historias benévolas en la cultura a medida que nos encontramos con estas nuevas y extrañas herramientas? Aquí hay una hipótesis: son las poderosas y tentadoras historias de tapadera de lo que puede llegar a ser el robo más grande y con más consecuencias en la historia de la humanidad. Porque lo que estamos presenciando es que las empresas más ricas de la historia (Microsoft, Apple, Google, Meta, Amazon…) se apropian unilateralmente de la suma total del conocimiento humano que existe en forma digital y desechable y lo guardan dentro de productos patentados, muchos de los cuales apuntar directamente a los humanos cuya vida de trabajo entrenó a las máquinas sin dar permiso o consentimiento.
Esto no debería ser legal. En el caso del material con derechos de autor que ahora sabemos entrenó a las modelos, se han presentado varias demandas que argumentarán que esto fue claramente ilegal. ¿Por qué, por ejemplo, debería permitirse a una empresa con fines de lucro introducir pinturas, dibujos y fotografías de artistas vivos en un programa como Stable Diffusion o Dall-E 2 para que luego pueda usarse para generar versiones dobles de esos mismos artistas? trabajo, con los beneficios fluyendo para todos menos para los propios artistas?
La pintora e ilustradora Molly Crabapple está ayudando a liderar un movimiento de artistas que desafían este robo. “Los generadores de arte de IA están capacitados en enormes conjuntos de datos, que contienen millones y millones de imágenes con derechos de autor, recopiladas sin el conocimiento de su creador, y mucho menos compensación o consentimiento. Este es efectivamente el mayor robo de arte en la historia. Perpetrado por entidades corporativas de apariencia respetable respaldadas por capital de riesgo de Silicon Valley. Es un robo a la luz del día”, afirma una nueva carta abierta que ella coescribió.
El truco, por supuesto, es que Silicon Valley habitualmente llama al robo “perturbación”, y con demasiada frecuencia se sale con la suya. Conocemos este movimiento: cargar hacia adelante en territorio sin ley; afirma que las reglas antiguas no se aplican a tu nueva tecnología; grita que la regulación solo ayudará a China, todo mientras obtiene sus hechos sólidamente sobre el terreno. Para cuando todos superemos la novedad de estos nuevos juguetes y comencemos a hacer un balance de la ruina social, política y económica, la tecnología ya es tan omnipresente que los tribunales y los legisladores se dan por vencidos.
Lo vimos con el escaneo de libros y arte de Google. Con la colonización espacial de Musk. Con el asalto de Uber a la industria del taxi. Con el ataque de Airbnb al mercado del alquiler. Con la promiscuidad de Facebook con nuestros datos. No pidas permiso, les gusta decir a los disruptores, pide perdón. (Y lubrique las solicitudes con generosas contribuciones de campaña).
En La era del capitalismo de vigilancia, Shoshana Zuboff detalla meticulosamente cómo los mapas de Street View de Google arrasaron con las normas de privacidad al enviar sus automóviles equipados con cámaras para fotografiar nuestras vías públicas y los exteriores de nuestros hogares. Cuando comenzaron las demandas que defendían los derechos de privacidad, Street View ya era tan omnipresente en nuestros dispositivos (y tan genial y tan conveniente…) que pocos tribunales fuera de Alemania estaban dispuestos a intervenir.
Ahora lo mismo que pasó con el exterior de nuestros hogares está pasando con nuestras palabras, nuestras imágenes, nuestras canciones, toda nuestra vida digital. Actualmente, todos están siendo incautados y utilizados para entrenar las máquinas para simular el pensamiento y la creatividad. Estas empresas deben saber que están involucradas en robos, o al menos que se pueda presentar un caso sólido de que lo están. Solo esperan que el viejo libro de jugadas funcione una vez más: que la escala del atraco ya es tan grande y se desarrolla con tanta velocidad que los tribunales y los legisladores una vez más se darán por vencidos ante la supuesta inevitabilidad de todo.
También es por eso que sus alucinaciones sobre todas las cosas maravillosas que la IA hará por la humanidad son tan importantes. Porque esas nobles afirmaciones disfrazan este robo masivo como un regalo, al mismo tiempo que ayudan a racionalizar los peligros innegables de AI.
A estas alturas, la mayoría de nosotros hemos oído hablar de la encuesta que pidió a los investigadores y desarrolladores de IA que calculen la probabilidad de que los sistemas avanzados de IA causen “la extinción humana o una pérdida de poder similar, permanente y grave, de la especie humana”. De manera escalofriante, la respuesta promedio fue que había un 10 % de posibilidades.
¿Cómo se racionaliza ir a trabajar y sacar herramientas que conllevan tales riesgos existenciales? A menudo, la razón que se da es que estos sistemas también conllevan un enorme potencial de ventajas, excepto que estas ventajas son, en su mayor parte, alucinantes. Profundicemos en algunos de los más salvajes.
Alucinación #1: la IA resolverá la crisis climática
Casi invariablemente, encabezando las listas de ventajas de la IA está la afirmación de que estos sistemas resolverán de alguna manera la crisis climática. Hemos escuchado esto de todos, desde el Foro Económico Mundial hasta el Consejo de Relaciones Exteriores y Boston Consulting Group, que explica que la IA “se puede utilizar para ayudar a todas las partes interesadas a adoptar un enfoque más informado y basado en datos para combatir las emisiones de carbono y construir una sociedad más verde. También se puede emplear para reorientar los esfuerzos climáticos globales hacia las regiones de mayor riesgo”. El exdirector ejecutivo de Google, Eric Schmidt, resumió el caso cuando le dijo a Atlantic que valía la pena correr los riesgos de la IA, porque “si piensas en los problemas más grandes del mundo, todos son realmente difíciles: el cambio climático, las organizaciones humanas, etc. Y por eso, siempre quiero que la gente sea más inteligente”.
Según esta lógica, el hecho de no “resolver” grandes problemas como el cambio climático se debe a un déficit de inteligencia. No importa que personas inteligentes, repletas de doctorados y premios Nobel, hayan estado diciendo a nuestros gobiernos durante décadas lo que debe suceder para salir de este lío: reducir nuestras emisiones, dejar el carbono en el suelo, abordar el consumo excesivo de los ricos y el subconsumo de los pobres porque ninguna fuente de energía está libre de costos ecológicos.
La razón por la que este consejo tan inteligente ha sido ignorado no se debe a un problema de comprensión de lectura, o porque de alguna manera necesitamos que las máquinas piensen por nosotros. Es porque hacer lo que la crisis climática exige de nosotros dejaría inutilizados billones de dólares en activos de combustibles fósiles, al tiempo que desafiaría el modelo de crecimiento basado en el consumo en el corazón de nuestras economías interconectadas. La crisis climática no es, de hecho, un misterio o un acertijo que aún no hayamos resuelto debido a conjuntos de datos insuficientemente sólidos. Sabemos lo que se necesitaría, pero no es una solución rápida, es un cambio de paradigma. Esperar a que las máquinas escupan una respuesta más apetecible y/o rentable no es una cura para esta crisis, es un síntoma más de ella.
Elimine las alucinaciones y parece mucho más probable que la IA llegue al mercado de formas que profundicen activamente la crisis climática. En primer lugar, los servidores gigantes que hacen posibles los ensayos instantáneos y las obras de arte de los chatbots son una fuente enorme y creciente de emisiones de carbono. En segundo lugar, a medida que empresas como Coca-Cola comienzan a realizar grandes inversiones para usar IA generativa para vender más productos, se vuelve demasiado claro que esta nueva tecnología se utilizará de la misma manera que la última generación de herramientas digitales: lo que comienza con grandes promesas sobre la difusión de la libertad y la democracia terminan en microanuncios dirigidos a nosotros para que compremos más cosas inútiles que arrojan carbono.
Y hay un tercer factor, este un poco más difícil de precisar. Cuanto más se inundan nuestros canales de medios con falsificaciones profundas y clones de varios tipos, más tenemos la sensación de hundirnos en arenas movedizas informativas. Geoffrey Hinton, a quien a menudo se hace referencia como “el padrino de la IA” porque la red neuronal que desarrolló hace más de una década forma los componentes básicos de los grandes modelos de lenguaje actuales, lo entiende bien. Acaba de dejar un puesto de alto nivel en Google para poder hablar libremente sobre los riesgos de la tecnología que ayudó a crear, incluido, como le dijo al New York Times, el riesgo de que las personas “ya no puedan saber qué es verdad”.
Esto es muy relevante para la afirmación de que la IA ayudará a combatir la crisis climática. Porque cuando desconfiamos de todo lo que leemos y vemos en nuestro entorno mediático cada vez más misterioso, nos volvemos aún menos equipados para resolver problemas colectivos apremiantes. La crisis de confianza es anterior a ChatGPT, por supuesto, pero no hay duda de que la proliferación de falsificaciones profundas estará acompañada por un aumento exponencial de las culturas de conspiración que ya son prósperas. Entonces, ¿qué diferencia habrá si la IA genera avances tecnológicos y científicos? Si el tejido de la realidad compartida se está deshaciendo en nuestras manos, nos encontraremos incapaces de responder con coherencia alguna.
Alucinación #2: la IA brindará un gobierno inteligente
Esta alucinación evoca un futuro cercano en el que los políticos y los burócratas, aprovechando la gran inteligencia agregada de los sistemas de IA, pueden “ver patrones de necesidad y desarrollar programas basados en evidencia” que tienen mayores beneficios para sus electores. Esa afirmación proviene de un artículo publicado por la fundación de Boston Consulting Group, pero se repite dentro de muchos grupos de expertos y consultorías de gestión. Y es revelador que estas empresas en particular, las firmas contratadas por los gobiernos y otras corporaciones para identificar ahorros de costos, a menudo despidiendo a un gran número de trabajadores, hayan sido las más rápidas en subirse al tren de la IA PwC (anteriormente Price water house Coopers) acaba de anunciar una inversión de mil millones de dólares y, según se informa, tanto Bain & Company como Deloitte están entusiasmados con el uso de estas herramientas para hacer que sus clientes sean más “eficientes”.
Al igual que con las afirmaciones climáticas, es necesario preguntarse: ¿la razón por la que los políticos imponen políticas crueles e ineficaces es que sufren de falta de pruebas? ¿Una incapacidad para “ver patrones”, como sugiere el artículo de BCG? ¿No entienden los costos humanos de privar a la atención médica pública en medio de pandemias, o de no invertir en viviendas no comerciales cuando las carpas llenan nuestros parques urbanos, o de aprobar una nueva infraestructura de combustibles fósiles mientras las temperaturas se disparan? ¿Necesitan IA para hacerlos “más inteligentes”, para usar el término de Schmidt, o son lo suficientemente inteligentes como para saber quién financiará su próxima campaña o, si se desvían, financiarán a sus rivales?
Sería muy bueno si la IA realmente pudiera cortar el vínculo entre el dinero corporativo y la formulación de políticas imprudentes, pero ese vínculo tiene mucho que ver con la razón por la cual empresas como Google y Microsoft han podido lanzar sus chatbots al público a pesar de la avalancha de advertencias y riesgos conocidos. Schmidt y otros han estado en una campaña de cabildeo durante años diciéndoles a ambos partidos en Washington que si no son libres de seguir adelante con la IA generativa, sin la carga de una regulación seria, China dejará atrás a las potencias occidentales. El año pasado, las principales empresas tecnológicas gastaron un récord de 70 millones de dólares para cabildear en Washington, más que el sector del petróleo y el gas, y esa suma, señala Bloomberg News, se suma a los millones gastados “en su amplia gama de grupos comerciales, no ganancias y tanques de pensamiento”.
Y, sin embargo, a pesar de su conocimiento íntimo de cómo el dinero da forma a la política en nuestras capitales nacionales, cuando escuchas a Sam Altman, el CEO de OpenAI, creador de ChatGPT, hablar sobre los mejores escenarios para sus productos, todo esto parece ser olvidado. En cambio, parece estar alucinando con un mundo completamente diferente al nuestro, uno en el que los políticos y la industria toman decisiones basadas en los mejores datos y nunca pondrían en riesgo innumerables vidas por ganancias y ventajas geopolíticas. Lo que nos lleva a otra alucinación.
Alucinación #3: se puede confiar en que los gigantes tecnológicos no romperán el mundo
Cuando se le preguntó si estaba preocupado por la frenética fiebre del oro que ChatGPT ya ha desatado, Altman dijo que sí, pero agregó con optimismo: “Ojalá todo salga bien”. De sus compañeros directores ejecutivos de tecnología, los que compiten para sacar a sus rivales de chatbots, dijo: “Creo que los mejores ángeles van a ganar”.
¿Mejores ángeles? ¿En Google? Estoy bastante segura de que la empresa despidió a la mayoría porque publicaban artículos críticos sobre la IA o denunciaban el racismo y el acoso sexual en el lugar de trabajo. Más “ángeles mejores” han renunciado alarmados, recientemente. Eso es porque, contrariamente a las alucinaciones de las personas que más se benefician de la IA, Google no toma decisiones basadas en lo que es mejor para el mundo, sino que toma decisiones basadas en lo que es mejor para los accionistas de Alphabet, que no quieren perderse la última burbuja, no cuando Microsoft, Meta y Apple ya están metidos.
Alucinación #4: la IA nos liberará de la monotonía
Si las alucinaciones benévolas de Silicon Valley parecen plausibles para muchos, hay una razón simple para ello. La IA generativa se encuentra actualmente en lo que podríamos considerar como su etapa de falso socialismo. Esto es parte de un libro de jugadas ahora familiar de Silicon Valley. Primero, crea un producto atractivo (un motor de búsqueda, una herramienta de mapeo, una red social, una plataforma de videos, un viaje compartido…); regalarlo o distribuirlo casi gratis durante algunos años, sin un modelo de negocio viable perceptible (“Juega con los bots”, nos dicen, “¡mira qué cosas divertidas puedes crear!”); haga muchas afirmaciones elevadas sobre cómo lo está haciendo solo porque quiere crear una “plaza del pueblo” o un “común de información” o “conectar a la gente”, todo mientras difunde la libertad y la democracia (y no es “malvado”). Luego observe cómo las personas se enganchan con estas herramientas gratuitas y sus competidores se declaran en bancarrota. Una vez que el campo esté despejado, presente los anuncios dirigidos, la vigilancia constante, los contratos policiales y militares, las ventas de datos de caja negra y las tarifas de suscripción crecientes.
Muchas vidas y sectores han sido diezmados por iteraciones anteriores de este libro de jugadas, desde taxistas hasta mercados de alquiler y periódicos locales. Con la revolución de la IA, este tipo de pérdidas podrían parecer errores de redondeo, con profesores, programadores, artistas visuales, periodistas, traductores, músicos, cuidadores y muchos otros que enfrentan la posibilidad de que sus ingresos sean reemplazados por un código defectuoso.
No se preocupe, los entusiastas de la IA alucinan: será maravilloso. ¿A quién le gusta trabajar de todos modos? La IA generativa no será el final del empleo, se nos dice, solo un “trabajo aburrido”, con chatbots haciendo todas las tareas repetitivas y destructoras del alma y humanos simplemente supervisándolos. Altman, por su parte, ve un futuro donde el trabajo “puede ser un concepto más amplio, no algo que tienes que hacer para poder comer, sino algo que haces como una expresión creativa y una forma de encontrar la realización y la felicidad”.
Esa es una visión emocionante de una vida más hermosa y tranquila, una que comparten muchos izquierdistas (incluido el yerno de Karl Marx, Paul Lafargue, quien escribió un manifiesto titulado El derecho a la pereza). Pero los izquierdistas también sabemos que si ganar dinero ya no es el imperativo que impulsa la vida, entonces debe haber otras formas de satisfacer nuestras necesidades criaturas de refugio y sustento. Un mundo sin trabajos de mierda significa que el alquiler debe ser gratuito, la atención médica debe ser gratuita y todas las personas deben tener derechos económicos inalienables. Y luego, de repente, no estamos hablando de IA en absoluto, estamos hablando de socialismo.
Porque no vivimos en el mundo humanista racional inspirado en Star Trek que Altman parece estar alucinando. Vivimos bajo el capitalismo, y bajo ese sistema, los efectos de inundar el mercado con tecnologías que plausiblemente pueden realizar las tareas económicas de innumerables trabajadores no es que esas personas de repente sean libres para convertirse en filósofos y artistas. Significa que esas personas se encontrarán mirando hacia el abismo, con artistas reales entre los primeros en caer.
Ese es el mensaje de la carta abierta de Crabapple, que llama a “artistas, editores, periodistas, editores y líderes sindicales del periodismo a comprometerse con los valores humanos contra el uso de imágenes de IA generativa” y “comprometerse a apoyar el arte editorial hecho por personas, no granjas de servidores”. La carta, ahora firmada por cientos de artistas, periodistas y otros, afirma que todos, excepto los artistas de élite, encuentran su trabajo “en riesgo de extinción”. Y según Hinton, el “padrino de la IA”, no hay razón para creer que la amenaza no se extenderá. Los chatbots “quitan el trabajo pesado”, pero “podrían quitar más que eso”.
Crabapple y sus coautores escriben: “El arte generativo de IA es vampírico, se deleita con generaciones pasadas de obras de arte incluso mientras chupa la sangre de los artistas vivos”. Pero hay formas de resistir: podemos negarnos a usar estos productos y organizarnos para exigir que nuestros empleadores y gobiernos también los rechacen. Una carta de destacados académicos de la ética de la IA, incluido Timnit Gebru, quien fue despedido por Google en 2020 por desafiar la discriminación en el lugar de trabajo, presenta algunas de las herramientas regulatorias que los gobiernos pueden introducir de inmediato, incluida la transparencia total sobre qué conjuntos de datos se utilizan para capacitar a los modelos Los autores escriben: “No solo debe quedar siempre claro cuando nos encontramos con medios sintéticos, sino que también se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen los datos de capacitación y las arquitecturas modelo… Deberíamos estar construyendo máquinas que funcionen para nosotros, en lugar de ‘adaptar’ la sociedad para que sea legible y escribible por máquinas”.
Aunque a las empresas de tecnología les gustaría que creyéramos que ya es demasiado tarde para revertir este producto de imitación de masas que reemplaza a los humanos, existen precedentes legales y regulatorios muy relevantes que se pueden hacer cumplir. Por ejemplo, la Comisión Federal de Comercio (FTC) de EE.UU. obligó a Cambridge Analytica, así como a Everalbum, el propietario de una aplicación de fotos, a destruir algoritmos completos que se descubrió que habían sido entrenados con datos apropiados ilegítimamente y fotos raspadas. En sus primeros días, la administración de Biden hizo muchas afirmaciones audaces sobre la regulación de la gran tecnología, incluida la represión del robo de datos personales para crear algoritmos patentados. Con una elección presidencial acercándose rápidamente, ahora sería un buen momento para cumplir esas promesas y evitar la próxima serie de despidos masivos antes de que sucedan.
Un mundo de falsificaciones profundas, bucles de mimetismo y desigualdad cada vez mayor no es inevitable. Es un conjunto de opciones de política. Podemos regular la forma actual de chatbots vampíricos para que no existan y comenzar a construir el mundo en el que las promesas más emocionantes de la IA serían más que alucinaciones de Silicon Valley.
Porque entrenamos las máquinas. Todos nosotros. Pero nunca dimos nuestro consentimiento. Se alimentaron del ingenio, la inspiración y las revelaciones colectivas de la humanidad (junto con nuestros rasgos más venales). Estos modelos son máquinas de encierro y apropiación, devorando y privatizando nuestras vidas individuales así como nuestras herencias intelectuales y artísticas colectivas. Y su objetivo nunca fue resolver el cambio climático o hacer que nuestros gobiernos sean más responsables o que nuestra vida cotidiana sea más tranquila. Siempre fue para sacar provecho de la miseria masiva, que, bajo el capitalismo, es la consecuencia evidente y lógica de reemplazar las funciones humanas con bots.
¿Es todo esto demasiado dramático? ¿Una resistencia sofocante y reflexiva a la innovación emocionante? ¿Por qué esperar lo peor? Altman nos tranquiliza: “Nadie quiere destruir el mundo”. Talvez no. Pero como el clima cada vez peor y las crisis de extinción nos muestran todos los días, muchas personas e instituciones poderosas parecen estar bien sabiendo que están ayudando a destruir la estabilidad de los sistemas de soporte vital del mundo, siempre que puedan seguir haciendo ganancias récord que creen que los protegerá a ellos y a sus familias de los peores efectos. Altman, como muchas criaturas de Silicon Valley, es un preparador: en 2016, se jactó: “Tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras de gas de las Fuerzas de Defensa de Israel y una gran extensión de tierra en Big Sur donde puedo volar”.
Estoy bastante segura de que esos hechos dicen mucho más sobre lo que Altman realmente cree sobre el futuro que está ayudando a desatar que las floridas alucinaciones que elige compartir en las entrevistas de prensa.
The Guardian
.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.