TechScape: las imágenes creadas por IA significan que ver ya no es creer

CHRIS STOKEL-WALKER. THE GUARDIAN

Algo extraño sucedió la semana pasada cuando buscaste “hombre tanque” en Google.

Toque los resultados de las imágenes y, en lugar de las fotos habituales de la Plaza de Tiananmen en Beijing y la imagen icónica de un valiente manifestante mirando hacia un convoy de tanques que fue capturada en 1989, el primer resultado fue el mismo momento histórico, pero desde un punto diferente. de vista.

Durante un tiempo la semana pasada, el primer resultado en Google Imágenes para “hombre tanque” fue en cambio una imagen generada por IA del mismo manifestante, tomándose una selfie frente al tanque. La imagen fue creada por Midjourney y tenía al menos seis meses. Reportado por primera vez por 404 Media, una nueva startup de periodismo tecnológico creada por ex empleados de Vice News, la aparición de la selfie del hombre del tanque, que posteriormente Google eliminó de los resultados de búsqueda por “hombre del tanque”, destacó uno de los principales temores que Eddie Pérez, El ex jefe de integridad electoral de Twitter, me destacó en una entrevista reciente en un podcast : ahora es posible, con el uso de imágenes de IA, crear una historia alternativa. Y eso tiene enormes ramificaciones no sólo en nuestras vidas, sino también en nuestras elecciones .

Cuando habló conmigo, Pérez estaba preocupado por el uso deliberado de imágenes de IA para engañar a los votantes haciéndoles creer en hechos alternativos: la desinformación. Pero el incidente del hombre del tanque fue un ejemplo de información errónea de la IA: contenido publicado de manera inocua, dentro de un contexto que dejaba claro cómo se hizo, pero que luego fue despojado de ese contexto y presentado como algo más.

Las imágenes son una herramienta tan poderosa y aterradora a la que debe enfrentarse la IA debido a un puñado de viejas máximas. Uno: una imagen vale más que mil palabras. ¿El otro? Ver para creer.

Es fácil descartar una historia si solo estás leyendo sobre ella. Si lo ves con tus propios ojos y ves las imágenes incluidas en él, inmediatamente se vuelve más crédulo. Este es un tema que destaqué hace seis meses, cuando las imágenes generadas por IA del arresto de Donald Trump se volvieron virales en las redes sociales . En una era anterior a ChatGPT, cuando las herramientas no estaban disponibles para todos, los llamábamos “deepfakes”.

En aquel entonces, le pregunté al creador de la serie de imágenes, el periodista de Bellingcat Eliot Higgins, cuyo trabajo consistía en encontrar agujeros en las cualidades desinformativas de la propaganda rusa, si le preocupaba estar contribuyendo al problema de las noticias falsas. En ese momento no lo era, considerando que siempre había obsequios que resaltarían una imagen que era producto de la IA.

Hoy en día, todavía no le preocupa que la gente juegue con la herramienta en las redes sociales, pero sí que los políticos utilicen herramientas de inteligencia artificial para crear fotografías que dañen a sus oponentes. (La campaña de Ron DeSantis ya lo ha hecho ). “Supongo que veremos a medida que avancen las elecciones estadounidenses qué tan mal se ponen”, dice, “pero no creo que los partidarios de Trump sean tímidos a la hora de utilizar imágenes generadas por IA”.

Por cierto, hay cierta ironía en la historia del hombre tanque AI.

Durante meses, Igor Szpotakowski, que investiga el derecho chino en la Universidad de Newcastle, ha hablado sobre la forma en que la versión china de herramientas de IA generativa está respondiendo exactamente a las mismas amenazas de reescribir la historia (en este caso, de maneras que al Partido Comunista en el poder tal vez no le gusten). Szpotakowski tiene capturas de pantalla de cómo un modelo de generación de imágenes desarrollado por Baidu, una gigante empresa tecnológica china, creará imágenes en respuesta a un mensaje que le pide que represente “dictadura”, pero no lo hará cuando se le solicite que muestre “democracia y libertad”. “Eso nos dice mucho sobre sus datos de entrenamiento”, dice Szpotakowski.

En tus marcas, fijadas, falsas.

El telón de fondo de la debacle del hombre tanque es el ritmo cada vez mayor en el desarrollo de imágenes de IA, lo que significa que este tipo de tergiversación (tal vez sea mejor decirlo como mala interpretación) probablemente se vuelva más común a medida que aumente la capacidad de poner habilidades artísticas en manos de los menos capacitados. .

Así como las herramientas de texto generativo de IA mejoran cada día, también lo hacen las capacidades de los generadores de imágenes de IA. Uno de los más grandes, DALL-E 3 de OpenAI, se implementará para los suscriptores pagos de ChatGPT Plus en las próximas semanas. Soy uno de esos suscriptores y estoy emocionado de ver lo que ofrece. Twitter parece haber decidido ya que DALL-E 3 es igual y mejor que Midjourney, que anteriormente ha tenido supremacía en la creación de imágenes, hasta el punto de que incluso publican una revista mensual con sus mejores fragmentos .

Sin embargo, hay rumores dentro de la comunidad de IA de que, en respuesta a DALL-E 3, Midjourney también lanzará una actualización masiva que mejora aún más sus capacidades. ¿Podría DALL-E 3 ser un momento ChatGPT para imágenes generativas? Pase lo que pase, parece probable que en breve muchas más personas tengan acceso a estas herramientas.

Una cosa que aún no hemos mencionado es el impacto que esto tiene en los artistas, muchos de los cuales alegan que dichos modelos de generación de imágenes de IA se entrenan con sus datos sin permiso. La semana pasada, para un episodio futuro del podcast Techtonic de Article 19 , hablé con Karla Ortiz, una artista que ha demandado a una trifecta de empresas que promocionan generadores de imágenes de IA. Tendrá que esperar al episodio para saber lo que dijo, pero mientras tanto, vale la pena leer su testimonio de julio de 2023 ante un subcomité del Senado de EE. UU. sobre sus temores por los derechos de autor en la era de la IA.