La IA y los problemas del “capitalismo de vigilancia”

(RANA FOROOHAR. THE FINANCIAL TIMES)

En los últimos días la inteligencia artificial (IA) ha estado en el centro de la conversación a escala mundial, con una importante cumbre en Reino Unido y una nueva orden ejecutiva de la Casa Blanca. Gran parte del debate se centra en cómo las compañías y los reguladores pueden prevenir desastres futuristas, desde una guerra nuclear hasta una pandemia, pero hay un problema en este momento al que se le presta mucho menos atención: cómo asegurarse de que la IA no se coma el almuerzo económico de todos.

No me refiero solo a la disrupción laboral relacionada con la IA que puede producirse en el futuro. Eso, al menos, es un reto conocido. En vez de eso, de lo que hablo es la forma como la inteligencia artificial va a reproducir y aumentar los problemas del capitalismo de vigilancia. Con esto nos referimos a la forma en que los datos y la atención de los usuarios son controlados y monetizados por un puñado de grandes actores tecnológicos que son capaces de obtener ganancias económicas que son desproporcionadas en relación al valor que agregan.

Como demuestran una gran cantidad de acciones antimonopolio en Estados Unidos y Europa, todavía no abordamos este problema en ámbitos como búsquedas en internet, publicidad digital y redes sociales, por no hablar de la inteligencia artificial. Una gran parte de la razón de esto es que “no puedes regular lo que no entiendes”, dice Tim O’Reilly, CEO de O’Reilly Media y profesor visitante de prácticas en el Instituto de Innovación y Propósito Público de la UCL.

En un artículo sobre los dividendos en la “economía de la atención” que se publicó la semana pasada con Mariana Mazzucato e Ilan Strauss, O’Reilly argumenta que “un problema más fundamental que tienen que abordar los reguladores es que no se conocen bien los mecanismos con los que las plataformas miden y administran la atención del usuario”.Para O’Reilly y sus coautores, “una regulación eficaz depende de una mejor divulgación”.

Por un momento dejemos de lado la IA y consideremos las métricas utilizadas por los gigantescos motores de búsqueda, las plataformas de comercio electrónico y las empresas de redes sociales para monetizar la atención. Estos incluyen el número de usuarios y el tiempo que pasan en un sitio, cuánto compran y en respuesta a qué anuncios, la relación entre clics orgánicos y clics en anuncios, cuánto tráfico se envía a sitios externos, el volumen de comercio en un industria determinada y qué porcentaje de las tarifas se destina a vendedores externos.

Cualquier modelo de negocio de vigilancia utilizará estas métricas clave. Y, sin embargo, como señalan los autores, solo las métricas financieras más tradicionales son las que se informan de manera regular y consistente en los documentos públicos. Esto resulta en confusión porque esos informes financieros están “casi completamente desconectados de las métricas operativas que se utilizan para administrar gran parte del negocio”.

Por supuesto, las empresas argumentarán que esas métricas son patentadas y que si fueran conocidas permitirían a terceros manipular sus sistemas, pero, como pretenden demostrar los actuales casos antimonopolio que involucran a grandes compañías de tecnología, dichas partes, junto con los clientes, se han visto perjudicadas. El problema a la hora de medir el daño es que gran parte de la información sobre los modelos de negocio digitales y su funcionamiento es opaca. Y esto es aún más cierto cuando cambiamos el enfoque hacia grandes modelos de lenguaje y la IA generativa. Si bien sus modelos operativos son diferentes a los de los motores de búsqueda o el comercio electrónico, también dependen de la atención del usuario y de la autoridad algorítmica y, como demuestran las conversaciones regulatorias de los últimos días, estos no se entienden bien, ni por sí solos ni en relación entre sí. La orden ejecutiva de la Casa Blanca contiene disposiciones que obligan a los desarrolladores de inteligencia artificial de “modelos base de doble uso” —aquellos que pueden usarse con fines militares o civiles— a proporcionar actualizaciones a los funcionarios del gobierno federal sobre las pruebas de seguridad. Estas pruebas tienen que ser “robustas, confiables, repetibles y estandarizadas”. El Departamento de Comercio de EU tiene la tarea de desarrollar estándares para detectar y etiquetar contenido generado por IA.

Es un buen comienzo pero no es suficiente. El subjefe de gabinete de la Casa Blanca, Bruce Reed, quien dirigió los esfuerzos para la orden ejecutiva, me dijo la semana pasada que querían “hacer todo lo que fuera posible con las herramientas que tenemos” y la administración espera que la orden “ayude a generar consenso en torno a lo que podemos hacer”. Eso puede incluir casos de la Comisión Federal de Comercio sobre el poder monopólico de la IA; la orden exige un “ecosistema de inteligencia artificial justo, abierto y competitivo”.

Pero 30 años después de la llegada del internet de consumo, las plataformas de las grandes compañías de tecnología apenas ahora se enfrentan a demandas por monopolio. Se puede argumentar que necesitamos un poco menos de atención en los peores escenarios del estilo Terminator para la IA y una divulgación de datos económicos mucho más específica para frenar la nueva tecnología aquí y ahora, antes de que ya haya ganado demasiado fuerza. Por ejemplo, las propuestas de la Casa Blanca no abordan los daños económicos inmediatos, como el uso de datos protegidos por derechos de autor en modelos de entrenamiento.

Ha habido un intenso debate sobre cómo equilibrar la seguridad y la innovación cuando se trata de IA. Si el departamento de comercio es inteligente, puede utilizar la orden como palanca para obligar a los desarrolladores a abrir sus cajas negras y mostrarnos cómo funcionan estos negocios. Será un paso hacia la identificación de métricas clave para un esquema de divulgación pública, algo imprescindible para una buena regulación. No logramos idear un mejor sistema de contabilidad para el capitalismo de vigilancia. No cometamos ese error con la IA.