¿Por qué será difícil regular la Inteligencia Artificial?

JAMES J. PIMIRRO. EL SOL DE MÉXICO

La capacidad de la nueva generación de sistemas de IA generativa para crear textos e imágenes convincentes pero irreales está disparando las alarmas sobre eventuales casos de fraude y desinformación

El 29 de marzo, un grupo de investigadores y figuras públicas instaron a la industria a detener la capacitación adicional de las últimas tecnologías de IA o, salvo eso, a los gobiernos a “imponer una moratoria”.

Estas tecnologías, generadores de imágenes como DALL-E, Midjourney y Stable Diffusion, y generadores de texto como BardChatGPT, Chinchilla y LLaMA, ahora están disponibles para millones de personas y no requieren conocimientos técnicos para su uso.

Dado el potencial de daño generalizado a medida que las empresas de tecnología implementan estos sistemas de inteligencia artificial y los prueban en el público, los formuladores de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo.

The Conversation pidió a tres expertos en política tecnológica que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.

S. Shyam Sundar, quien es profesor de Efectos de los Medios y Director del Centro para la IA Socialmente Responsable de Penn State, asegura que la razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada.

“La gran cobertura de los medios ha alimentado creencias irracionales sobre las habilidades y la conciencia de la IA. Tales creencias se basan en el sesgo de automatización o la tendencia a bajar la guardia cuando las máquinas están realizando una tarea. Un ejemplo es la vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático”, asegura.

“Numerosos estudios en mi laboratorio han demostrado -continúa- que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacción, desencadena un atajo mental en la mente de los usuarios que llamamos heurística de máquina. Ese atajo es la creencia de que las máquinas son precisas, objetivas, imparciales, infalibles, etcétera”.

 La razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada

Por su parte, Cason Schmit, quien se desempeña como Profesor Asistente de Salud Pública en la Universidad Texas A&M, añade:

“Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipados de la IA. Definir legalmente la IA es importante para identificar qué está sujeta a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable”, apunta.

“También es importante comprender los riesgos y beneficios de la IA -añade-. Las buenas regulaciones deben maximizar los beneficios públicos y minimizar los riesgos. Sin embargo, las aplicaciones de IA aún están surgiendo, por lo que es difícil saber o predecir cuáles podrían ser los riesgos o beneficios futuros. Este tipo de incógnitas hacen que las tecnologías emergentes como la IA sean extremadamente difíciles de regular con las leyes y regulaciones tradicionales”.

“Los legisladores suelen ser demasiado lentos para adaptarse al entorno tecnológico que cambia rápidamente. Algunas leyes nuevas son obsoletas cuando se promulgan o incluso se introducen. Sin nuevas leyes, los reguladores tienen que usar leyes antiguas para abordar nuevos problemas. A veces, esto conduce a barreras legales para los beneficios sociales o lagunas legales para conductas dañinas”.

Otra opción para hacerle frente

Megan Doerr, Jennifer Wagner y yo proponemos una tercera vía: Copyleft AI con Trusted Enforcement (CAITE). Este enfoque combina dos conceptos muy diferentes en propiedad intelectual: licencias copyleft y trolls de patentes.

La licencia de copyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliza licencias copyleft para exigir a los usuarios de IA que sigan pautas éticas específicas, como evaluaciones transparentes del impacto del sesgo.

En nuestro modelo, estas licencias también transfieren el derecho legal de hacer cumplir las infracciones de licencia a un tercero de confianza. Esto crea una entidad de cumplimiento que existe únicamente para hacer cumplir los estándares éticos de IA y puede financiarse en parte con multas por conducta poco ética.

Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamental y se mantiene haciendo cumplir los derechos legales de propiedad intelectual que obtiene de otros. En este caso, en lugar de la aplicación con fines de lucro, la entidad hace cumplir las pautas éticas definidas en las licencias: un “troll para siempre”.

Este modelo es flexible y adaptable para satisfacer las necesidades de un entorno de IA cambiante. También permite opciones de aplicación sustanciales como un regulador gubernamental tradicional. De esta manera, combina los mejores elementos de los enfoques de leyes duras y blandas para enfrentar los desafíos únicos de la IA.

Cuatro preguntas clave

John Villasenor, Profesor de Ingeniería Eléctrica, Derecho, Políticas Públicas y Gestión de la Universidad de California, Los Ángeles, lanza cuatro cuestionamientos para hacerle frente al tema:

1) ¿Es necesaria una nueva regulación específica para la IA? Muchos de los resultados potencialmente problemáticos de los sistemas de IA ya se abordan en los marcos existentes.

2) ¿Cuáles son los riesgos de regular una tecnología que cambia rápidamente en función de una instantánea del tiempo?

3) ¿Cuáles son las posibles consecuencias no deseadas?

4) ¿Cuáles son las implicaciones económicas y geopolíticas?

Considero que las regulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilidades de abordar con éxito los daños potenciales de esta tecnología y al mismo tiempo garantizar el acceso a sus beneficios.

* Profesor de Efectos de los Medios, Codirector, Laboratorio de Investigación de Efectos de los Medios y Director, Centro para la IA Socialmente Responsable, Penn State.