OpenAI y las tres corrientes

(RODRIGO PACHECO. SUMA DE NEGOCIOS. EXCÉLSIOR)

La saga que comenzó el viernes pasado con el despido de Sam Altman como presidente de OpenAI sorprendió a todos. El instigador del despido fue Ilya Sutskever, cofundador y director científico de OpenAI, quien se arrepintió poco más de 48 horas después. Satya Nadella, CEO de Microsoft, compañía que ha comprometido 13 mil millones de dólares de inversión en OpenAI, se ha mencionado como el beneficiado de la saga, dado que contrató a Sam Altman para encabezar su división de investigación de inteligencia artificial, al mismo tiempo que mantiene la alianza con OpenAI.

Microsoft es una de las mejor posicionadas ante esta nueva era, dado que evitó la inercia institucional, al tiempo que minimizó riesgos reputacionales, pero se beneficia de la velocidad y talento de OpenAI para desplegar innovación en su amplio portafolio de soluciones. Más que beneficiarse de la crisis en OpenAI, Microsoft está fungiendo como un custodio de la empresa, preservando su propio interés. Es muy probable que los tres miembros restantes del Consejo de Administración de OpenAI opten por reinstalar a Sam Altman. No me extrañaría que Elon Musk les esté ofreciendo apoyo moral y hasta capital. No obstante, están obteniendo un enorme rechazo por su decisión.

TRES CORRIENTES

La saga de OpenAI refleja el roce entre tres grandes corrientes relativas a la nueva era de la inteligencia artificial, cuyo hito comenzó el 30 de noviembre con el debut público de Chat GPT, que es un modelo grande de lenguaje natural con inteligencia artificial generativa.

REGULADORES DE CAFÉ

La corriente más numerosa es la que tiene una vaga idea de la tecnología y un miedo alimentado por películas de ciencia ficción, en las que la IA busca eliminar a la humanidad. La reacción fácil e instintiva de un gran número de personas ante la falta de entendimiento, es decir: “Que se regule”, como si por arte de magia se resolvieran los posibles problemas. Como no tienen profundidad para definir el qué, quién y cómo regular, los argumentos en este grupo son huecos, aunque tienen una legitimidad afincada en su número.

APOCALÍPTICOS INTERESADOS

Hay una segunda corriente, que considera que se debe regular con cautela. Aquí el rango va desde los que tienen una visión apocalíptica, como la de Eliezer Yudkowsky, quien plantea que estamos ante el principio del fin, hasta Max Tegmark, quien pidió una pausa de seis meses en el desarrollo de la IA. En esta rama también se encuentra Elon Musk, quien advierte que la IA nos podría convertir en sus mascotas. También están Ilya Sutskever y Sam Altman, quienes plantean mucha cautela y un debate para evitar riesgos catastróficos. Líderes de grandes empresas tecnológicas, como Satya Nadella, de Microsoft; Sundar Pichai, de Google, y Mustafa Suleiman, de Inflection, hablan de cautela, aunque muestran más entusiasmo y optimismo que miedo. Con respecto a la propuesta que apoyó una parte del grupo dos, que firmó una petición para hacer una pausa de seis meses, vale la pena considerar el comentario de Pat Gelsinger, CEO de Intel, quien dice que la carta es el equivalente a que un comerciante veneciano pidiera una pausa para evitar el surgimiento del Renacimiento.

LIBERTARIOS EXTREMOS

Hay un tercer grupo, cuya figura más visible y extrema es Marc Andreessen, el creador de Netscape, quien después cofundó A16z, y quien recientemente publicó el Techno Optimist Manifesto, en donde plantea que no hay que regular nada y avanzar lo más rápido posible. En este grupo está el economista Tyler Cowen, quien argumenta que, para contrarrestar los efectos negativos de la IA, hay que acelerar el desarrollo de la misma para contrarrestar los efectos nocivos y de paso ayudará a resolver problemas como el cambio climático.

EL CHOQUE DE LAS TRES

La saga de OpenAI sacó a la superficie a las tres corrientes y sus distintas variantes. En mi opinión, el conflicto entierra la buena ondita de generar mecanismos de gobernanza bien intencionados, pero poco prácticos, lo que muestra que una regulación supranacional no es posible, aunque sí hay algunos riesgos de consideración, que probablemente se resolverán con alguna regulación local y pragmática, y más tecnología.