El monopolio de la IA lo tienen las empresas privadas, y es un problema

(GINGER JABBOUR. EXPANSIÓN)

“Históricamente, la investigación de la Inteligencia Artificial (IA) estuvo centrada en las universidades. Pero ahora, el costo es tan grande que es imposible que las instituciones educativas puedan seguir haciéndolo”, compartió Wayne Holmes, profesor asociado en la Universidad Pública de Londres y especialista en IA y contextos educativos.

La IA, los algoritmos, los datos, están en todos lados. Son capaces de decirnos qué ver, dónde comprar, qué escuchar y hasta qué pensar. Sin embargo, todo este poder queda en manos de las grandes compañías tecnológicas: Meta, Google, Microsoft, OpenAI, por mencionar algunas, y las universidades han pasado a un segundo plano del desarrollo e investigación de estas tecnologías.

El papel de las universidades en la investigación de la IA

“Uno de los principales riesgos es el monopolio de la información. No sabemos lo que está sucediendo realmente en estos modelos y se están moviendo muy rápido”, compartió Edmond Awad, profesor en el Instituto de ciencias de datos e Inteligencia Artificial en la Universidad de Exeter.

Durante el foro “Construyendo el futuro de la Inteligencia Artificial”, llevado a cabo por la Universidad Iberoamericana, se habló sobre la necesidad de crear una IA más ética; los desafíos de la IA, su uso en la investigación y hasta talleres sobre cómo desarrollarla. Sin embargo, al preguntar a los profesores investigadores, estuvieron de acuerdo en una cosa: no se puede conocer a profundidad qué está pasando dentro de las Big Techs con la IA.

Pero esto no es exclusivo de la Universidad Iberoamericana. Existen pocos estudios académicos sobre el desarrollo de la IA. Irónicamente, de los pocos encontrados corresponden a Q. Vera Liao, investigadora principal en el Centro de Investigación de Microsoft en Montreal, que se titula “Transparencia en la Inteligencia Artificial en la Era de los LLMs: Un Plan de Investigación Centrado en el Ser Humano”.

En este estudio, Liao habla sobre los “LLM”, una abreviatura que se utiliza para referirse a un “Large Language Model” en inglés, que en español significa “Modelo de Lenguaje Grande”. Un LLM es un tipo de modelo de inteligencia artificial que ha sido entrenado para comprender y generar lenguaje humano de manera muy avanzada y se utiliza para entrenar, por ejemplo, a ChatGPT.

Liao resalta que uno de los riesgos de la investigación privada es la falta de transparencia de los LLMs y esto es por varias razones: los modelos cuentan con capacidades y comportamientos inciertos y complejos; requieren de arquitecturas masivas y opacas; son aplicaciones nuevas y complejas; y la necesidad de evolucionar rápidamente.

De acuerdo con la autora, este es un problema que viene de las mismas compañías, que exigen que los productos sean lanzados rápidamente y por ello la transparencia puede pasar de alto.

Reconoció que, aunque los esfuerzos para desarrollar LLMs de código abierto (es decir, que están a disposición del público) están creciendo, la mayoría de los LLMs más poderosos fueron desarrollados por grandes empresas tecnológicas u otras organizaciones no académicas, lo que hace imposible acceder a su funcionamiento interno, por ejemplo, pesos y parámetros.

En muchos casos, detalles como el tamaño, la composición y la procedencia de los datos de entrenamiento, el número de parámetros y los recursos necesarios para entrenar el modelo tampoco se comparten públicamente. “En esencia, estos modelos solo se pueden explorar de manera opaca, lo que puede no ser suficiente para cumplir con los requisitos de transparencia de las partes interesadas y plantea desafíos para la comunidad de investigación a la hora de desarrollar enfoques de transparencia”, escribió Liao.

OpenAI, la empresa madre de ChatGPT y Dall-e, nació como una ONG de investigación por las preocupaciones de Elon Musk y Sam Altman sobre la posible catástrofe que podía causar el uso inapropiado de la IA. De hecho, se llama así porque en sus inicios su propósito fue ser un código abierto para que cualquiera accediera a las investigaciones de esta empresa.

Pero desde la adquisición de Microsoft, la empresa perdió completamente este enfoque y, de acuerdo con su página web , actualmente son una nueva empresa de “beneficios limitados” cuyo propósito es “asegurar que la inteligencia artificial general (IAG) beneficie a toda la humanidad, principalmente intentando construir una IAG segura y compartir sus beneficios con el mundo”, pero ya no mencionan nada acerca de las investigaciones.

En un tuit en febrero de este año, Elon Musk destacó esto, mencionando que “OpenAI fue creada como una empresa sin fines de lucro de código abierto (por eso la llamé “Open” AI) para servir como contrapeso a Google, pero ahora se ha convertido en una empresa de código cerrado, con fines de lucro máximo, efectivamente controlada por Microsoft”.

Esta falta de acceso a la información se replica en las Big Techs y, de acuerdo con el doctor Wayne, es fundamental que tanto las universidades como los gobiernos tomen cartas en el asunto.

“Las universidades están intentándolo, pero necesitamos que más universidades se involucren con un enfoque más crítico a la IA y eso sigue siendo algo raro, de nicho”, dijo.

Por otro lado, tanto Wayne como Awad mencionaron que también hace falta una regulación gubernamental para que las empresas abran sus datos y los investigadores puedan acceder a investigarlos.

“Necesitamos que el gobierno reconozca a las universidades y que lo que estudiamos es fundamental e importante. Si permitimos que el sector comercial crezca sin nuestras investigaciones, el futuro es cuestionable”, concluyó Wayne.