(KAREN WEISS, CADÉ METZ, NICO GRANT Y MIKE ISAAC. THE NEW YORK TIMES)
A la 1 de la tarde de un viernes, poco antes de la Navidad del año pasado, Kent Walker, el principal abogado de Google, convocó a cuatro de sus empleados y arruinó su fin de semana.
El grupo trabajaba en SL1001, un edificio anodino con una fachada de cristal azul que no revelaba ninguna señal de que en su interior decenas de abogados estuvieran trabajando duro para proteger los intereses de una de las empresas más influyentes del mundo. Durante semanas habían estado preparando una reunión de poderosos ejecutivos para discutir la seguridad de los productos de Google. La baraja estaba hecha. Pero esa tarde, el Sr. Walker le dijo a su equipo que la agenda había cambiado y que tendrían que dedicar los siguientes días a preparar nuevas diapositivas y gráficos.
De hecho, toda la agenda de la empresa había cambiado, todo en el transcurso de nueve días. Sundar Pichai, director ejecutivo de Google, había decidido preparar inmediatamente una serie de productos basados en inteligencia artificial. Recurrió al Sr. Walker, el mismo abogado en el que confiaba para defender a la empresa en un caso antimonopolio que amenazaba las ganancias en Washington, DC. El Sr. Walker sabía que necesitaría persuadir al Consejo de Revisión de Tecnología Avanzada, como llamó Google al grupo de ejecutivos. , para deshacerse de su habitual precaución y hacer lo que les dijeron.
Fue un edicto, y los edictos no ocurrían muy a menudo en Google. Pero Google se enfrentaba a una verdadera crisis. Su modelo de negocio estaba potencialmente en riesgo.
Lo que había desencadenado a Pichai y al resto de Silicon Valley fue ChatGPT, el programa de inteligencia artificial que fue lanzado el 30 de noviembre de 2022 por una empresa nueva llamada OpenAI . Había capturado la imaginación de millones de personas que pensaban que la IA era ciencia ficción hasta que empezaron a jugar con ella. Fue una sensación. También fue un problema.
En Googleplex, famoso por su comida gratuita, masajes, clases de fitness y servicios de lavandería, Pichai también jugaba con ChatGPT. Sus maravillas no lo cautivaron. Google había estado desarrollando su propia tecnología de inteligencia artificial que hacía muchas de las mismas cosas. Pichai se centró en los defectos de ChatGPT: que hacía cosas mal y que a veces se convertía en un cerdo sesgado . Lo que lo sorprendió fue que OpenAI hubiera seguido adelante y lo hubiera lanzado de todos modos, y que a los consumidores les encantara. Si OpenAI pudo hacer eso, ¿por qué Google no?
¿Por qué no seguir adelante? Ésa es la pregunta que se cernía sobre la adolescencia de la IA, aproximadamente un año después de que la tecnología diera el salto del laboratorio a la sala de estar. Hubo preocupación por los chatbots que escribían seductores correos electrónicos de phishing y arrojaban desinformación, o por los estudiantes de secundaria que los usaban para hacer trampa y obtener una A. Los agoreros insistieron en que la IA sin restricciones podría conducir al fin de la humanidad .
Para los jefes de las empresas de tecnología, la decisión de cuándo y cómo convertir la IA en un negocio (con suerte) rentable fue un cálculo más simple de riesgo-recompensa. Pero para ganar había que tener un producto.
El lunes 12 de diciembre por la mañana, el equipo de SL1001 tenía una nueva agenda con un mazo titulado “Privilegiado y confidencial/Necesidad de saber”. La mayoría de los asistentes sintonizaron por videoconferencia. Walker inició la reunión anunciando que Google estaba avanzando con un chatbot y capacidades de inteligencia artificial que se agregarían a la nube, la búsqueda y otros productos.
“¿Cuáles son tus preocupaciones? Pongámonos en fila”, dijo Walker, según Jen Gennai, directora de innovación responsable.
Habría barreras de seguridad, pero las aprobaciones se acelerarían. Walker lo llamó el enfoque del “carril verde”. Todo estaba dispuesto en la cubierta. Se identificaron oportunidades para la “racionalización del carril verde”. Los peligros estaban codificados por colores. El azul indicó riesgos donde se “requerían” “mitigaciones”. Los riesgos que eran “controlables con umbrales/mitigaciones mínimos” se representaron en naranja.
En un gráfico, bajo “Odio y toxicidad”, el plan era “frenar los estereotipos, la toxicidad y el discurso de odio en las producciones”. Un tema fue: “¿Qué nos falta para acelerar las aprobaciones?”
No todos estaban a bordo. “Mis estándares son tan altos, si no más altos, de lo que suelen ser, y pasaremos por un proceso de revisión con todo esto”, recordó Gennai que dijo un ejecutivo de la nube.
Finalmente se llegó a un acuerdo. Limitarían el lanzamiento, dijo Gennai. Y evitarían llamar producto a cualquier cosa. Para Google, sería un experimento. De esa forma no tenía por qué ser perfecto. (Una portavoz de Google dijo que el ATRC no tenía el poder de decidir cómo se lanzarían los productos).
Lo que sucedió en Google se repitió en otros gigantes tecnológicos después de que OpenAI lanzara ChatGPT a fines de 2022. Todos tenían tecnología en varias etapas de desarrollo que dependía de redes neuronales: sistemas de inteligencia artificial que reconocían sonidos, generaban imágenes y conversaban como un humano. El pionero de esa tecnología fue Geoffrey Hinton , un académico que había trabajado brevemente con Microsoft y ahora estaba en Google. Pero las empresas tecnológicas se habían visto frenadas por el temor a los chatbots deshonestos y al caos económico y legal .
Una vez que se lanzó ChatGPT, nada de eso importó tanto, según entrevistas con más de 80 ejecutivos e investigadores, así como documentos corporativos y grabaciones de audio. El instinto de ser el primero, el más grande o el más rico (o las tres cosas) se hizo cargo. Los líderes de las empresas más grandes de Silicon Valley fijaron un nuevo rumbo y arrastraron a sus empleados con ellos.
En 12 meses, Silicon Valley se transformó. Convertir la inteligencia artificial en productos reales que los individuos y las empresas pudieran utilizar se convirtió en la prioridad. Las preocupaciones sobre la seguridad y sobre si las máquinas atacarían a sus creadores no fueron ignoradas, pero fueron dejadas de lado, al menos por el momento.
En Meta, Mark Zuckerberg, que una vez había proclamado que el metaverso era el futuro, reorganizó partes de la empresa antes conocida como Facebook en torno a la IA.
Elon Musk, el multimillonario que cofundó OpenAI pero que había abandonado el laboratorio enojado, prometió crear su propia empresa de inteligencia artificial. Lo llamó X.AI y lo añadió a su plato ya lleno .
Satya Nadella, director ejecutivo de Microsoft, había invertido en OpenAI tres años antes y estaba permitiendo que los vaqueros de la nueva empresa aprovecharan su poder informático. Aceleró sus planes para incorporar la IA a los productos de Microsoft y darle un empujón a Google en su ojo investigador.
“La velocidad es aún más importante que nunca”, escribió Sam Schillace, un alto ejecutivo, a los empleados de Microsoft. Sería, añadió, un “error absolutamente fatal en este momento preocuparse por cosas que se pueden arreglar más adelante”.
Una ‘vista previa de investigación discreta’
Lo extraño fue que los líderes de OpenAI nunca pensaron que ChatGPT sacudiría Silicon Valley. A principios de noviembre de 2022, unas semanas antes de su lanzamiento al mundo, realmente no existía como producto. La mayoría de los 375 empleados que trabajaban en sus nuevas oficinas, una antigua fábrica de mayonesa, estaban centrados en una versión más potente de la tecnología, llamada GPT-4, que podía responder casi cualquier pregunta utilizando información obtenida de una enorme colección de datos extraídos aparentemente de todas partes. .
Fue revolucionario, pero hubo problemas. A veces, la tecnología arrojaba discursos de odio y desinformación. Los ingenieros de OpenAI siguieron posponiendo el lanzamiento y hablando sobre qué hacer.
Una opción era lanzar una versión más antigua y menos potente de la tecnología y simplemente ver qué pasaba. La idea, según cuatro personas familiarizadas con el trabajo de OpenAI, era observar la reacción del público y utilizarla para resolver los problemas.
Y aunque algunos ejecutivos le han restado importancia, querían vencer a la competencia. Muchas empresas de tecnología estaban trabajando en sus propios chatbots de IA. Pero la gente a vencer estaba en Anthropic, fundada el año anterior por investigadores e ingenieros que abandonaron OpenAI porque pensaban que Sam Altman, su director ejecutivo, no había hecho de la seguridad una prioridad a medida que la IA se hacía más poderosa . Los desertores habían ayudado a construir la tecnología que tanto entusiasmaba a OpenAI antes de salir por la puerta.
A mediados de noviembre de 2022, el Sr. Altman; Greg Brockman, presidente de OpenAI; y otros se reunieron en una sala de conferencias en el último piso para discutir una vez más los problemas con su innovadora tecnología. De repente, Altman tomó la decisión: lanzarían la tecnología antigua y menos potente.
El plan era llamarlo Chat con GPT 3.5 y lanzarlo a finales de mes. Se refirieron a él como un “avance de investigación discreto”. A nadie en la sala le pareció una decisión importante.
“Planeamos presentarlo como un lanzamiento de investigación”, dijo al personal Mira Murati, directora de tecnología de OpenAI, a través de Slack. “Esto reduce el riesgo en todas las dimensiones y al mismo tiempo nos permite aprender mucho”, escribió. “Nuestro objetivo es actuar rápidamente en los próximos días para que esto suceda”.
El código subyacente era una especie de mancha. Era necesario convertirlo en algo con lo que la gente normal sin doctorado pudiera interactuar. Altman y otros ejecutivos pidieron a un grupo de ingenieros que injertaran una interfaz gráfica de usuario (una GUI, pronunciada pegajosa) en la masa. Una GUI es la cara de una aplicación, donde escribes y presionas botones.
A principios de ese año se había creado una GUI para mostrar la tecnología a Bill Gates, el fundador de Microsoft, en su casa en las afueras de Seattle. Colocaron la misma GUI y cambiaron el nombre a ChatGPT. Aproximadamente dos semanas después de que el Sr. Altman tomara su decisión, estaban listos para comenzar.
El 29 de noviembre, la noche anterior al lanzamiento, el Sr. Brockman ofreció bebidas para el equipo. No pensó que ChatGPT atraería mucha atención, dijo. Su predicción: “no más de un hilo de tweets con 5.000 me gusta”.
El señor Brockman estaba equivocado. En la mañana del 30 de noviembre, Altman tuiteó sobre el nuevo producto de OpenAI y la compañía publicó un artículo de blog con mucha jerga. Y entonces ChatGPT despegó. Casi de inmediato, los registros saturaron los servidores de la empresa. Los ingenieros entraban y salían corriendo de un espacio desordenado cerca de la cocina de la oficina, acurrucados frente a computadoras portátiles para aprovechar la potencia informática de otros proyectos. En cinco días, más de un millón de personas habían utilizado ChatGPT. En unas pocas semanas, esa cifra superaría los 100 millones. Aunque nadie estaba seguro de por qué, fue un éxito. Los programas de noticias de la cadena intentaron explicar cómo funcionaba . Un programa de comedia nocturno incluso lo usó para escribir chistes (algo divertidos) .
Después de que las cosas se calmaron, los empleados de OpenAI utilizaron DALL-E, el generador de imágenes de IA de la compañía, para hacer una pegatina para computadora portátil con la etiqueta “Vista previa de investigación discreta”. Mostraba una computadora a punto de ser consumida por las llamas.
Zuckerberg recibe una advertencia
De hecho, meses antes Meta había lanzado su propio chatbot, sin previo aviso.
BlenderBot fue un fracaso . El bot impulsado por inteligencia artificial, lanzado en agosto de 2022, fue creado para mantener conversaciones, y así fue. Decía que Donald J. Trump todavía era presidente y que el presidente Biden había perdido en 2020. Mark Zuckerberg, le dijo a un usuario, era ” espeluznante “. Luego, dos semanas antes del lanzamiento de ChatGPT, Meta presentó Galactica. Diseñado para la investigación científica, podría escribir artículos académicos y resolver problemas matemáticos instantáneamente. Alguien le pidió que escribiera un trabajo de investigación sobre la historia de los osos en el espacio. Lo hizo. Después de tres días, Galactica fue cerrada.
La cabeza de Zuckerberg estaba en otra parte. Había pasado todo el año reorientando la empresa en torno al metaverso y estaba centrado en la realidad virtual y aumentada.
Pero ChatGPT exigiría su atención. Su principal científico en inteligencia artificial, Yann LeCun, llegó al Área de la Bahía desde Nueva York unas seis semanas después para una reunión de gestión de rutina en Meta, según una persona familiarizada con la reunión. El Dr. LeCun llevó una doble vida: como científico jefe de IA de Meta y profesor en la Universidad de Nueva York. El francés había ganado el Premio Turing , el honor más prestigioso de la informática, junto con el Dr. Hinton, por su trabajo en redes neuronales.
Mientras esperaban en la fila para almorzar en un café en la sede de Meta diseñada por Frank Gehry, el Dr. LeCun le hizo una advertencia a Zuckerberg. Dijo que Meta debería igualar la tecnología de OpenAI y también impulsar el trabajo en un asistente de IA que pueda hacer cosas en Internet en tu nombre. Sitios web como Facebook e Instagram podrían extinguirse, advirtió. La IA era el futuro.
Zuckerberg no dijo mucho, pero estaba escuchando. Había mucha IA en funcionamiento en las aplicaciones de Meta (Facebook, Instagram, WhatsApp), pero estaba bajo el capó. Zuckerberg estaba frustrado. Quería que el mundo reconociera el poder de la IA de Meta. El Dr. LeCun siempre había argumentado que abrir el código y hacer público el código atraería a innumerables investigadores y desarrolladores a la tecnología de Meta y ayudaría a mejorarla a un ritmo mucho más rápido. Eso permitiría a Meta ponerse al día y volver a poner a Zuckerberg en alianza con sus compañeros magnates. Pero también permitiría a cualquiera manipular la tecnología para hacer cosas malas.
Esa noche, durante la cena, Zuckerberg se acercó al Dr. LeCun. “He estado pensando en lo que dijiste”, le dijo Zuckerberg a su jefe científico de IA, según una persona familiarizada con la conversación. “Y creo que tienes razón”.
En París, los científicos del Dr. LeCun habían desarrollado un robot impulsado por IA que querían lanzar como tecnología de código abierto. El código abierto significaba que cualquiera podía modificar su código. Lo llamaron Génesis y estaba prácticamente listo para funcionar. Pero cuando pidieron permiso para publicarlo, los equipos legales y de políticas de Meta se opusieron, según cinco personas familiarizadas con la discusión.
Precaución versus velocidad se debatió furiosamente entre el equipo ejecutivo a principios de 2023 mientras Zuckerberg consideraba el rumbo de Meta a raíz de ChatGPT.
¿Todos se habían olvidado de los últimos siete años de la historia de Facebook? Ésa fue la pregunta formulada por los equipos jurídico y político. Le recordaron a Zuckerberg el revuelo por el discurso de odio y la desinformación en las plataformas de Meta y el escrutinio que la compañía había soportado por parte de los medios de comunicación y el Congreso después de las elecciones de 2016.
Abrir el código podría poner tecnología poderosa en manos de aquellos con malas intenciones y Meta asumiría la culpa. Jennifer Newstead, directora legal de Meta, le dijo a Zuckerberg que un enfoque de código abierto para la IA podría atraer la atención de los reguladores que ya tenían a la compañía en la mira, según dos personas familiarizadas con sus preocupaciones.
En una reunión a finales de enero en su oficina, llamada acuario porque parecía tal, Zuckerberg dijo a los ejecutivos que había tomado su decisión. Se reorganizarían partes de Meta y se cambiarían sus prioridades. Habría reuniones semanales para actualizar a los ejecutivos sobre el progreso de la IA. Cientos de empleados serían trasladados. Zuckerberg declaró en una publicación de Facebook que Meta “aceleraría” su trabajo en IA
Zuckerberg quería impulsar un proyecto rápidamente. Los investigadores en París estaban listos con Génesis. El nombre se cambió a LLaMA, abreviatura de “Large Language Model Meta AI”, y se entregó a 4.000 investigadores fuera de la empresa. Pronto Meta recibió más de 100.000 solicitudes de acceso al código.
Pero a los pocos días del lanzamiento de LLaMA, alguien puso el código en 4chan, el foro de mensajes en línea marginal. Meta había perdido el control de su chatbot, lo que planteaba la posibilidad de que los peores temores de sus equipos legales y políticos se hicieran realidad. Investigadores de la Universidad de Stanford demostraron que el sistema Meta podía hacer fácilmente cosas como generar material racista.
El 6 de junio, Zuckerberg recibió una carta sobre LLaMA de los senadores Josh Hawley de Missouri y Richard Blumental de Connecticut. “Hawley y Blumental exigen respuestas de Meta”, decía un comunicado de prensa.
La carta calificó el enfoque de Meta como riesgoso y vulnerable al abuso y lo comparó desfavorablemente con ChatGPT. ¿Por qué, parecían querer saber los senadores, Meta no podría parecerse más a OpenAI?
Debajo de la tienda en Microsoft
Para Nadella, darse cuenta de que la tecnología de OpenAI podría cambiarlo todo no fue un “¡Ajá!” momento. Después de invertir mil millones de dólares en 2019 , Microsoft poco a poco empezó a jugar con el código de la startup. El primero fue GitHub, el servicio de almacenamiento de códigos de la empresa. Algunos equipos de ingenieros comenzaron a experimentar con la tecnología de OpenAI para ayudarlos a escribir código.
Durante una cena en la sala de juntas de Microsoft con un amigo en el verano de 2021, Nadella dijo que estaba empezando a ver la tecnología como un punto de inflexión. Afectaría a cada parte del negocio de Microsoft y a cada ser humano, predijo. (El experimento de GitHub finalmente se convirtió en un producto: GitHub Copilot ).
Un año después, Nadella echó un vistazo a lo que se convertiría en GPT-4. Nadella le pidió que tradujera al urdu un poema escrito en persa por Rumi, que murió en 1273. Lo hizo. Le pidió que transliterara el urdu a caracteres ingleses. También hizo eso. “Entonces dije: ‘Dios, esta cosa’”, recordó Nadella en una entrevista. A partir de ese momento, estuvo todo dentro.
La inversión de mil millones de dólares de Microsoft en OpenAI ya había aumentado a 3 mil millones de dólares . Ahora Microsoft planeaba aumentar esa cifra a 10.000 millones de dólares .
Incluso para Microsoft, que disponía de 105.000 millones de dólares en efectivo, eso era dinero real. OpenAI se estructuró como una organización sin fines de lucro. Microsoft no conseguiría un puesto en la junta directiva. Pero tenía derecho a utilizar el código de OpenAI. Eso significaba que Microsoft y OpenAI eran socios y competidores.
A finales del verano de 2022, las oficinas de Microsoft aún no habían vuelto al bullicio prepandémico. Pero el 13 de septiembre, Nadella convocó a sus altos ejecutivos a una reunión en el Edificio 34, el centro neurálgico ejecutivo de Microsoft. Pasaron dos meses antes de que Altman tomara la decisión de lanzar ChatGPT.
Él y el Sr. Brockman demostraron GPT-4 para el grupo. Primero le hicieron preguntas de biología. Luego, Brockman dejó que los ejecutivos intentaran dejar perplejo al chatbot. En un momento dado, al chatbot se le hizo una pregunta sobre la fotosíntesis. No sólo respondió, sino que descartó otras posibilidades. Peter Lee, director de Investigación de Microsoft, se sorprendió de que pareciera saber razonar. Se volvió hacia el científico jefe de Microsoft, que estaba sentado a su lado, y le preguntó: “¿Qué está pasando allí?”.
Luego el señor Nadella tomó el atril para decirles a sus lugartenientes que todo estaba a punto de cambiar. Se trataba de una orden ejecutiva de un líder que normalmente favorecía el consenso. “Estamos impulsando a toda la empresa hacia esta tecnología”, recordó más tarde Eric Horvitz, el científico jefe, que dijo. “Este es un avance central en la historia de la informática, y estaremos en esa ola al frente”.
Todo tenía que permanecer en secreto por el momento. No todos serían llevados a la carpa, y en Microsoft, las carpas eran donde sucedían las cosas importantes. A principios de octubre se establecieron tres “proyectos de campaña” para iniciar el gran giro . Se dedicaron a la ciberseguridad, el motor de búsqueda Bing, Microsoft Word y software relacionado.
Aproximadamente dos meses después, Yusuf Mehdi, un ejecutivo de marketing, hizo una demostración del chatbot Bing a algunos miembros de la junta. No les convenció. Encontraron que el producto era demasiado complicado y sin una visión clara que comunicar a los consumidores. El equipo del Sr. Nadella no lo había logrado.
Dos semanas después, Mehdi se reunió con toda la junta directiva. Esta vez la versión que demostró fue más simple y amigable para el consumidor. Fue una oportunidad.
Microsoft invitó a periodistas a su campus de Redmond, Washington, el 7 de febrero, para presentar al mundo un chatbot en Bing. Se les ordenó que no le dijeran a nadie que iban a asistir a un evento de Microsoft y el tema no fue revelado.
Pero de alguna manera Google se enteró. El 6 de febrero, para adelantarse a Microsoft, publicó una publicación en el blog de Pichai anunciando que Google presentaría su propio chatbot, Bard. No dijo exactamente cuándo.
Altman acababa de llegar al centro de conferencias de Microsoft para un ensayo del programa cuando Mehdi lo agarró y le mostró la publicación de Pichai.
“’Dios mío, esto es histérico’”, recordó Mehdi que dijo Altman. En ese momento, el señor Nadella salió de la sala donde había estado ensayando. Altman sugirió que él y Nadella se tomaran una selfie. Lo publicó en Twitter para modificar Google.
“¡Hola desde Redmond! Estoy emocionado por el evento de mañana”, tuiteó Altman, que tenía más de 1,3 millones de seguidores en Twitter.
En la mañana del 8 de febrero, el día después de que Microsoft anunciara el chatbot, sus acciones subían un 5 por ciento. Pero para Google, el apresurado anuncio se convirtió en una vergüenza. Los investigadores detectaron errores en la publicación del blog de Google. Un GIF adjunto simulaba que Bard decía que el telescopio Webb había capturado las primeras imágenes de un exoplaneta, un planeta fuera del sistema solar. De hecho, un telescopio en el Observatorio Europeo Austral en el norte de Chile obtuvo la primera imagen de un exoplaneta en 2004. Bard se había equivocado y Google fue objeto de burlas en los medios de comunicación y en las redes sociales.
Fue, como dijo Pichai más tarde en una entrevista, “desafortunado”. Las acciones de Google cayeron casi un 8 por ciento, eliminando más de 100 mil millones de dólares en valor.
Resultó que también había errores en la presentación de Microsoft . Pero nadie se había dado cuenta.
Un adiós a Google
No había duda de que el chatbot de Bing puso a Microsoft por delante de Google, y en la primavera de 2023, Nadella compró más de 2 mil millones de dólares en chips de computadora para mantenerlo así, según dos personas familiarizadas con el presupuesto. “Tenemos un gran pedido en camino, un pedido realmente grande en camino”, le dijo alegremente Nadella a Jensen Huang, director ejecutivo de Nvidia, dijo el Sr. Huang.
Pichai, en Google, se sentía como un buzo. Las consecuencias del anuncio de Google sobre Bard fueron tumultuosas, y fueron como navegar por la superficie accidentada de un océano. Pero debajo de la superficie, el agua estaba en calma y él estaba concentrado en el próximo lanzamiento de los productos de inteligencia artificial de Google.
Pichai supervisó a más de 2.000 investigadores divididos en dos laboratorios, Google Brain y DeepMind. En abril los fusionó. Google DeepMind desarrollaría un sistema de inteligencia artificial llamado Gemini. Para ejecutarlo, Pichai eligió a Demis Hassabis, uno de los fundadores de DeepMind. Hassabis había advertido durante mucho tiempo y en voz alta que la IA podría destruir a la humanidad. Ahora sería el encargado de llevar a Google a la supremacía de la inteligencia artificial.
Geoffrey Hinton, el científico más conocido de Google, siempre se había burlado de personas como el Dr. Hassabis: los fatalistas, racionalistas y altruistas eficaces que temían que la IA acabara con la humanidad en un futuro próximo. Había desarrollado gran parte de la ciencia detrás de la inteligencia artificial como profesor en la Universidad de Toronto y se convirtió en un hombre rico después de unirse a Google en 2013. A menudo se le llama el padrino de la IA.
Pero los nuevos chatbots cambiaron todo para él. La ciencia había avanzado más rápidamente de lo que esperaba. La introducción de su chatbot por parte de Microsoft lo convenció de que Google no tendría más remedio que intentar ponerse al día. Y la carrera corporativa que se estaba gestando entre los gigantes tecnológicos parecía peligrosa.
“Si piensas en Google como una empresa cuyo objetivo es obtener ganancias”, dijo el Dr. Hinton en abril, “no pueden simplemente dejar que Bing tome el control de las búsquedas de Google. Tienen que competir con eso. Cuando Microsoft decidió lanzar un chatbot como interfaz para Bing, ese fue el final del período de vacaciones”.
El Dr. Hinton pasó mucho tiempo reflexionando sobre su propio papel en el desarrollo de la IA. A veces se arrepintió. Otras veces, en broma, enviaba a sus amigos un vídeo de Edith Piaf cantando “ Non, Je Ne Regrette Rien ”. Pero finalmente decidió dejarlo.
Por primera vez en más de 50 años, se alejó de la investigación. Y luego, en abril, llamó al Sr. Pichai y se despidió.
Susan Beachy contribuyó a la investigación.Progreso, preocupación e incertidumbre de la IA
Karen Weise escribe sobre tecnología y reside en Seattle. Su cobertura se centra en Amazon y Microsoft, dos de las empresas más poderosas de Estados Unidos.
Cade Metz escribe sobre inteligencia artificial, coches sin conductor, robótica, realidad virtual y otras áreas tecnológicas emergentes.
Nico Grant es un reportero de tecnología que cubre Google desde San Francisco. Anteriormente, pasó cinco años en Bloomberg News, donde se centró en Google y la computación en la nube.
Mike Isaac es corresponsal de tecnología de The Times con sede en San Francisco. Cubre regularmente Facebook y Silicon Valley.