
Profundo, la influyente compañía de Inteligencia artificial (IA), ha sido tema de conversación constante en el sector tecnológico desde su adquisición por parte de Google en 2014 y su posterior integración oficial en una sola división en abril de 2023. A través de los años, ha ganando reconocimiento por su compromiso con la calidad de sus publicaciones científicas y su capacidad para atraer a algunos de los investigadores más destacados en el campo. Sin embargo, esta preeminencia suscita la pregunta de si su enfoque actual debería adaptarse a nuevas realidades.
Varios expertos, como señalan Financial Times, sugieren que Google DeepMind ha comenzado a retrasar la publicación de ciertos avances en IA generativa, considerándolos «estratégicos» o sensibles. Esta decisión forma parte de una táctica más amplia para preservar su ventaja competitiva y evitar que sus desarrollos más recientes sean utilizados por rivales como OpenAI, que se han vuelto cada vez más innovadores y competentes en la misma área.
Transformers, arquitectura de estrella
La historia del desarrollo de la inteligencia artificial generativa está intrinsicamente ligada al trabajo realizado por Google. Un punto crítico en este viaje fue la presentación en 2017 del artículo titulado ‘La atención es todo lo que necesitas‘, coautorizado por un equipo de ocho investigadores, donde se introdujo la Arquitectura de transformadores. Este innovador enfoque ha permitido a los modelos procesar datos de gran escala de manera más eficiente, revolucionando así la forma en que se gestionaba la información.
La arquitectura de transformadores se convirtió rápidamente en la base de modelos significativos como BERT (Bidirectional Encoder Representations from Transformers), que Google desarrolló y desplegó en su motor de búsqueda en 2019, lo que mejoró notablemente la capacidad de comprensión del lenguaje natural. Este avance tecnológico fue también fundamental para la evolución de sistemas modernos como GPT (Generative Pre-trained Transformers) de OpenAI, donde las versiones actuales, GPT-4 y GPT-4.5, son ejemplos destacados de esta arquitectura en acción.
Google se ha consolidado como una de las corporaciones más poderosas del mundo. Con una sólida capacidad financiera y un acceso inigualable a tecnologías esenciales, la compañía estaba, sin embargo, ante el inesperado reto que representaba el modelo basado en GPT-3.5. Esta sorpresa fue un momento clave que llevó a las redes de la empresa, dirigidas por Sundar Pichai, a iniciar un «código rojo», lo que resultó en una reestructuración rápida para mantener la competitividad en un entorno de IA que se ve cada vez más influenciado por OpenAI.
No es ningún secreto que cuando una empresa crece y se transforma en un gigante tecnológico, a menudo se ve obligada a sacrificar parte de la agilidad e innovación que caracterizaba a su inicio como startup. Cuando reflexionamos sobre este fenómeno, notamos que una vez que se alcanzan ciertas dimensiones, el lema de «moverse rápido y romper cosas» pierde relevancia. Esto se debe principalmente a que hay más en juego; se debe proteger una gran infraestructura y manejar equipos compuestos por miles de personas que no pueden permitirse cometer errores fácilmente. En este contexto, el riesgo se convierte en un desafío difícil de manejar.
En esta misma línea, no deja de ser sorprendente cómo el gigante motor de búsqueda ha lanzado tan rápidamente diversos productos basados en IA. En poco tiempo, la compañía ha introducido una avalancha de innovaciones que incluyen Gemini, un competidor directo de ChatGPT; Gemini Live, diseñado para rivalizar con el avanzado modo de voz de OpenAI; y otros recursos, como gemas que ofrecen GPT personalizados y herramientas innovadoras como NotebookLM.
El nuevo Google Pulse
En los últimos años, la firma ubicada en Mountain View ha sometido a grandes cambios a su estructura interna, especialmente en la forma en que maneja las publicaciones científicas. Uno de los cambios más significativos es que cualquier contenido considerado estratégico ahora puede estar sujeto a una prohibición de publicación de seis meses antes de ser liberado al público. Esto ha llevado a una revisión más minuciosa y estricta dentro del grupo, dirigido por el Nobel Sir Demis Hassabis.
Uno de los investigadores que discutió esta situación bajo condición de anonimato mencionó que hoy resulta difícil imaginar a Google publicando un artículo tan relevante como el de Transformers para el uso común. En esta nueva era, se dice que “la empresa se ha vuelto más preocupada por el producto y menos por la divulgación de los resultados de sus investigaciones en pro del bien común”, lo cual podría causar cierta preocupación entre la comunidad científica y de investigación.
Fotos | Boliviainteligente | Google DeepMind
En | OpenAI acaba de levantar la ronda de financiamiento más grande de la historia: a pesar de todo, hay una confianza ciega en la IA.