Si hay una ganadora actual de la carrera por la inteligencia artificial, esa es OpenAI. Microsoft se está aprovechando muy bien de ello. Google está siendo más cauta, sí, pero no hay que olvidar que lleva años trabajando en este ámbito y que cuenta con DeepMind como punta de lanza. Y sin embargo los propios responsables de Google parecen tener claro que ni ellos ni OpenAI ganarán. El ganador será otro.
"No tenemos foso". Un documento filtrado en SemiAnalysis y que supuestamente ha sido creado por ingenieros de Google muestra su análisis del estado del arte actual en el campo de la inteligencia artificial. En él usan la expresión "no tenemos foso, y OpenAI tampoco" ("we have no moat, and neither does OpenAI"), que se utiliza en contextos empresariales y de inversión para describir una empresa o negocio que carece de una ventaja competitiva sostenible. O lo que es lo mismo: según Google, tanto ella como OpenAI tendrán dificultades para mantener su posición en el mercado de la IA y para mantenerse competitivas a largo plazo.

La "amenaza" Open Source. En el análisis de Google se comparan su modelo Bard con ChatGPT, pero también se incluyen los últimos avances en proyectos Open Source en este ámbito. La conclusión de los ingenieros de Google es llamativa:
"Aunque nuestros modelos siguen teniendo una ligera ventaja en términos de calidad, la brecha se está cerrando con asombrosa rapidez. Los modelos de código abierto son más rápidos, más personalizables, más privados y, libra por libra, más capaces. Hacen cosas con 100 dólares y 13.000 millones de parámetros que a nosotros nos cuestan 10 millones y 540.000 millones de parámetros. Y lo hacen en semanas, no en meses".
La gráfica superior, adaptada de la usada en el lanzamiento del modelo Vicuna-13B, muestra cómo tras el lanzamiento de Meta de LLaMA (y su posterior filtración a redes P2P), Alpaca-13B tardó en aparecer dos semanas y lo mejoró sensiblemente, pero es que Vicuna-13B, que apareció una semana después, se acercaba a la precisión y calidad de Bard y ChatGPT con muchísimos menos recursos.
Innovación constante y frenética. En el documento se habla de cómo en el mundo Open Source se están produciendo avances espectaculares en muy poco tiempo. Apenas pasaban días entre los principales avances (véase la cronología para un desglose completo). Aquí estamos, apenas un mes después, y hay variantes con ajuste de instrucciones, cuantificación, mejoras de calidad, evaluaciones humanas, multimodalidad, RLHF, etc., etc., muchas de las cuales se basan unas en otras. Y para Google la cosa no acaba ahí:
"Y lo que es más importante, han resuelto el problema del escalado hasta el punto de que cualquiera puede retocarlo. Muchas de las nuevas ideas proceden de gente corriente. La barrera de entrada para la formación y la experimentación se ha reducido de la producción total de una gran organización de investigación a una persona, una tarde y un portátil robusto".
LoRA, democratizador de IA. El documento tiene una sección muy interesante hablando de "en qué nos hemos despistado". Allí los ingenieros hablan de LoRA (Low-Rank Adaptation), una técnica que se aplica a los LLM (Large Language Models) y que busca reducir el coste de adaptar esos modelos a tareas específicas. De repente cualquiera con un buen portátil puede aplicar este método y personalizar su modelo. No solo eso:
"Parte de lo que hace que LoRA sea tan eficaz es que, al igual que otras formas de ajuste, es apilable. Mejoras como el ajuste de las instrucciones pueden aplicarse y luego aprovecharse a medida que otros colaboradores añaden diálogo, razonamiento o uso de herramientas. Aunque los ajustes finos individuales son de bajo rango, su suma no tiene por qué serlo, lo que permite que las actualizaciones de rango completo del modelo se acumulen con el tiempo.Esto significa que, a medida que se disponga de nuevos y mejores conjuntos de datos y tareas, el modelo podrá actualizarse a bajo coste, sin tener que pagar nunca el coste de una ejecución completa".
La ventaja competitiva de las grandes se pierde. En esencia lo que permite LoRA es competir con las grandes empresas como Google u OpenAI que dedican ingentes recuross a entrenar modelos desde cero. De repente esa forma de avanzar en estos proyectos ya no plantea la ventaja competitiva que planteaba antes:
"Los modelos grandes no son más capaces a largo plazo si podemos iterar más rápido en modelos pequeños. Las actualizaciones de LoRA son muy baratas de producir (~100 dólares) para los tamaños de modelo más populares. Esto significa que casi cualquiera con una idea puede generar una y distribuirla. Los tiempos de entrenamiento inferiores a un día son la norma. A ese ritmo, el efecto acumulativo de todos estos ajustes no tarda mucho en superar la desventaja inicial de tamaño. De hecho, en términos de horas de ingeniería, el ritmo de mejora de estos modelos supera con creces lo que podemos hacer con nuestras variantes más grandes, y las mejores ya son prácticamente indistinguibles de ChatGPT. Centrarnos en mantener algunos de los modelos más grandes del planeta en realidad nos coloca en desventaja".
Google quiere secretismo. El documento también plantea un cambio de actitud por parte de Google, que durante años compartió con el mundo sus avances gracias a la publicación de muchísimos estudios en el ámbito de la inteligencia artificial. Ahora la estrategia es distinta según The Washington Post, que revela que van a dejar de hacerlo para competir con el resto de avances. En el texto filtrado eso no queda tan claro :
"Mantener nuestra tecnología en secreto siempre ha sido una propuesta arriesgada. Los investigadores de Google se marchan a otras empresas con regularidad, así que podemos dar por hecho que saben todo lo que nosotros sabemos, y lo seguirán sabiendo mientras esa vía siga abierta.
Pero aferrarse a una ventaja competitiva en tecnología se hace aún más difícil ahora que la investigación puntera en LLM es asequible. Las instituciones de investigación de todo el mundo basan su trabajo en el de las demás, explorando el espacio de soluciones con una amplitud que supera con creces nuestra propia capacidad. Podemos intentar aferrarnos a nuestros secretos mientras la innovación exterior diluye su valor, o podemos intentar aprender unos de otros".
OpenAI tampoco tiene nada que hacer. Esos avances del mundo Open Source no solo parecen estar poniendo contra las cuerdas a Google, sino también a la mismísima OpenAI:
"Y al final, OpenAI no importa. Están cometiendo los mismos errores que nosotros en su postura con respecto al código abierto, y su capacidad para mantener una ventaja está necesariamente en entredicho. Las alternativas de código abierto pueden eclipsarles, y acabarán haciéndolo, a menos que cambien de postura. En este sentido, al menos, podemos dar el primer paso".
En Xataka | HuggingFace lanza su propio rival Open Source de ChatGPT: de momento, tiene mucho margen de mejora
Ver 14 comentarios
14 comentarios
vuler
Ese documento no representaría a Google en ningún caso. Fue escrito por UN ingeniero, no un grupo. Es alguien que expresa una opinión personal y en este artículo se da a entender que es la postura de una multinacional.
SoyYo
Es probablemente uno de los mejores artículos que he leído en Xataka. Muy interesante.
rafaello76
Artículo interesante. Gracias por la información
ad0N
A mi parecer, Google lo dejo salir por que no puede competir cu OpenAI.
Lo que hace es intentar anular la ventaja que tiene MS con OPENAI.
Google estan bastante mal, entonces.
Itopo
Buenisimo es modelo, y la version T5 igual y ademas libre 100%
Usuario desactivado
Suena como la competencia MULTICS contra Unix o PC contra mainframes. Y da la sensación que gastar más millones de dólares y entrenar con más miles de millones de parámetros no mejoran los resultados porque la limitación es la arquitectura del sistema.
Samuel Gómez Arnaiz
Open source evoluciona más rápido y mejor que google, microsoft y openai, eso no tiene ningún sentido, ¿quién se lo cree?.
Guest
"recuross"
alexga
Pues me alegro mucho que realmente sea así. Uno de los miedos que tengo, y no creo que sea el único, es la cantidad de información personal que uno le está dando a ChatGPT como a su fork Bing. Que toda esta información, muchas veces personal, pare a una empresa como Microsoft, da un poco de miedo. Me acuerdo en la presentación del nuevo Office 365 Copilot, estamos regalando todos nuestros secretos a una IA en donde nos facilita nuestro trabajo día a día. Si, por lo contrario, es el usuario quien puede instalar en su casa su modelo de IA, sabes que solo tú eres el propietario de la información. Yo prefiero bajarme los forks de Stable difusion y hacer pruebas en local, antes de tener que comprar créditos en una empresa privada para que pueda juguetear con un generador de imágenes.
zorrobepop2033
Microsoft y Silicon Valley abrieron la caja de Pandora. Google tambien sabía qué jugaban a ser Dios. ahora tienen cangelo?
Es el capitalismo o lo que hoy dia es el salvaje Oeste. No querian competitividad? No querían progreso? Espero que el Open Source alimente mucho progreso, para todos, no sólo 100 accionistas de las Venture más grandes y que las Open Source AIs les coman tarta a los buitres del Silicio.
zorrobepop2033
Devorados por su propio monstruo. No sería poético?? Ahora que le digan a Larry Fink mientras pregona Productividad salvaje y Dinamismo laboral sin precedentes en su Podcast.
Por favor. Ai del mes que viene. Recuérdame en 10 años burlarme de Larry Fink cuando se empiece a quejar en su mansión