Se llama Yann LeCun y es una de las grandes personalidades del segmento de la inteligencia artificial. Es el máximo responsable de esta división en Meta, y tiene una visión muy fuerte de la situación actual de la IA. Una sin pelos en la lengua.
La IA generativa es tontísima. En una entrevista con The Wall Street Journal, LeCun destacaba un mensaje que ya planteó en mayo en X. Allí debatió sobre que estamos regulando la IA cuando ni siquiera tenemos indicios de que esos sistemas sean más inteligentes que un gato doméstico. La metáfora persiste: estos felinos tienen un modelo mental del mundo físico, memoria persistente, capacidad de razonamiento y planificación. Ninguna IA —incluida la de Meta— puede presumir de dichas capacidades.
Cabezota en el buen sentido. Lèon Bottou, un investigador de IA que lo conoce desde 1986, dice de LeCun que es un "cabezota, pero en el buen sentido". En los últimos tiempos ha debatido abiertamente con Elon Musk, pero también tiene sus discrepancias con personalidades aún más respetadas en el ámbito de la IA.
Lo de Terminator es un cuento. En concreto, tiene una visión muy distinta a la que tienen Geoffrey Hinton —reciente ganador del Nobel— y Yoshua Bengio, que a menudo expresan su postura pesimista y catastrofista sobre el futuro de la IA. Los tres recibieron el Premio Turing en 2019, considerado como el "Nobel de la informática".
Pero la IA tiene mucho potencial. LeCun es escéptico sobre el desarrollo a corto plazo de una AGI, pero tiene claro que la IA es una herramienta realmente potente. Destaca cómo ha contribuido a temas como la traducción en tiempo real o la moderación de contenidos en Meta, donde ha ayudado a que los ingresos se disparen. Para la empresa, afirma "el impacto ha sido realmente enorme".
Pero de momento de inteligente, poco. Y aun así está convencido de que de momento los sistemas de IA no son significativamente inteligentes. Eso es una afirmación preocupante que pone en compromiso las promesas de todas las startups que trabajan en este ámbito. El problema para él es cómo están diseñados estos sistemas de IA, no su escala: no importa el número de GPUs que las grandes tecnológicas dediquen a la IA generativa, porque estos sistemas no nos van a llevar al desarrollo de una AGI.
La solución es otra. De hecho, explica, el camino es fundamentalmente distinto, según él. Su trabajo en FAIR (Fundamental AI Research) en Meta va precisamente dirigido a desarrollar otras líneas de trabajo. Lo están haciendo con la forma en la que sus modelos consumen vídeos del mundo real: con ellos pretenden crear modelos que aprendan de forma análoga a como lo hace un cachorro, construyendo su modelo del mundo exterior a partir de lo que ve y percibe.
Imagen | Meta
En Xataka | Qué fue de los cuatro estudiantes que fundaron Facebook (Meta) hace 20 años junto a Mark Zuckerberg
Ver 5 comentarios