La inteligencia artificial general es un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual llevada a cabo por los seres humanos. No solo eso: esta modalidad de inteligencia artificial (IA), conocida como AGI por su denominación en inglés (Artificial General Intelligence), también deberá ser capaz de realizar juicios y razonamientos ante una situación de incertidumbre a partir del aprendizaje y el entrenamiento, así como de comunicarse utilizando el lenguaje natural, planificar o aprender.
Esta es la acertada definición de AGI con la que mi compañero Javier Pastor abordó el completísimo artículo que dedicó a esta forma de IA a finales del pasado mes de noviembre. No obstante, también nos interesa conocer la definición que nos propone OpenAI porque introduce un matiz interesante: la inteligencia artificial general es un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de las tareas que tienen un valor económico.
Algunos expertos utilizan los términos 'inteligencia artificial general' e 'inteligencia artificial fuerte' como sinónimos, pero otros prefieren restringir esta última denominación solo para aquellos sistemas que tienen consciencia de su propia existencia, y que, por tanto, tienen la capacidad de desarrollar sus propios sentimientos y experimentar vivencias. Sea como sea hay otro debate encima de la mesa en el que merece la pena que indaguemos: cabe la posibilidad de que el hardware que soporte esta ambiciosa modalidad de IA deba ser radicalmente diferente al que utilizamos hoy. Esto es, precisamente, lo que defiende Extropic.
Los transistores que usamos actualmente no son los ideales para "la era de la IA"
Extropic es una empresa emergente estadounidense fundada por dos científicos especializados en la investigación en inteligencia artificial: Guillaume Verdon y Trevor McCourt. A principios del pasado mes de diciembre anunció la puesta en marcha de una ronda de inversión de 14,1 millones de dólares con el propósito de financiar un proyecto extraordinariamente ambicioso: el desarrollo de una nueva arquitectura de hardware específicamente diseñada desde la base para lidiar de la forma más eficiente posible con los algoritmos de inteligencia artificial.
Y en la base de este modelo de hardware residen, cómo no, los transistores. Según Verdon y McCourt la ley de Moore está agotándose debido a que los transistores se están aproximando a la escala atómica, de modo que el ruido térmico y otros efectos de naturaleza cuántica pueden arruinar su capacidad de operar en el dominio digital. Además, una de las consecuencias más evidentes que está acarreando el despliegue de grandes centros de datos para aplicaciones de IA es que el consumo de energía se está disparando, lo que ha propiciado que algunas empresas propongan alojar una central nuclear junto a las mayores instalaciones para satisfacer todas sus necesidades energéticas.
Este nuevo paradigma de computación debe ser capaz de procesar los algoritmos de IA probabilísticos con los que no pueden lidiar las GPU actuales
Estos dos desafíos, las limitaciones impuestas por los transistores actuales y las crecientes necesidades energéticas de los grandes centros de datos, están sobre la mesa. Y resolverlos, según Verdon y McCourt, exige elaborar un paradigma de computación completamente nuevo que sea capaz de garantizar el escalado del hardware para IA más allá de las limitaciones que impone la computación digital actual. Además, los nuevos aceleradores para IA deben ser mucho más rápidos y eficientes que las actuales GPU que NVIDIA, AMD, Huawei y las demás compañías utilizan en sus grandes centros de datos. Y dejamos para el final quizá lo más importante: este nuevo paradigma de computación debe ser capaz de procesar los algoritmos de IA probabilísticos con los que no pueden lidiar las GPU actuales.
El futuro de la inteligencia artificial general de la que hemos hablado en los primeros párrafos de este artículo está en juego. Las ideas en las que hemos indagado hasta ahora son complicadas, pero podemos intuir qué proponen los científicos de Extropic con más precisión si nos fijamos en que a la lógica digital con la que todos estamos familiarizados gracias a nuestros ordenadores, smartphones y demás dispositivos se le dan bien las operaciones determinísticas, pero, curiosamente, el aprendizaje automático que es tan importante en el ámbito de la inteligencia artificial es de naturaleza probabilística.
Para entender con cierta precisión de qué estamos hablando nos interesa recordar que el determinismo establece que el resultado de un fenómeno u operación está necesariamente determinado por las condiciones iniciales. Sin embargo, el hardware idóneo para procesar los algoritmos de aprendizaje automático no es determinista; es probabilístico. Esto significa, sencillamente, que los datos que nos va a devolver el algoritmo son el resultado de una distribución de probabilidad.
El hardware idóneo para procesar los algoritmos de aprendizaje automático no es determinista; es probabilístico
El núcleo de la propuesta de Extropic respeta a pies juntillas esta idea y la traslada a la base de su plataforma de hardware. A los transistores. En este artículo no vamos a indagar con todo el detalle posible en ellos para no complicar el texto excesivamente (si queréis conocer su física con más profundidad os sugiero que echéis un vistazo al estupendo hilo en X del físico Andrew Côté).
No obstante, al menos nos interesa recordar que la velocidad de conmutación de un transistor, que identifica la rapidez con la que puede cambiar entre los estados de encendido y apagado, está condicionada por la carga que está conectada al transistor, la corriente y la tensión de polarización, la estructura interna del transistor, sus características eléctricas naturales, e, incluso, por la temperatura ambiental y su capacidad de disipar la energía térmica en forma de calor.
Sin embargo, la velocidad de conmutación de los transistores de naturaleza termodinámica en los que están trabajando los científicos de Extropic solo está condicionada por el tiempo que tarda el calor ambiental en actuar sobre ellos y en alterar su estado interno. Como acertadamente afirma Côté, es mucho más rápido y requiere menos energía alterar de forma aleatoria el estado de un conjunto de electrones que inducir un flujo de corriente neta a partir de la aplicación de voltaje. Sobre el papel, y esto es lo realmente importante, los transistores termodinámicos de Extropic son mucho más eficientes que los convencionales, y, además, tienen una velocidad de operación varios millones de veces más alta.
Este es el sustrato físico sobre el que Guillaume Verdon y Trevor McCourt proponen construir todo un nuevo paradigma de computación afianzado sobre unos chips de naturaleza termodinámica más eficientes, más rápidos y con un comportamiento eminentemente probabilístico que, en teoría, encajan como un guante en el futuro hardware para IA. Un avance como este tiene la capacidad de allanar el camino a la inteligencia artificial general, aunque aún no está claro cuándo estará lista esta forma de IA tan avanzada. Elon Musk aseguró en 2020 que estaría preparada en 2025, pero la mayor parte de los científicos que investigan en esta área no se atreve a dar una fecha precisa, por lo que el vaticinio de Musk parece, una vez más, demasiado optimista.
Imagen | ThisIsEngineering
Más información | Extropic
Ver 9 comentarios
9 comentarios
eltoloco
Juan Carlos, como te gusta hacer artículo sobre tecnologías utópicas.
¿Ahora además del artículo semanal sobre los no-avances en fusión nuclear también los tendremos sobre los no-avances en IAG?
El problema de la IA general no es la potencia de cálculo, nunca lo ha sido. El problema de la IAG es que directamente no está definida teóricamente, ni los expertos en IA se ponen de acuerdo en los requisitos que tiene que cumplir una IAG.
Los menos exigentes se remiten al test de Turing. Si aceptamos esto como IAG, hace tiempo que la tenemos, cualquier chatbot estilo ChatGPT supera el test de Turing sin problema. Evidentemente este requisito no es suficiente, porque el mejor LLM está muy lejos de ser realmente inteligente, es tan solo un chat autómata que basa sus respuestas en inferencia estadística avanzada.
El verdadero problema está en definir qué es la inteligencia.
- ¿Es inteligencia un sistema que acumule todo el conocimiento humano? Entonces Wikipedia con un LLM podría ser una IAG, pero la Wikipedia depende de que alguien añada nueva información constantemente.
- ¿Hace falta entonces que aprenda por si mismo o no es requisito necesario? Parece evidente que si, y estamos muy lejos de ello. Todas las IAs son preentrenadas. El Reinforcement learning no es más que un preentreno iterativo basado en resultados predefinidos.
- ¿Tiene que abarcar todos los campos del conocimiento humano o es suficiente con que se especialice en temas específicos? Ahora mismo todas las IAs son específicas, pero juntarlas tampoco parece suficiente
- ¿Es suficiente que sea digital o tiene que tener capacidades físicas (Robot)? Yo creo que no, pero si fuese así cualquier robot está muy lejos de pasar un simple test de Turing.
No es tan sencillo. Dicho esto, con potencia de cálculo infinita y los conocimientos teóricos actuales, nunca tendremos IAG, tan solo IAs más potentes y con más datos de entrenamiento, es decir, inferencias estadísticas cada vez más complejas, pero no por ello inteligentes. La pieza que falta es el conocimiento humano, no la potencia de cálculo.
p2dzca
Coincido con las ideas sobre IA del comentario 1.
1) No tenemos una carencia de hardware, sino de software. Antes de crear IAG debemos entender cómo funciona la inteligencia humana (y de otros animales) y trasladar ese conocimiento a algoritmos, y esos algoritmos nos permitirán diseñar el mejor hardware para ellos. Tampoco tenemos una carencia de velocidad. No es que tengamos IAG pero que vaya muy lenta. No la tenemos.
2) Los métodos probabilísticos de Extropic que aquí se mencionan no van a propiciar la IAG. Esos métodos pertenecen a la categoría de inferencia inductiva. Para tener IAG necesitamos saber cómo crear inferencia abductiva. No tenemos ni idea de como hacerlo.
t_r_a
"La inteligencia artificial general deberá ser capaz de realizar juicios y razonamientos ante una situación de incertidumbre", siento decirte que la inteligencia artificial, tanto la general como la particular (o como quieras llamarla), siempre estará limitada por el hardware (por muy avanzado que sea) y por el software (por muy avanzado que sea), y ni uno ni lo otro puede modificar su naturaleza, asín que la IA no deja de ser un bulo, chulo, un bulo chulo, pero un bulo
royendershade
"otros prefieren restringir esta última denominación solo para aquellos sistemas que tienen consciencia de su propia existencia"
Pretensión un tanto absurda ya que la propia consciencia de la existencia no se puede probar ni siquiera en humanos. En una IA deberemos siempre considerarlo como algo simulado.
nexus01
Mas allá de que puedan servir para una IAG, que dudo que podamos alcanzar hasta que comprendamos mejor como funciona nuestro cerebro, una nueva generación de transistores que tenga mas capacidad y consuma menos energía sería bastante bienvenida.
Usuario desactivado
No lo sé Rick, huele a grafeno :-)
gorullull
Yo también llevo tiempo diciendo que todavía NO EXISTE la inteligencia Artificial, solo recopila datos de internet. Es como un buscador sofisticado, pero no es inteligente.
Ahora el tema de los TRANSISTORES, efectivamente estamos llegando a su límite y creo que hay que investigar otras tecnologías.
Lo mismo que pasó con las válvulas, que consumían un webo y se calentaban muchísimo... de ahí vinieron los transistores que han mejorado cada vez mas.
Por cierto, otra cosa en la que no se ven mejoras radicales: los motores eléctricos...
joseg1
Casi más interesante que las noticias sobre inteligencia artificial, son las reacciones a la defensiva que provoca en los humanos. Admitimos que no sabemos muy que es exactamente la inteligencia y mucho menos la consciencia, pero aseguramos que no se conseguirá. Sea lo que sea y salvo que creamos en cuestiones espirituales, está claro que la inteligencia reside en nuestro cerebro, una máquina biológica resultado de la evolución, que no es otra cosa que la supervivencia del organismo más apto. Por lo cual, el mecanismo de éste no tiene porqué no ser replicado e incluso superado por dispositivos artificiales, que además podrán auto mejorarse a mucha mas velocidad que la evolución biológica.