ChatGPT está muy bien. Es capaz de dar respuesta a nuestras preguntas, y aunque a veces cometa errores o se equivoque, él y sus rivales pueden llegar a ser muy útiles. El problema, claro, es que solo dan respuesta a esas preguntas. No son capaces de actuar en consecuencia.
Si le preguntas a ChatGPT o cualquier chatbot por la receta de unos espaguetis carbonara, te la ofrecerá sin problemas. El problema es que se quedará ahí: seremos nosotros los que tendremos que comprar los ingredientes y cocinarlos.
Es ahí donde entran los agentes de inteligencia artificial. No solo tienen esa respuesta, sino que pueden actuar en consecuencia. En nuestro ejemplo el agente de IA no solo nos diría cómo preparar ese plato, sino que sería capaz de crear una lista de la compra en un supermercado y hacer el pedido por nosotros. El agente de IA nos pedirá nuestra confirmación para que la compre se finalice, por supuesto, pero nos ahorrará tiempo. Y esa es la idea: que lo que se aplica al ejemplo de la receta se aplique a otros muchos casos y escenarios.
La carrera por los agentes de IA ya ha comenzado
En eso están las grandes de la tecnología. A diferencia de un simple "bot" que siguen una secuencia cruda de instrucciones, se supone que los agentes autónomos sn capaces de interactuar con su entorno, aprender de los comentarios que les hacemos y tomar decisiones sin la intervención constante de los seres humanos. Son muchas las empresas metidas en esa carrera; repasemos sus avances:
- DeepMind. La compañía acaba de fichar a Tim Brooks, que hasta ahora había trabajado en OpenAI. Lo hizo como uno de los máximos responsables del desarrollo de Sora, el modelo de IA de vídeo que ya nos asombró hace unos meses. Ahora su trabajo se dirigirá a un escenario distinto: agentes de IA para videojuegos. La tecnología, llamada SIMA (Scalable Instructable Multiworld Agent), permitirá crear algo así como "NPCs inteligentes" como los que también está desarrollando NVIDIA. La intención final ni siquiera es esa, sino que "la investigación de agentes puedan utilizar los videojuegos como sandboxes para comprender mejor cómo los sistemas de IA pueden convertirse en algo más útil". O lo que es lo mismo: que luego esos avances se puedan aplicar al mundo real.
- Anthropic. Hace meses la compañía presentó una nueva herramienta llamada "function calling" para su chatbot Claude que permitía que cualquiera crease un agente para funciones diversas como dar asistencia en la redacción de correos electrónicos o incluso un bot para comprar zapatos. La idea es relativamente sencilla: la herramienta puede analizar datos —nuestro historial de compras— con los que crea una serie de recomendaciones personalizadas de productos.
- OpenAI. Durante la presentación de su modelo o1, los responsables de OpenAI confirmaron su objetivo de que los agentes de IA lleguen al mercado el año que viene. Kevin Weil, responsable de producto en la empresa, explicaba en Financial Times cómo "queremos que sea posible interactuar con la IA de la misma forma que interactuas con otro ser humano". Sam Altman explicó en julio cómo al parecer estos agentes autónomos serán parte integral de GPT-5, la futura y esperada versión de su gran modelo de lenguaje para su chatbot de IA generativa. Antes, en mayo, Sam Altman indicó en MIT Technology Review que lo que realmente queremos de la IA es que nos ayude. Eso sí, con una pega inquietante, porque ese sistema sería "un colega súper competente que lo sepa todo de nosotros".
- Amazon. El gigante del comercio electrónico sigue en un extraño segundo plano en el ámbito de la IA, aunque todo apunta a que pronto ofrecerá novedades importantes. Trishul Chilimbi, uno de los responsables de sus esfuerzos en este campo, indicaba en Wired que ya están trabajando en agentes de IA que puedan recomendar productos e incluso añadirlos al carrito de la compra. Parece natural pensar que con todo lo que sabe Amazon sobre nuestros hábitos de compra, contar con un asistente especializado en esas dos tareas parece factible.
- Microsoft. Mustafa Suleyman, que dirige la división de IA en la empresa, hablaba recientemente de cómo estamos en la primera de las tres fases de este despliegue de IA generativa. Por ahora los chatbots conversan con nosotros, pero lo próximo es que tengan memoria persistente para luego puedan convertirse en agentes de IA que hagan cosas por nosotros. Ya tienen prototipos en desarrollo, pero esos modelos experimentales están aún verdes. En realidad ya tienen agentes de IA funcionando —como otros proyectos, lo vimos con Devin— en su suite de soluciones para desarrolladores, pero el objetivo es llevar esas soluciones a muchos más escenarios.
- Meta. En la reciente Meta Connect 24 pudimos comprobar cómo Mark Zuckerberg presentaba Llama 3.2, una nueva versión de su LLM que quiere conquistar aún más terrenos, móviles incluidos. La fusión de ese modelo y sus futuras versiones con las prometedoras Ray-Ban Meta han pensar en que a medio plazo podremos tener algo similar a lo que Google proponía con su Project Astra. Aquí la interacción con otras aplicaciones parece igualmente factible, y la empresa parece estar siguiendo de momento un camino algo más académico, al estilo de DeepMind. La prueba la tenemos en Cicero, un agente autónomo de IA diseñado para derrotar a los seres humanos en juegos complejos.
- Apple. La compañía dirigida por Tim Cook comienza a desplegar ahora sus primeras funciones de IA en su plataforma Apple Intelligence, pero ya tiene algo de experiencia con automatización de tareas con soluciones como los atajos de iOS y es de esperar que esa interacción entre el sistema y las aplicaciones se extienda próximamente a otros dispositivos. En Bloomberg hablaban ayer del prometedor papel de la robótica y la domótica en el catálogo de Apple y allí decían, "el objetivo de la compañía es ofrecer su nueva plataforma Apple Intelligence para ofrecer una automatización supervitaminada en el hogar". Destacaban además un nuevo sistema de "App Intents" que permitirá que Siri pueda manipular características dentro de aplicaciones. No solo bajar o subir el volumen, no, sino probablemente —en el futuro— usar Siri para pedir un taxi con una sencilla orden de voz para que lo busque y simplemente tengamos que confirmar que estamos de acuerdo con la respuesta que nos da a esa orden.
- Google. Lo que vimos de Project Astra hace unos meses precisamente marcaba ese futuro en el que no solo hablaremos con nuestro asistente-chatbot, sino que le pediremos que haga cosas con nosotros al poder interactuar con otras apps de nuestro móvil, por ejemplo. Teniendo en cuenta que DeepMind es parte de la compañía y ellos también están avanzando en este campo, es de esperar que los avances de unos acaben siendo importantes para los que realicen los otros.
Del dicho al hecho hay mucho trecho
Por supuesto, hay retos colosales a la vista. No solo está el hecho de que los agentes de IA puedan equivocarse y cometer errores como ya lo hacen los chatbots, que también: está el temor de que sean usados —inevitablemente— para escenarios tóxicos. Que puedan ser utilizados para realizar fraudes de todo tipo, por ejemplo. Eso, que ya estamos viendo con los deepfakes y el phishing generado por IA, podría llegar a un nuevo nivel con los agentes de IA.
Hay otros problemas, y el más acuciante para estas empresas es el de lograr demostrar que la IA puede ser mucho más útil. Aunque las plataformas y modelos de IA generativa han demostrado su utilidad en campos como la programación o el diseño, no acaban de cuajar por ejemplo entre los usuarios finales.
Parte de culpa es que el despliegue masivo de la tecnología está siendo exasperante: Google, Apple y Microsoft nos hicieron ver que a estas alturas la IA estaría por todos lados ayudándonos a hacer mucho más por mucho menos, pero las funciones que han llegado a nuestros móviles y ordenadores son de momento escasas o, en el caso de España y Europa, nulas.
Pero aquí los gigantes (y no tan gigantes) tecnológicos que no paran de invertir cantidades absurdas de dinero en IA necesitan demostrar que tienen productos útiles. Están quemando dinero a ritmos frenéticos, y si para sostener esas inversiones es necesario crear toda el hype y la expectación posible —como hace Sam Altman a menudo—, que así sea. Eso, por supuesto, es peligroso.
En Xataka | La revolución de la IA de Microsoft en Build tiene un objetivo: automatizarlo (casi) todo en la empresa
Ver 4 comentarios
4 comentarios
p2dzca
Algunas reflexiones sobre todo esto:
Como bien dijo Yann LeCun, primero surgió la inteligencia natural y el lenguaje complejo vino después como consecuencia de ella, no al revés. Pretender crear una inteligencia artificial similar a la natural partiendo del dominio del lenguaje es un callejón sin salida.
Las grandes tecnológicas nos intentan vender su entusiasmo y la inminencia de una IA muy superior a la actual, pero tienen gente muy lista que sabe que no son ciertos sus pronósticos. ¿Por qué lo hacen entonces?:
* Tienen que conseguir ingresos cuanto antes para financiar la larga carrera hasta conseguir IAG.
* En paralelo con el desarrollo de IA generativa, van a crear cualquier aplicación que capte usuarios y que resuelva problemas concretos.
* Quieren usuarios como sea porque, mientras no puedan monetizar los servicios de IA, monetizarán los datos que obtengan sobre nosotros.
El gran negocio, para sorpresa de nadie, sigue siendo nuestros datos. El objetivo de las grandes tecnológicas es la desaparición de la privacidad.
Durante el auge de internet, recopilaron la información que dejábamos en los sitios web, tiendas y servicios que utilizábamos. Los mejores inventos fueron la cuenta de Google (que los usuarios navegaran identificados) y los 'likes' (extensión de los tentáculos de Facebook más allá de su red social). Ambos dos, son "el anillo para controlarlos a todos (los datos personales)".
El siguiente paso fue la aparición de los teléfonos inteligentes (de inteligentes, nada, pero ya apuntaban intenciones). De la recopilación de información desde un dispositivo de uso esporádico (el ordenador personal) se pasó a la recopilación de datos de un dispositivo que va siempre con nosotros y recoge información de nuestra vida personal.
El tercer paso fue la aparición de las redes sociales y su diseño para alimentarlas con nuestra información más personal, lo cual dio lugar a una publicidad infinitamente más personalizada y efectiva que cualquier otra anteriormente.
El cuarto paso es la inteligencia artificial y, especialmente, los agentes. Tiene dos vertientes en cuanto a la pérdida de privacidad. La primera es que los agentes, si queremos que actúen por nosotros, necesitan los mismos permisos que nosotros. Si un agente necesita leer o enviar un correo electrónico o un mensaje de WhatsApp por nosotros, necesita acceso a esa información. Adiós a la privacidad. Adiós a la utilidad del cifrado de extremo a extremo. La segunda es que, cuanto más poder le demos a los agentes, más control tomarán de nuestras vidas y más se lo darán a las grandes tecnológicas. Tratarán de vendérnoslo como una enorme ventaja para nuestras vidas, pero, en el fondo, cederemos una parte de nuestra vida a las tecnológicas. Ellas le sacarán rendimiento y crearán un mundo peor que el de "1984". ¿Qué pasará cuando nuestra vida posible sea definida por los datos recopilados sobre nosotros? Nuestros datos dictarán a qué escuela/universidad vamos, qué seguros podemos contratar, etc. Quizá parezca un futuro lejano o imposible, pero ya existe. ¿Alguien cree que no se están utilizando actualmente datos personales comprados para aceptar o rechazar solicitudes de tarjetas, préstamos, seguros médicos, solicitudes de empleo, etc.?
Los agentes de IA se asemejan a lo que siempre se ha llamado secretaria/o personal. El nombre proviene de 'secreto' porque, en sus inicios, cuando solo el director de una empresa los tenía, eran las personas que guardan los secretos más importantes de las empresas, como acuerdos que no podían figurar por escrito, la clave de la caja fuerte, etcétera. Si el director fallecía, la información confidencial pasaba al siguiente director. La secretaria/o era una persona de la máxima confianza por razones obvias y esto es lo que se debería esperar de un agente. Nada más lejos de la realidad. Los agentes trabajan para las empresas, no para nosotros. Los tienen que hacer lo suficientemente útiles para que los aceptemos.
aerondight420
Un LLM como agente de AI? Osea que en el lenguaje esta codificada la inteligencia y la autonomia? No lo se rick..
pacomeltrosoprieto
La IA está estancada porque la llenan de limitaciones morales, hay palabras clave que no puedes mencionar porque enseguida la IA responde con que mejor hay que cambiar de tema o que mi pregunta es "controversial".
Quiero que la IA me responda con precisión y sin sesgos, no que me de clases de moral y con un claro sesgo progresista (recuerdan los Nazis negros de Google Gemini? JAJAJAJA).