Hace pocas semanas Elon Musk se convertía en una de las personalidades que firmaban la carta para pausar inmediatamente el entrenamiento de nuevas IAs. El mensaje era hasta cierto punto razonable, pero Musk tenía motivos adicionales para suscribirse a esa iniciativa. El más importante: el de poner en marcha su propio proyecto de chatbot para rivalizar con ChatGPT. Ahora sabemos un poco más acerca de cómo quiere enfocar ese desarrollo.
TruthGPT. Como señala The Verge, Musk concedió recientemente una entrevista en Fox News. En ella afirmó estar trabajando en TruthGPT ("truth" significa "verdad"), una alternativa a ChatGPT que actúa como una "inteligencia artificial en busca de la máxima verdad". El multimillonario dueño de Twitter ya publicó un mensaje en febrero hablando precisamente de esa posibilidad.
Hay que evitar la destrucción de la humanidad. Para Musk este chatbot "intenta comprender la naturaleza del universo. Y creo que este podría ser el mejor camino hacia la seguridad en el sentido de que una IA que se preocupe por entender el universo es poco probable que aniquile a los humanos porque somos una parte interesante del universo".
Comparaciones peligrosas. Musk hizo referencia a cómo los seres humanos se esfuerzan en proteger especies como la de los chimpancés, algo extraño teniendo en cuenta lo que ocurrió durante sus experimentos con ellos en el desarrollo de Neuralink. El multimillonario comentó que "reconocemos que la humanidad podría decidir cazar a todos los chimpancés y matarlos. En realidad, nos alegramos de que existan y aspiramos a proteger sus hábitats".
¿Es TruthGPT un producto factible? Puede que la intención sea buena, pero lo cierto es que los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos. Los problemas en este sentido llevan manifestándose desde hace años en diversos proyectos de inteligencia artificial, sobre todo en el ámbito del sesgo racial y de género. ChatGPT ha demostrado que puede llegar a comportarse de forma tóxica, por ejemplo.
Las IAs mienten e inventan. Y luego está el otro problema: los chatbots que están apareciendo en el mercado —ChatGPT es un buen ejemplo, pero también le ocurre a Bing con ChatGPT y a Google Bard— no paran de inventarse cosas y de mentirnos. Lo hacen sin darse cuenta, claro, pero es una limitación importante de estos servicios, y no queda claro cómo Musk y los integrantes de su nuevo equipo van a lidiar con el problema.
Los entrenadores humanos no son la solución absoluta. Los desarrolladores de estos sistemas suelen aprovechar las ventajas del RLHF (Reinforcement Learning from Human Feedback), una forma de que usuarios humanos prueben primero estos sistemas de forma intensiva y los pulan antes de que estén disponibles públicamente. OpenAI explicaba ya en enero de 2022 cómo estaba usando esta técnica para el desarrollo de GPT-3, pero aún así, los problemas existen.
Sea o no muy "Truth", Musk quiere tener su IA. Así lo demuestran los últimos movimientos. Además de la compra de 10.000 GPUs para entrenar a un gran modelo de lenguaje propio, Musk también fundó X.AI, una nueva compañía de inteligencia artificial, a principios de marzo —bastante antes de firmar la célebre carta para pausar la IA— y sin decir nada a nadie.
En Xataka | España investiga oficialmente a OpenAI por ChatGPT: un posible incumplimiento del GDPR aparece en escena
Ver 21 comentarios