1. GPT-4 es un artefacto fabuloso, muy sorprendente. Yo, que llevo siguiendo los grandes modelos del lenguaje casi desde el principio, no pensé que se llegaría a tal calidad en las respuestas. Creo que todo el mundo se queda perplejo al comprobar como un sistema de semántica distribuida tenga tan buen desempeño. Sin embargo, a pesar de lo que pueda parecer, todavía estamos muy lejos de una inteligencia artificial general. Si abrimos el capó y vemos su funcionamiento interno, es un sistema estadístico de generación de texto en el que no hay pensamiento ni razonamiento ni comprensión puramente dichos. GPT-4 es muy tonto, y su buen desempeño es solo la apariencia externa. Aunque la analogía no sea del todo completa, GPT-4 no dista tato de la ELIZA de Weizenbaum, programa que, por los años sesenta del siglo pasado, también causó un hype impresionante.
2. Pero, a pesar de estar lejos del logro de una inteligencia artificial general, GPT-4 y sus homólogos van a dar lugar a una serie de herramientas magníficas que, en términos generales, nos van a hacer la vida mucho mejor, que es lo que ha hecho la tecnología, reitero que, lato sensu, desde el comienzo de los tiempos. Los avances tecnológicos son uno de los factores más determinantes del bienestar del que disfruta la humanidad occidental en el siglo XXI. Cualquier persona de clase media de un país desarrollado vive hoy mejor que un rey del medievo. Y esto creo que justifica el optimismo. Apuesto (si bien reconozco que la tarea de futurólogo es muy compleja en estos tiempos) a que los grandes modelos de lenguaje van a mejorar más que empeorar el mundo. No seamos tecnófobos a estas alturas.
3. Las tecnologías disruptivas siempre han traído una cierta incertidumbre. Nadie sabía lo que iba a traer la imprenta, la máquina de vapor, la electricidad o internet, y muchos ya se ponían apocalípticos en esos tiempos. No hagamos ahora lo mismo. Eso, por supuesto, no implica que bajemos las defensas. Hay que vigilar muy de cerca todo lo que hacen las grandes empresas tecnológicas, muy atentos a todas las feas jugadas que, sin duda, van a intentar. Y hay que legislar. Y aunque ya sabemos que, desgraciadamente, las legislaciones van siempre muy por detrás de la tecnología, hay que hacerlo lo mejor posible. Vivimos en un momento apasionante para los juristas. Esperemos que estén a la altura.
4. La celebérrima carta del Future of Life Insitute que pide una moratoria de seis meses en el desarrollo de sistemas superiores a GT-4 es un brindis al sol. Nadie se cree que la carrera por la supremacía en IA vaya a pararse ni siquiera un minuto. Además, ¿seis meses? ¿Seis meses será tiempo suficiente para arreglarlo todo? ¿Y por qué no un año o diez? Además, hay muchas otras tecnologías (si no casi todas) de las que desconocemos su potencial dañino futuro. Tenemos a nuestros hijos completamente adictos a las redes sociales ¿Por qué no una moratoria ahí? ¿Una moratoria a TikTok, Spotify, Roblox, HBO…?
5. Me hace gracia que en ella se hable de que podemos perder el control de la civilización. Es una idea que se repite mucho cuando la gente fabula con la singularidad tecnológica, pero si lo pensamos bien: ¿es que acaso ya tenemos el control de la civilización? ¿Quién tiene ese control? Es cierto que hay esferas con mucho más poder que otras, pero decir que hay algo o alguien que controla el curso de los acontecimientos es de una ingenuidad pasmosa. El poder en el mundo, afortunadamente, está bastante descentralizado. Precisamente, los últimos acontecimientos mundiales: Trump, Brexit, Covid, guerra de Ucrania… han sido claros cisnes negros, sucesos completamente impredecibles ¿Alguien tenía el control sobre todos estos hechos? Entonces, ¿quién perderá el control cuando lo tome la IA? ¿Elon Musk? Curiosamente (o no tanto), Musk firma la carta a la vez que pisa el acelerador en la IA de Twitter.
6. También se cae en el error de pensar que una IA, una entidad única, será la que tome el control ¿Una? ¿Cuál? ¿La de OpenAI, la de DeepMind, la de Meta quizá? ¿Las que está desarrollando China? Inteligencias artificiales hay muchas y muy variopintas. De hecho, cualquier software de tu ordenador o smartphone hace tareas que, si las viéramos eh humanos, diríamos que son inteligentes. Por tanto, cualquier de nosotros tenemos inteligencias artificiales en nuestras manos ¿Será una de ellas la que liderará la rebelión? Es curioso como la ciencia-ficción se ha instalado en los cerebros de personas que tienen que tomar importantes decisiones que nos afectan a todos. En serio, de verdad, repitamos todos: las máquinas no se van a rebelar, no va a haber ninguna guerra final contra ellas ni ningún apocalipsis de ningún tipo. Terminator o Matrix son películas de ficción, no pronósticos basados en evidencia.
7. En la carta se pide que estos sistemas sean «precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales». Creo que precisión, seguridad, interpretabilidad, transparencia y robustez es algo que ya se pide a cualquier software y que no se consigue: yo no tengo acceso al código fuente de Windows… Pero lo que me parece más gracioso es que sean «alineados, confiables y leales», virtudes que yo le pediría más a una mascota que a un programa de software. Nick Bostrom habla en su insufrible, pero muy citado, Supertinteligencia (uno de los libros peor escritos que jamás he tenido el displacer de leer) de que es importante que construyamos inteligencias cuyos valores éticos estén alineados con los nuestros. Esto es otra chorrada más de ciencia-ficción ¿Es que alguien se va a poner a programar software psicópata y lo va a situar en posición de tomar decisiones importantes? ¿En un escaño en el Parlamento? Cuando hemos puesto a sistemas de redes neuronales a tomar decisiones y resulta que han tenido sesgos racistas, homófobos o machistas, rápidamente hemos ido a corregirlo ¿En serio que pensamos en máquinas que, al tener unos valores éticos diferentes a los nuestros, van a optar por exterminarnos? ¿En serio que si aparece una superinteligencia cósmica lo primero que va a pensar es en nuestro exterminio? ¿Siendo tan inteligente no se le va a ocurrir otra cosa? Además, ¿qué alineamiento? ¿La ética de los expertos en IA del MIT? ¿O de los monjes budistas del Tibet? ¿O de los tuaregs del Magreb? ¿Existe un acaso un alineamiento ético universal?
8. Se está cayendo todo el rato en la conocida falacia de la pendiente resbaladiza. Ésta consiste en ir encadenando sucesos sin conexión probada que, al final, nos llevarán a uno terrible. La sucesión será así: la IA avanza notablemente, la IA igualará y superará al hombre, la IA tomará el control, la IA nos exterminará. No hay conexión probada que justifique que ninguno de esos sucesos sea la causa del siguiente. Me gustaría que explicaran con claridad cuáles son los inevitables pasos que van desde diseñar a un chatbot hasta que éste se hace con el control de la civilización y nos aniquila.
9. En lo que sí estoy de acuerdo con la carta es en que sí que me parece que no debemos dejar la toma de decisiones que nos van a afectar a todos solo en las manos de los dos o tres ceos de las gigantes tecnológicas. Por muy majo que pueda parecer Sam Altman, nadie lo ha elegido democráticamente. Yo quiero que representantes políticos electos sean los que decidan el futuro. Por eso está muy bien que Open IA, a pesar de no haber hecho público su funcionamiento (los dos artículos técnicos que ha proporcionado no nos dan datos relevantes sobre su arquitectura, entrenamiento, hardware, etc.), haya hecho público el uso de ChatGPT. Todos hemos podido usarlo y ahora estamos debatiendo sobre sus usos futuros. El debate público está alcanzando cuotas importantes, y eso, queridos amigos, es la democracia. Mucho de lo que se hable impregnará la mente de políticos y gurús de la industria, y obrarán en consecuencia. Esto es muy buena notica.
10. Italia se equivoca de raíz. Es cierto que hay que revisar si estos modelos incumplen la ley de protección de datos y trabajar en esa dirección, pero no llegando a prohibir, más en este momento. Pero este es el triste papel que parece desempeñar Europa en el campo de la IA. Se ha quedado completamente atrás en la carrera y parece que solo puede hacer de policía gruñón. No está nada mal que exista un policía gruñón, es muy necesario, lo malo es que solo se sea eso.
11. No puedo entender cómo el periódico Time ha dado espacio a las locuras de Eliezer Yudkowsky. Este hombre, creyéndose Sarah Connor, dice que como la IA va a causar el fin de la humanidad, hay que bombardear centros de datos de cualquier país, incluso si esto nos lleva a una guerra nuclear. Los medios tienen la responsabilidad de establecer unos mínimos de los que es publicable y lo que no, y yo pensaba que un periódico como Time los tendría. Desde aquí animo a los medios a que no publiquen basura, a ver si la moratoria de seis meses va a tener que ser hacia el periodismo.
12. Sobre lo que sí hay que preocuparse es sobre los problemas actuales: protección de datos, copyright, sesgos discriminatorios, ciberseguridad, fake news, usos militares, etc. Es decir, hay que mantener la clásica vigilancia democrática que hay que ejercer sobre cualquier desarrollo tecnológico, igual que hacemos con los medicamentos o con el reciclado de residuos. Toda tecnología siempre ha tenido una cara B, siempre ha tenido un posible uso perverso. Lo que hay que hacer es lo de siempre: educación y legislación. Quiero que los ingenieros de OpenAI hayan sido educados con buenos valores morales y quiero un buen marco legislativo que evite los malos usos. Ahí es donde debemos estar y no luchando contra Skynet.
Imagen | Sanket Mishra/Unsplash
En Xataka | Las inteligencias artificiales creativas van a matar el arte otra vez. No tiene la más mínima importancia
Ver 14 comentarios
14 comentarios
eufrasio
El New York Times se ha puesto a la altura de la revista pronto.
marinagc
Un principio que dice "el fin justifica los medios", expresa que cuando el objetivo o la causa son importantes, cualquier medio utilizado para lograrlo es válido y que la IA podría asumir entre sus competencias si su dominio de tomar decisiones es mas eficiente que el control que puedan establecer los humanos sobre ella.
neowolf
Lo que va a pasar:
Primero los oficios de maestro desde cierto grado, abogado, juez y servicio al cliente serán los primeros en desaparecer. Un médico puede pensar que está salvo. Pues no, usted se conectara a su PC o Móvil a cualquier hora. Le dirá por ejemplo al médico AI, me duele un hombro. La AI le dirá roté su hombre a 45 grados "por ejemplo" y un sensor como el de los Nintendo wii detectara tu posición y el punto donde te quejas. La Inteligencia Artificial te recetará unos, medicamentos y enviará la receta a la farmacia de tu preferencia. Además, te mandará hacer unas radiologías o un MRI, para saber qué está pasando. Y la orden será transmitida a tu hospital preferido, al igual que tu receta. El hospital te hará los estudios y los resultados se le transmitirán a tu médico, AI. Él usará reconocimiento de imágenes, por ejemplo, para leer las radiologías. Y en un ejemplo hipotético que tengas un tendón desgastado, te puede según el caso. Recomendarte una operación para corregir el problema. Y aquí dirás hasta aquí llego la AI. Pues no, van a conectar la AI a un sistema como Da Vinci Robotic y ella te va a operar mucho más preciso que un médico humano. "He visto a Da Vinci tomarle puntos a la cáscara de una uva". Y de hay a tu cuarto de recuperación, luego a tu casa y el sistema te facturara electrónicamente. Y se acabaron los médicos. Eso mismo para los mecánicos, etc. Poco a poco mejorando tecnologías que ahora están empezando, como los robots humanoides del ejército que se están probando. Una vez tengamos como en las películas "Humanoides AI" varias cosas van a ir cambiando. Para empezar, cuando creas una AI la entrenas, así que es como un ente inmortal. Que seguirá aprendiendo "infinitamente". Y esto hará que aunque un humano estudie, haga un doctorado y tenga 20 años de experiencia, el humano nunca acumule el conocimiento de la AI. Entonces pasarán varias cosas, tendrás personas con muy buenos estudios desempleados, tendrás otras muchas personas desempleadas. Ya que la AI los remplazara, al principio será difícil, luego nos dividiremos en Humanos y robots. "Como en las películas" Y tendrás que imaginarte a los robots haciéndolo todo para nosotros. Pues claro, un robot no necesita una casa, ni familia, ni un carro, no tienen necesidades o antojos como los humanos, No desean cosas como nosotros, ni tienen sentimientos como nosotros. Entonces el dinero dejará de existir. ¿Por qué? Porque la gente que no genera dinero trabajando tampoco lo gasta y los robots harán todo"Todo". Y aquí llegará el final. Hay un sitio en Japón que se llama el bosque de los suicidios. En este bosque unos psicólogos han estudiado porque es tan alta la taza de suicidios. Ya que la zona tiene casi cero de criminalidad, buen nivel de vida, etc... Pues por lo que pude leer y tiene mucho sentido. Imagínate esto, una persona que no tiene metas, ni responsabilidades, ni problemas, que lo que desee lo tiene como viajar, comer, lo que sea. Esa persona empieza a dilucidar cuál es su propósito en esta vida e igual decidir que no hay porque seguir viviendo. Una muestra de esto es en USA un porciento mayor de retirados mueren si cuando se retiran se dedican a ser sedentarios vs. lo que trabajan en algún Hobby. Las personas que no hacen nada terminan deprimiéndose, enfermándose y muriendo al fin. Mucho más rápido que los que no. Lo que quiere decir que el fin de la raza humana no serán las guerras, ni las enfermedades, ni los chips o códigos de barras que nos marcaran. ¡Al fin moriremos de NO HACER NADA!!!! ¡Lo más insólito!!!! Gracias
P.D. Me gustaría hacer una película de esto! ;-)
Guest
Al autor de esta nota, por favor leete estos artículos y entenderás por qué existe cierta preocupación entre los más expertos en el tema:
https://maartensteinbuch.com/2015/02/02/the-ai-revolution-the-road-to-superintelligence/
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
frangar
Sobre los puntos...
4. Esta claro que ese "pedido de reposo" de 6 meses, fue una triquiñuela para que las empresas declarantes intentaran alcanzar o mejorar su posicion respecto a OpenAi.
7. Se le pide a la IA cualidades que deben poseer muy pocos humanos.
"¿Es que alguien se va a poner a programar software psicópata y lo va a situar en posición de tomar decisiones importantes? " ¿Algun psicopata?. ¿No tiene la impresion de que la mayoria de los que detentan algun poder son eso, psicopatas? Lo que si ocurrira es que las IA de ahora en adelante tendran "valores eticos" alineados con los de su propietario.
toni2
El mayor punto a favor del ChatGPT, además sin discusión creo yo, es que Microsoft se va a forrar y va a aumentar si poder sobre todos los demás.
Cualquier otro punto no es más que humo.
Kyagu
Buen artículo,. Sin embargo, quisiera destacar un detalle: sí hay cierto motivo para ser tecnófobo, y es que el artículo no habla de cuantos empleos/sectores económicos fueron destruidos o sustituidos por la invención de la imprenta o la máquina de vapor.
Los avances tecnológicos implican cambios en los sectores económicos y pueden causar pérdidas de empleos.
manuduque
Gracias por el artículo, hacen falta opiniones contrastadas sobre todo lo que rodea a la IA, se habla mucho y se habla por hablar. Necesitamos datos, pruebas, certezas de lo que se dice, así que gracias por aportar realismo sin adornarlo con catastrofismo. Saludos