El desarrollo de la inteligencia artificial está en plena ebullición, pero frente a todas las ventajas que puede traer también están los potenciales problemas que puede causar. Un grupo de expertos en inteligencia artificial han querido incidir en esos riesgos, y lo han hecho de una forma muy especial.
Un mensaje de 22 palabras. El Center for AI Safety es una ONG con el objetivo de "reducir los riesgos a nivel de sociedad que conlleva la IA". En su web se ha publicado el "Comunicado sobre el riesgo de la IA" que reúne a diversos expertos en IA, académicos, periodistas y reguladores. Todos ellos han querido avisar de los peligros de desarrollar esta tecnología de forma inadecuada, y para ello han usado un mensaje contundente de tan solo 22 palabras (27 en su traducción al español):
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
Grandes personalidades lo firman. Entre los firmantes están Geoffrey Hinton —calificado como "el padrino de la IA"—, Yoshua Bengio —premio Turing 2018—, Demis Hassabis —CEO de DeepMind—, Dario Amodei —CEO de Anthropic—, Kevin Scott —CTO de Microsoft—, Bruce Schneier —uno de los mayores expertos en ciberseguridad— o Sam Altman —CEO de OpenAI—. Hay muchas más personalidades, y de hecho cualquier experto se puede sumar al comunicado en el formulario que ofrecen en la web del comunicado.
Pero otras no. Hay algunas ausencias singulares, como lasd e Yann LeCun —máximo responsable de IA en Meta—, Mark Zuckerberg, Bill Gates —que se muestra entusiasta pero también cauto sobre esta revolución— o Elon Musk. Este último caso es notable, sobre todo teniendo en cuenta que él fue uno de los grandes apoyos del reciente intento por pausar el desarrollo de modelos de IA durante seis meses.
Un momento delicado. El mensaje llega en un momento especial, ya que plataformas como ChatGPT han detonado una verdadera revolución que ha atraído a millones de personas y a muchísimas empresas. Está siendo de hecho motor del impulso económico de varias de las Big Tech —con NVIDIA a la cabeza—, pero al mismo tiempo se están generando debates importantes tanto en EEUU como en Europa sobre cómo regular su desarrollo.
Carta abierta. Como señalan en The New York Times, Dan Hendrycks, responsable del Center for AI Safety, indicaba que esta es una carta abierta que permite a los expertos unirse públicamente a la preocupación por el desarrollo frenético de este campo. "Existe la idea errónea, incluso en la comunidad de la inteligencia artificial, de que sólo hay un puñado de catastrofistas. Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas".
Es, sobre todo, una advertencia más. El mensaje en realidad no es ni mucho menos nuevo. Hace meses Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Aún así, el mensaje pone de relieve que muchos expertos en efecto ven peligros claros en ese inusitado despliegue de sistemas de inteligencia artificial. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación, mientras que Sam Altman declaró en el Congreso con un mensaje más genérico pero igualmente preocupante: "creo que si esta tecnología va mal, puede ir bastante mal".
Imagen | Johnny Guatto / University of Toronto | DeepMind | Village Global
En Xataka | De la amenaza al "estamos encantados": cómo ve Altman el futuro de ChatGPT y OpenAI en Europa
Ver 20 comentarios
20 comentarios
Itopo
Las IAs se estan usando ya para invertir en bolsa. Ahi tienes ya consecuencias reales para cualquiera.
p2dzca
Uno de los mayores problemas que existe al hablar de los peligros de la IA es que no se suelen detallar los riesgos o solo se menciona uno o unos pocos.
Riesgos actuales: desde hace más de diez años, con el auge de 'deep learning', existen sistemas de IA muy potentes que han causado muchos problemas, como la discriminación por sexo, raza o nivel económico debido a que se han entrenado con información sesgada. También se ha utilizado y utiliza IA para crear burbujas de opinión que generan radicalismos, desinformación, fanatismos políticos, fomento de pseudociencias y teorías sobre conspiraciones y la manipulación de la opinión pública en procesos electorales (hay empresas que se anuncian así, tú les pagas y ellos te garantizan la manipulación del electorado en la dirección que desees). Esto se sabe desde hace años y nadie ha querido regularlo por ley.
Riesgos en el futuro próximo: el riesgo más grave a corto plazo (y ya se está utilizando ahora) es la destrucción de la confianza en la información. Los sistemas de IA generativa son capaces de, por ejemplo, clonar la voz de una persona y añadirla a un vídeo falso, crear vídeos en los que aparecen personas reales que nunca han participado en su creación, generación de fotografías falsas, etc. Esto abre la puerta a una manipulación informativa sin precedentes, a la destrucción de la verdad y, por tanto, al caos. Hace unos meses salió la noticia de un persona que había sido linchada debido a que aparecía como protagonista de un vídeo falso. No veo ninguna iniciativa para legislar esto.
Posibles riesgos en un futuro lejano: algunas personas hacen hincapié en los riesgo de una IA muy superior a la que tenemos los seres humanos. Podemos hablar de ello y empezar a plantearnos la situación, pero no es algo que vaya a suceder a corto plazo. Es más importante que regulemos lo que ya existe.
OpenAI publicó un comunicado hace unos días en el que hablaba únicamente de los riesgos de una IA a la que llamó 'superinteligencia'. Fue un movimiento inteligente y estratégico para la empresa, porque la ponía en una posición de preocupación y acción frente a los riesgos de la IA, pero ignoraba los peligros de la IA que ya existen hace años y los que tenemos a corto plazo, y todo ello porque, en el fondo, no quieren que se regule su negocio.
Usuario desactivado
Veréis qué risa cuando los clientes le pidan los requisitos diréctamente a la IA.
Yo creo que estamos a salvo.
vilani
El riesgo de extinción de la humanidad es un hecho mas que real, lo único que no te dirá la IA ni nadie es para cuando.
Parece mentira que se hable tanto de la IA como si esta fuera una maquina que pensara por ella misma.
La IA no piensa ni pensara, solo es un programa al que se le pregunta, procesa la pregunta, busca en su base de datos y responde. Después de eso la IA hará mas o menos según el algoritmo que el programador haya programado. Por supuesto que procesa preguntas, respuestas y según la información pasada la respuesta a una misma pregunta siempre será diferente.
Claro que aprende, pero para nada piensa como una inteligencia.
tomasjose
No os preocupéis, en cuanto llegue el momento Pzifer y Moderna sacarán la vacuna para la IA.
cifra
No paran de salir artículos de estos diciendo que la IA es potencialmente apocalíptica, pero ninguno que me diga nada concreto, solo vaguedades ¿que es lo que podría pasar si las cosas salen mal? que me hagan una lista de casos hipotéticos y me lo expliquen.
pinerbrains1
A mi me basta una sola palabre: Terminator
t_r_a
como sea tan buena como la que le hizo un script a mi jefe para recuperar una lista de archivos y/o directorios vacios para la consola de windows, me cago, no he visto una mierda de script mas malo que ese, ademas de lineas de codigo inutiles que no sirven para nada, lo que hace un programador con dos lineas, le metió el algorritmo (que ahora lo llaman IA) veinte lineas, jajajajaja, le mete un "setlocal enabledelayedexpansion" y va y utiliza las variables con %%, no habia una variable nombrada entre ! , se nos va a llenar los fuentes de mierda de codigo, eso si, muy moderno generado por algorritmos, ahora llamados IA
sanamarcar
El chat GPT es mas tonto que un gorrión y consume 10.000 veces mas energía.
Suscribo a 5. Mucho peligro pero la pasta es la pasta. Y en EEUU gastan el dinero publico en defensa pero no educación y
ni sanidad. Prioridades...
Una IA entrenada por los yankis sera buena en programación o mates, pero en lo demás no la sabrían entrenar. Además si ya es lenta ahora de cojones. Que acabo yo antes en ir al libro en la biblioteca del pueblo.
IA pa que, esa es la pregunta fundamental. El resto a especular con dinero de otros... y hacen bien.