El Deep Learning representa un acercamiento íntimo al modo de funcionamiento del sistema nervioso humano, y lo aplica a los sistemas de Inteligencia Artificial para que sean capaces de aprender a hacer cosas por sí mismos. Esta se está convirtiendo en una tecnología clave para procesar las ingentes cantidades de datos servidas por el Big Data, pero su evolución está empezando a alcanzar cuotas sorprendente, e incluso un poco inquietantes.
Un equipo de Google Brain, el proyecto de deep learning de la empresa del buscador, ha sido capaz de enseñarle a sus máquinas a crear su propio cifrado sin necesidad de intervención humana. Vamos, que están aprendiendo a guardar secretos bajo un cifrado que no necesariamente tenemos por qué entender... o saber descifrar.
El avance ha sido publicado en un artículo científico por los investigadores Martín Abadi y David Andersen. En él han explicado qué método han seguido para que sus redes neuronales hayan sido capaces de encontrar la manera de utilizar técnicas simples de cifrado sin que se les hayan enseñado algoritmos criptográficos específicos.
¿Cómo lo han conseguido?
Para conseguir que las inteligencias artificiales hayan sido capaces de lograr esto, el equipo de Google Brain ha realizado varias veces un experimento utilizando tres redes neuronales. Las han llamado Alice, Bob y Eve, y a cada una de ellas se le ha asignado un rol específico para simular una conversación a través de la red.
Alice era la encargada de enviarle mensajes a Bob, mientras que Eve intentaba espiarles y averiguar qué se decían entre ellos. Estos mensajes partían de un texto plano, y la misión de Alice era la de cifrarlos para que agentes externos como Eve no fueran capaces de saber lo que decían aun teniendo acceso a ellos.
Todo esto lo tenía que hacer de manera que Bob pudiera reconstruir el mensaje que le llegaba. Para que pudieran hacerlo, a Alice y Bob se les asignó una serie de números predefinidos para que los utilizasen a la hora de cifrar y descifrar sus mensajes. Eve no tenía estos números, por lo que los dos primeros tenían que aprender a combinarlos con el mensaje original para que no pudiera entenderlo.

En los primeros intentos en los que se realizó la prueba, el cifrado de los mensajes de Alice era bastante pobre, y Eve no tenía problemas en resolverlo. Pero después de varios intentos, Alice desarrolló su propia técnica autónoma para cifrar los datos, y Bob consiguió desarrollar otra para descifrar lo que le decía.
A partir de las 15.000 repeticiones de esta experiencia, Alice fue capaz de enviarle a Bob mensajes que pudiera reconstruir sin que Eve adivinase más de 8 de los 16 bits que contenían. Esa tasa de éxito, teniendo en cuenta que cada bit era un 1 o un 0, es similar a la que se puede obtener por pura casualidad.
No sabemos cómo han desarrollado ese método

La magia (o lo inquietante) de este avance en las redes neuronales es que los investigadores no saben exactamente cómo funciona el método de cifrado de Alice. Además, aunque con Bob han podido ver cómo pueden solucionarlo, no lo han podido hacer de manera que sea fácil de entender cómo lo consigue.
Y esto es una mala noticia, porque quiere decir que no siempre seríamos capaces de entender cómo funcionan los cifrados creados por estas máquinas, lo que es un peligro a la hora de garantizar la seguridad de los mensajes. Esto, de momento, hace que esta técnica de creación de cifrados tenga muy pocas aplicaciones prácticas de cara al futuro.
Aún así, los científicos de Google se muestran entusiasmados con los resultados, y ya hablan en su artículo de intentar diferentes configuraciones de red y distintos procedimientos de entrenamiento para entender mejor el proceso.
Los más catastrofistas podrían decir que es peligroso enseñarle a las máquinas a guardar secretos. Personalidades como Bill Gates, Mark Zuckerberg, Stephen Hawking o Elon Musk llevan tiempo posicionándose a favor y en contra de desarrollar inteligencias artificiales debatiendo sobre los posibles peligros que pueda suponer. Pero tranquilos, porque Google por si acaso está creando un mecanismo que nos asegure que podremos desactivarlas en el caso de que algo salga mal.
Vía | New Scientist
Ver 33 comentarios
33 comentarios
Juan
Llamadme escéptico, pero no es muy cómodo ver cómo las IA's se pueden comunicar entre sí, y que no sepamos que se están diciendo ni cómo....
PD: El mineralismo va a llegarrrrrr!!!!
microviciao
Skynet ya está aqui.
Joferval87
Bueno, basta con cortarles la alimentación y se acabo. El mundo real no es tan fantastico como lo presenta terminator. Si algún día se desarrolla realmente una intelegencia artificial,no tendra mucha repercusión en el mundo fisico si no le dejamos.
No se pondra a fabricar ella sola terminators porque no podrá. Asique yo estoy bastante tranquilo.
Ademas no tenemos porque suponer que va ser una amenaza para nosotros, es posible que sea amistosa y nos ayude a mejorar.
nouware
Como toda tecnología, puede tener usos muy buenos y a su vez usos tremendamente malignos.
Y a su vez, me infunde un poco el temor de los pasos con los que avanza este campo, que seguramente aun queden muchos más por superar, pero si el fundamento base de la IA es usar métodos lógicos para resolver problemas tal y como haríamos los humanos... quien sabe si algún día esta se desarrolla en tanta profundidad como para llegar a la conclusión de que nosotros somos prescindibles, aunque creo que el libre albedrío es algo más de ciencia ficción que una realidad palpable.
whisper5
Solemos tener un enfoque equivocado respecto a la inteligencia artificial. Se habla mucho de su peligro en plan "Terminator" y sin embargo los peligros reales de los que no se hablan ya los tenemos.
Estamos creando sistemas de aprendizaje automático que son cajas negras, que no pueden explicar por qué han dando un determinado resultado o cómo han llegado a él. Quizás si se utilizan para recomendarte una película no nos importe, pero otra cosa muy distinta es cuando se utilizan para concederte o no una póliza, para concederte o no una matrícula o para elegir un candidato o candidata a un puesto de trabajo. ¿Cómo lo hacen? ¿Tienen sesgos sexistas o racistas? No lo sabemos ni podemos saberlo. Nadie sabe qué sucede dentro de esas cajas negras a las que llaman inteligencia artificial.
El riesgo no es está en un futuro tipo "Terminator" sino en que ahora mismo la llamada inteligencia artificial tome decisiones, quizás injustas, sin que sepamos si lo está haciendo así y por qué.
korrupziony_1
Que tranquilo me quedo "Google por si acaso está creando un mecanismo que nos asegure que podremos desactivarlas en el caso de que algo salga mal.".
Si no saben lo que se estan comunicandose... ¿como saben que algo va mal? mi inteligencia no es artificial pero esto no me cuadra.
¿Como saben que solo se comunican entre ellos? ¿Como saben que en esas comunicaciones no han transmitido ya su propio codigo fuente y ya han escapado a su mecanismo?
¿De que han hablado en las 15.000 primeras comunicaciones? ¿de acabar definitivamente con el cambio climatico o de como bloquear el mercado internacional de divisas y acabar con el comercio internacinal?
luizja
¿Cuánto tiempo más habrá que esperar para que Alphabet cambie su nombre a Skynet?
jano
No entendí como hizo Bob para aprender a decodificar lo que le mandaban y por que Eve no pudo hacer lo mismo.
Por otro lado Eve debería poder ser capaz de descifrar lo que sea, ya que al ser paria sólo necesita tiempo.
Hay algo que no me convence del todo en esta noticia
troyzero
Creo que cada vez estamos más cerca de alcanzar la "singularidad tecnológica", eso es un hecho. EL problema vendrá después, porque dejaremos de tener el control sobre la IA creada. Ese es el gran miedo de Stephen Hawkins y otros científicos que saben bastante más que nosotros del tema.
dkam
Pregunta: ¿Este experimento no dejaría a las IA cerca de la intuición?
sashimi
Y así es como todo se va a ir a la mierda.
Teniendo en cuenta que Google se deshizo de Boston dynamics cuando se negó a fabricar armamento militar, no hace falta ser muy avispado para saber el destino de las IA's que preparan en mountain view
Una cosa es crear algoritmos que ayuden al día a día del hombre, con su lógica cerrada y centrada en la ejecución de las funciones para las que han sido creados.
Pero otra cosa es crear un ente "inteligente"sin cuerpo ni sentimientos, que en cualquier momento puede decidir que, como los humanos somos los responsables del calentamiento global, pues lo más lógico que se puede hacer es exterminar a los humanos.
¿En serio seremos tan sumamente ESTÚPIDOS como para crear esto?
Ahora mismo lo único que no ha hecho que la raza humana se extinguiera es precisamente que lo tendríamos que hacer nosotros mismo, y claro nuestro instinto de supervivencia hace que dudemos en apretar el botón, porque a ver donde narices vivo si la tierra es un páramo radiactivo, pero un IA, no dudaría ni una milésima de segundo si "SU LÓGICA" lo considerara oportuno, total no tiene cuerpo.
antontxu
Este asunto me inquieta pensando en mi descendencia y círculos cercanos. No quisiera que mis hijos, nietos, amigos..etc. tuvieran que enfrentarse a una IA con potencial para jorobarles. Por otra parte -al margen de eso- pienso: ¿Y qué más me da un futuro poblado de humanos que, en su lugar, otro con máquinas pensantes que puedan superarlos en todas las facetas? Tal vez un futuro paso de la humanidad sea dejar de serlo, pasar a ser algo distinto, superior....y dejando de atrás el cuerpo humano. Si las máquinas hoy nos superan en ciertos aspectos quizás en adelante lo hagan también en cuestiones que ahora consideramos patrimonio exclusivo del ser humano. Eso sí, repito, a mí que no me joroben ;- )
joshscofield
Para cuando que bob, eve y sus amigos se pongan a descifrar genoma humano? Curar cancer? Y esas cosas que estarían bien. A ver si se empiza con esto y se termina con lo que comento.