Como sabemos, Google cuenta desde hace algunos años con DeepMind, su avanzado sistema de inteligencia artificial, el cual ya ha dado importantes muestras de sus capacidades al ganar en repetidas ocasiones a maestros del Go. De igual forma, DeepMind sigue sigue creciendo al nutrirse de nuevas experiencias como la capacidad de manipular objetos físicos, y hasta jugar StarCraft II.
Google sabe que llegará el día que DeepMind tenga que enfrentarse a otros sistemas de inteligencia artificial, y ese momento será determinante para saber si son capaces de colaborar o entran en conflicto buscando defender cada una sus intereses. Por ello, Google ha decidido anticiparse a ese escenario, y hacer que dos inteligencias artificiales interactuen entre sí dentro de una serie de dilemas sociales.
¿Ser egoista o buscar el bien común?
Hoy Google está dando a conocer los resultados de un interesante estudio realizado por el departamento de DeepMind, donde han puesto a prueba las reacciones y capacidades colaborativas de dos agentes de inteligencia artificial. El objetivo es conocer la respuesta ante situaciones donde pueden beneficiarse al ser egoístas y bloquear a su compañero, algo que también puede ser contraproducente si ambos son egoístas. Sí, algo basado en el famoso dilema del prisionero.
Los investigadores probaron la respuesta de ambos sistemas dentro de dos videojuegos básicos. El primer juego es conocido como 'Gathering', en él veremos a los sistemas representados por un punto rojo y otro azul, quienes deberán recolectar puntos verdes (manzanas) para así obtener puntos. La parte interesante es que cada agente es capaz de disparar un láser al contrincante para paralizarlo momentáneamente y así poder recolectar más manzanas, y por ende más puntos.
Aquí el resultado nos dice que mientras hay manzanas en abundancia, ninguno de los agentes se preocupa por paralizar a su contrincante, algo que cambia de forma radical cuando las existencias disminuyen, que es cuando ambos sacaron su lado más agresivo con tal de bloquear a su rival. Un punto interesante, es que cuando se incorporaba un agente con mayor potencia de cálculo, éste siempre buscaba paralizar a su oponente sin importar que hubiera suficiente suministro de manzanas.
Al ver este comportamiento, los investigadores desarrollaron la hipótesis de que la acción de disparar el láser requiere mayor poder de procesamiento, ya que hay que calcular el movimiento del oponente y anticiparse a sus movimientos para acertar, por ello la estrategia de ataque sólo estuvo presente en el agente más "inteligente". Mientras que el agente "normal" decidió ignorar al contrincante y aprovechar su valioso tiempo en recolectar más manzanas.
El segundo juego es conocido como 'Wolfpack', donde los agentes, representados en color rojo, actúan como lobos cazando a una presa, en color azul, dentro de un escenario lleno de obstáculos. El agente que logre capturar a la presa se lleva puntos, pero si el otro agente está cerca al momento de la captura también recibirá puntos.
Aquí el comportamiento fue interesante pero nada sorprendente, ya que ambos agentes decidieron colaborar en la caza ya que había una recompensa que beneficiaba a ambos. Donde curiosamente el agente más potente buscaba cooperar con el otro y no actuar por su cuenta, ya que al final le servía como ayuda.
La clave está en el contexto
Las conclusiones a las que llegaron los investigadores nos hablan de que el comportamiento de los agentes depende en gran medida del contexto. Aquí la clave serán las reglas que se hayan dictado para la interacción, ya que si estas reglas recompensan el comportamiento agresivo, como el caso de Gathering, el agente luchará hasta ganar. Pero si se recompensa el trabajo colaborativo, como en Wolfpack, entonces ambos agentes buscarán el bien común.
Esto nos dice que en un futuro, cuando la inteligencia artificial tenga una mayor presencia, será determinante que las reglas apunten a la cooperación continua, es decir, reglas claras, concisas y aplicadas en el lugar correcto. Ya que al mínimo síntoma de lucha, competencia o egoísmo, podríamos enfrentarnos a una situación que afecte a todo el ecosistema y, por supuesto, a nuestra sociedad.
Más información | Google DeepMind
En Magnet | Cuando quedarte con 6.800 libras es mejor que ganar 13.600: la brutal lógica del dilema del prisionero
Ver 9 comentarios
9 comentarios
Flycow
Sería interesante ver que ocurre en un caso parecido al segundo juego, pero que:
• Hay un tiempo limitado para obtener la mayor cantidad de puntos.
• Si solo caza a la presa un agente, este obtiene 10 puntos. De esta forma, obtiene más puntos por cada vez que logra su objetivo, pero demora más en cazar (recordemos que hay un tiempo limitado)
• Si ambos lo hacen, cada uno recibe 6 puntos. Así cada vez que cazan obtienen menos puntos que si lo hiciera uno solo, pero tardan menos en hacerlo.
Sería impresionante (y alarmante) ver que cooperan, pero cuando están cerca del objetivo se atacan para quedarse con los 10 puntos.
jose85hu
Es un experimento muy interesante, ya que la IA simplemente busca alcanzar su objetivo por el medio más accesible. Pero claro, ¿le han enseñado a las IA a empatizar entre ellos? Más que las reglas claras, creo que es información pura. Los humanos colaboramos por cosas tan sencillas porque sacamos beneficio natural, desde la reproducción a facilitar el trabajo. Pero una IA con un simple objetivo de puntuar, ¿para qué necesita a otra? Sólo para sacar puntos, pero cuando no sea posible, le da igual eliminarla.
Creo que vamos bien. Son primates y nosotros a día de hoy todavía nos hacemos daños porque sí, y eso que han pasado un buen puñado de años.
El dilema es: ¿soltaríamos una IA primate a la sociedad? ¿O hasta cuando debemos educarla y empatizarla para hacerla libre?
Usuario desactivado
Vamos.. Que si programan mal una IA, el irnos al carajo depenende de la capacidad de proceso de esa IA.. Cada dia estoy mas seguro que el departamento de DeepMind sera el que provoque el fin del mundo! XD
chicaswebcam
A ver si van a tomar personalidad propia y se nos van a enfrentar a los humanos
lucasgonzalez1
Excelente artículo. Cabe destacar que los sistemas de IA están hechos por personas, lo cual implica que éstas necesitan normas de 'convivencia' en el caso de enfrentarse una a otra. La elección de querer ganar todo, o apoyar a un sistema externo, la tienen las personas que programan dicho sistema.
elyiyitu
Egoísta lleva tilde
omegaexian
la ia es la evolucion humana esta carne que sostiene nuestro cerebro es debil y se volvera obsoleta