En los últimos años, el entrenamiento de redes neuronales profundas a partir de grandes cantidades de datos etiquetados ha mejorado el nivel de desarrollo de muchas áreas vinculadas a la IA, como el de la percepción y predicción de objetos.
Pero, ¿eso basta cuando buscamos desarrollar un sistema de conducción autónoma lo bastante robusto como para conducir coches reales en escenarios de conducción complejos? ¿Miles de ejemplos de conducción humana pueden ayudarnos a enseñar a una IA a ser buena conductora?
Un equipo de investigadores de Waymo (la compañía filial de Google que desarrolla sus coches autónomos) se ha hecho esta misma pregunta y su respuesta ha sido contundente: los coches autónomos no aprenderán a conducir bien si se limitan a copiar el comportamiento humano.
Y no, ni siquiera "30 millones de ejemplos serían suficientes". Cuando estos investigadores entrenaron una IA a partir de datos recopilados durante 60 días de conducción real y continua, descubrieron que no resultaba posible enfrentar escenarios más complejos que aquellos contemplados en los datos de ejemplo.
Obviamente, las personas cometemos algunos errores que la IA no cometería (como, qué sé yo, 'picarnos' por un adelantamiento), pero en general somos muy buenos conductores. O, como mínimo, no es habitual que protagonicemos incidentes como choques con otros vehículos o salidas de carril.
Por lo que, en todos esos millones de datos, apenas hay ejemplos suficientes de una amplia gama de escenarios como para que las máquinas aprendan de tales errores.
Esto provocaba que el modelo con el que trabajaban los investigadores a menudo adoptara decisiones sin sentido como quedarse parado detrás de coches estacionados en el lateral de la carretera (o, peor aún, chocar contra ellos):
"El modelo aprende a responder adecuadamente a los controles de tráfico, como las señales de alto y los semáforos. Sin embargo, las desviaciones como la introducción de perturbaciones en la trayectoria o el situarle en situaciones cercanas a la colisión hacen que se comporte erráticamente, porque incluso habiendo sido entrenado con grandes cantidades de datos, es posible que nunca haya visto estas situaciones exactas durante dicho entrenamiento".
ChauffeurNet, la RNN desarrollada por Waymo
De modo que los investigadores decidieron ir más allá del mero aprendizaje por imitación, y apostaron por "simular lo malo en lugar de limitarse a imitar lo bueno", añadiendo toda clase de obstáculos a los datos con que se alimentaba a la IA.
Usaron para ello una red neuronal recurrente diseñada por Waymo y bautizada como ChauffeurNet, compuesta a su vez por dos componentes principales:
FeatureNet: una red neuronal convolucional que procesa los datos de entrada y extrae de ella información relevante como la hoja de ruta, los límites de velocidad, la presencia de semáforos, el límite de velocidad, la ruta del modelo, la posición actual y pasada de otros autos.
AgentRNN: A partir de los datos de FeatureNet, AgentRNN es capaz de ofrecer una predicción de las posiciones futuras del resto de vehículos. Estos datos son usados por ChauffeurNet para reaccionar en consecuencia.
Las 'perturbaciones' agregadas manualmente por los investigadores actúan como "pérdidas por imitación", forzando al modelo a verse inmerso en situaciones muy diferentes a los ejemplos que se le entrena.
ChauffeurNet aprende a salvar situaciones potencialmente peligrosas minimizando estas pérdidas por imitación, pues empieza a evitar colisiones y a no salirse de las marcas de los carriles. En este enlace puede verse el resultado de las simulaciones realizadas por Waymo.
Pese a esa mejora, los investigadores explican en un 'paper' publicado recientemente que esta metodología no basta para construir un vehículo que sea lo suficientemente inteligente:
"Los sistemas de conducción totalmente autónomos deben ser capaces de manejar la larga lista de situaciones que se dan en el mundo real. Aunque el aprendizaje profundo ha tenido un éxito considerable en muchos casos, la gestión de ciertas situaciones cuando se parte de pocos ejemplos de entrenamiento sigue siendo un problema abierto".
Imagen | zombieite (Flickr)
Ver 19 comentarios
19 comentarios
People tend to hate me 'Cause I never smile
Hay seres humanos que no saben gestionar un imprevisto.
ae123
Las maquinas (que nosotros mismos hacemos, por cierto), no tienen una habilidad importante: improvisar.
Asi que este tipo de situaciones seguiran pasando, porque siguen en un concepto de programacion bastante tosco y estructurado. No son capaces de pensar al 100%
Usuario desactivado
Hace años se decía que las máquinas nunca ganarían a las personas al ajedrez, o al go.
Es muy difícil entrenar al software en multitud de situaciones inesperadas. Cierto. Y a las personas?
La mayoría de la gente no sabe conducir sobre nieve. La mayoría de la gente no sabe hacer un contravolante. La mayoría de la gente no sabe ni tomar una rotonda de forma adecuada. Gran parte de las personas no saben ni circular por autopista.
Dentro de poco quizás sea más conveniente y efectivo retirar el carnet a esas personas y dejar que las máquinas conduzcan por ellas. Porque en una máquina podremos corregir esos errores, pero la experiencia nos muestra que muchas personas no.
Por otro lado, la capacidad de los sistemas informáticos tienen de procesar sucesos simultáneos es imposible de igualar por una persona.
whisper5
Es bueno que las empresas dedicadas a desarrollar la conducción autónoma acepten y expresen la situación real. Hace un par de años Elon Mush predijo que en 2018 habría conseguido la conducción autónoma y otras empresas lo predijeron para 2019. No se va a cumplir. Este año se publicaron algunos artículos de expertos detallando las limitaciones que tiene nuestra actual inteligencia artificial para conseguir vehículos con conducción autónoma y señalando que es algo que nos costará alcanzar bastantes años. Cada vez que he dicho esto por aquí me han criticado. El ajedrez o el go son una cosa, y la vida real es otra. En esos juegos existen unas pocas reglas muy claras y las variables a manejar son mínimas. Los grandes logros con esos juegos los extrapolamos rápidamente a otros ámbitos, pero hablamos de cosas totalmente distintas. La conducción autónoma va más allá de unas reglas claras y de unas pocas variables. Es un problema muy difícil y todavía no hemos desarrollado la inteligencia artificial necesaria para resolverlo.
guillermoelectrico
Que sorpresa.
jlmartin
Mientras sigan habiendo "cafres" al volante estos coches cometerán errores, hasta que no sean todos autónomos y estén conectados fallaran porque hay muchas cosas que le puedes enseñar, pero les falta intuición, yo como humano puedo prever el comportamiento de un conductor por pequeños detalles que todas estas IA no son capaces de ver.
gustavoojeda
Considero que los automóviles autónomos solo van a ser seguros si pueden desenvolverse en un ecosistema de automóviles inteligentes. Y que todos estén conectados a un mismo sistema que sea capaz de anticipar cada maniobra. Pero son incompatibles en una misma carretera donde existan autos manejados por humanos.
ad0N
los avances son muuy grandes. Una vez introducidos, seria como una L en la ventana del coche. Ves uno, sueltas un taco y nada mas. Pero lo bueno esta dentro. Puedes hacer de todo, dormir, comer, leer, con mas intimidad que en un autobús.
johanandresortiz1
Hay que identificar y buscar tener contempladas esas situaciones "Imprevistas" y crear algoritmos que le permitan a la IA "Improvisar" .
applegatos
La tecnología se terminará perfeccionando, pero... habrà coches?
Al menos al nivel de principios de siglo?
Por que yo creo que esto no se va a volver a repetir.
frankhack1
Espera que se den cuentan los taxistas de Barcelona, el coche tendrá que ser entrenado para evitar piedras y pintadas tambien
amaurysv
Hace un año dije q al coche autónomo le faltaba 50 años, hoy puedo decir q para q sea totalmente seguro, le faltan 49.
Para q el coche autónomo sea una total realidad, todos tendrían q ser autónomos y tendríamos q sacar al humano de la calle. Estaremos dispuestos a dejar él hasta cierto punto, placer de manejar?.