Pinta mal la cosa con el Autopilot de Tesla. La NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras, por sus siglas en inglés) de Estados Unidos ha publicado esta semana un nuevo análisis sobre el software de conducción autónoma de Tesla, llegando a varias conclusiones que dejan en muy mal lugar a este sistema. Hasta tal punto que ya se habla abiertamente de retirar del mercado esta función.
Más de 830.000 vehículos con el Autopilot podrían verse afectados. La NHTSA argumenta que está habiendo una "acumulación de choques en los que los vehículos de Tesla que operaban con el Autopilot activado". La investigación se centra en 16 accidentes, pero en total el análisis abarcará los más de 800.000 Tesla que vienen con el Autopilot en EE.UU, desde todos los Model S desde 2014, los Model X desde 2015, los Model 3 desde 2018 y los Model Y desde 2020.
Todos estos vehículos podrían verse afectados por las conclusiones del estudio, ya que en caso de determinarlo, podrían tener que desactivar el Autopilot de sus vehículos. Al funcionar a través de la nube, estos coches no haría falta que fueran devueltos físicamente para adaptarse.
El Autopilot se desactivó un segundo antes del impacto. De los casos analizados, la NHTSA explica que, de media, el Autopilot "se desactivó menos de un segundo antes del primer impacto", pese a que los vídeos muestran que el conductor podría haber detectado el problema del accidente, de media, unos ocho segundos antes del impacto.
La mayoría de los conductores tenían las manos en el volante, como exige el piloto automático, pero el problema es que no se tomaron medidas a tiempo. Según describe el regulador, en el 25% de los accidentes, Tesla no emitió ninguna "alerta visual o alarma durante el ciclo final de uso del piloto automático". Es decir, los conductores confiaron en Autopilot hasta que era demasiado tarde (solo un segundo antes del choque).
Elon Musk apuntaba que Autopilot no estaba activo en el momento de la colisión. Uno de los puntos conflictivos, que la NHTSA va a revisar, es el papel real que tiene Autopilot en el número de accidentes. En el pasado, Elon Musk ha explicado que los datos de Tesla mostraban que el piloto automático no estaba activo en el momento de la colisión, lo que reducía el número de accidentes directamente relacionados con Autopilot.
Sin embargo, la investigación de la NHTSA amplía el potencial alcance de Autopilot, indicando que aunque es cierto que no estaba activado en ese momento, el margen de maniobra que deja Autopilot es muy pequeño.
La responsabilidad recae en el conductor. Pese a los avances del Full Self-Driving (FSD) de Tesla, todavía en beta, estos sistemas todavía se consideran una asistencia al conductor. Es decir, la responsabilidad en caso de accidente recae en el conductor y no en el propio sistema de conducción autónoma. Es decir, la "culpa" no es de Tesla, en caso de accidente, ya que el conductor tiene que estar alerta todavía en todo momento.
La investigación continúa en marcha. Varios de los accidentes relacionados con el Autopilot han derivado en juicios, donde hay que determinar el alcance de responsabilidad del conductor y del propio fabricante. Es un asunto que se analiza caso por caso y donde hay en juego mucho dinero, también por parte de las aseguradoras.
La NHTSA continuará por el momento con esta investigación, auditando el funcionamiento del Autopilot de Tesla y comprobando por qué se desactiva momentos antes del impacto.
En Xataka | El futuro económico de Tesla pasa por la conducción autónoma. De momento todo son problemas
Ver 53 comentarios
53 comentarios
netmejias
Imagina que el seguro es cancelado 1 segundo antes del impacto. La aseguradora no tiene que abonar nada y el conductor 1 segundo antes del impacto no tenía seguro. Apesta a fraude de lejos.
dani43321
Clickbait otra vez.
El autopilot nunca se desactiva solo, lo tiene que desactivar el conductor girando el volante, o pisando el freno, o dándole al botón. El conductor no hizo nada de eso hasta 1 segundo antes del impacto, porque no estaba atento.
Y aún así, todos los accidentes en los que el autopilot ha estado conectado en los 10 segundos anteriores al impacto, Tesla los cuenta en sus estadísticas como accidentes en autopilot.
Así que ni sistema que se desactiva solo, ni fraude en las estadísticas. Solo clickbait.
p2dzca
Le pasa a Tesla con su Autopilot y le sucede a otras empresas también. Lo cierto que no existe ninguna IA lo suficientemente buena como para la conducción verdaderamente autónoma.
Por cierto, hace poco Andrej Karpathy, el director jefe de IA de Tesla, se tomo una excedencia de cuatro meses. Hay temores de que no vuelva porque es algo que ya ha sucedido con otros cargos importantes de Tesla que se han cogido una excedencia.
Ante el hecho de ofrecer un Autopilot en desarrollo, me llaman la atención dos cosas:
* La capacidad de Tesla para vender un producto inacabado y problemático a un alto precio.
* La estupidez de algunos clientes de Tesla para hacer de betatesters de Tesla y, encima, pagar por ello. Es Testa quien debería pagar a los conductores que le dan un servicio.
TOVI
Es un sistema de protección para poder decir "yo no he sido, no estaba activo"
jimmyw
Seguro que Elon Musk consideró un segundo más que suficiente como tiempo de reacción razonable, pero hay que tener en cuenta que este hombre es algo... peculiar.
dsa10
No dejo yo que conduzca el autopilot ni borracho, y encima hay que pagar extra, no?
ElonMuskIsYourFather
Seguro que es problema de los conductores, que para vosotros Elon Musk es Dios y nunca falla
t_r_a
eso seguro que son los bots de twitter, por eso insiste tanto Melon Usk en saber cuantos hay, antes de comprar la compañia
darkyevon
Desde cuando autopilot evita accidentes? Que yo sepa es un asistente de carril en autopistas con sus limitaciones, no te va a invadir otros carriles y hacer maniobras para esquivar un accidente. Es como si pretendes que una regla te haga un plano sola, es sólo una herramienta. Y por supuesto que se desactiva cuando detecta que ya no puede hacer nada mas o cuando lo que le pides se sale de sus funciones peogramadas, como cualquier otro asistente, de hecho estan obligados a ello. Si el full self driving beta todavía no sabe ni circular por parkings y aparcar cómo va a evitar accidentes o predecirlos para avisarte mucho antes. También parece como si un accidente llevara una eternidad, cuando es cosa de dos o tres segundos que se produzca.
silentblock2o
Hombre, ya era hora que alguien pusiera orden. Qué es esto de ocupar las carreteras para usarnos a todos de cobayas en un experimento donde no hemos pedido participar, para que un magnate sudafricano, al que no le gustan los negros en la tele, se haga rico.
noiseshaper
El Autopilot no estaba activo en el momento del impacto... ¿porque se desactivó 1 segundo antes? Sí se confirma que esto es así y es generalizado, la tomadura de pelo respecto a la seguridad de este sistema es monumental.
Sería un sistema no especialmente adecuado para evitar accidentes, y si propenso a causarlos por el exceso de confianza que causa al conductor, y también específicamente diseñado para evitar que le echen la culpa de este tipo de accidentes.
Dae
A ver, parece que a todo el mundo se le olvida que a día de hoy, sea autopilot, FSD o Enhanced Autopilot, estos son asistentes y el conductor tiene que estar atento.
Si se desactivó 1 segundo antes, o 30 segundos es lo de menos, hasta 8 segundos antes, según dice el artículo, se veía que podía haber un accidente, y el conductor no hizo nada.
Yo no estoy leyendo que el autopilot haya hecho una maniobra que provocó el accidente. Hasta hace poco yo tenía un Skoda con asistente de mantenimiento de carril, el cual funcionaba relativamente bien en líneas rectas y en curvas no muy pronunciadas, pero cuando una curva era muy pronunciada el coche se salía del carril y el asistente se desactivaba. SI no estaba atento podría chocar con la mediana. ¿Es esto culpa del grupo VW? No, es un asistente que no sustituye al conducto, yo soy el encargado de estar atento.
Al final el problema es que tesla lo ha llamado autopilot, si lo llamara Ayudante de conducción Tesla, no habría problema.
1coma21gigovatios
Durante es último segundo la IA aún no es capaz de reaccionar, ni hacer los cálculos necesarios. Entonces me parece bien que se tome la última palabra a un humano, que por su capacidad de reacción e instinto será capaz de salvar vidas mejor que una mierda de máquina sin tener que luchar contra el sistema activo.