25-02-2020, 16:33
Nuevo conflicto con las autoridades de seguridad de EEUU a cuenta del Autopilot.
En 2017 a raíz de un accidente producido por mal uso de un Autopilot en 2016 cuando un ex Navy Seal se metió debajo de un camión atravesado en la carretera meintras veía un DVD, la mesa nacional por la seguridad en el transporte (NTSB), reclamó a los fabricantes que los dispositivos de ayuda fueran más resistente a una mala utilización por parte de conductores torpes o irresponsables y que se centrasen para las prestaciones y uso que fueron diseñados.
Fabricantes como Nissan, BMW o VAG, presentaron sus propuetas a la NTSB por las que se requería de una mayor participación e involucración del conductor en su uso y se minimizaba la posibilidad de mala utilización o error, cambios que fueron aceptados.
Sin embargo, según el portavoz de la NTSB Chris O'Neil, Tesla aún no se ha puesto en contacto con ellos sobre este asunto y por tanto, si han hecho algo para implementar esas funciones de seguridad. El representante dijo que no era ni mucho menos lo normal y que el resto de fabricantes respondieron dentro del plazo de 90 días.
Tesla dice por su parte, que actualizó el Autopilot para que enviara advertencias más frecuentes a los conductores despistados.
El papel del Autopilot junto con otros factores, incluyendo la distracción del conductor y la infraestructura de la carretera, se analizarán en una reunión de la NTSB el martes. La agencia está analizando el accidente de marzo de 2018 en Mountain View, que causó la muerte al ingeniero de Apple Walter Huang de 38 años, después de que su Tesla Model X se estrellara contra una barrera mientras circulaba con el Autopilot.
La investigación estuvo marcada por una muestra poco común de las tensiones existentes entre la agencia y Elon Musk, que alcanzó su punto máximo cuando la agencia expulsó a Tesla del análisis después de que Tesla publicara información sobre el accidente a pesar de la obligación de guardar discrección sobre los asuntos que se trataban.
La audiencia podría ofrecer algunas lecciones para la industria automotriz, ya que las características de conducción autónoma son cada vez más comunes en los vehículos nuevos. Varios fabricantes de automóviles ya han equipado sus vehículos con tecnologías que pueden automatizar la dirección, aceleración y frenado y algunos han instalado sistemas para garantizar que los conductores presten atención a la conducción. General Motors y Subaru utilizan cámaras infrarrojas para rastrear el movimiento de la cabeza y los ojos y Nissan, el año pasado dijo que incluiría un monitor de conductor similar en un sistema diseñado para ofrecer conducción manos libres en la carretera.
Tesla se defiende mostrando los datos que publica trimestralmente según los cuales, Autopilot mejora la conducción y los conductores tienen menos accidentes cuando lo utilizan que cuando no. Y que está trabajando para mejorar el sistema de advertencia para que los conductores presten la máxima atención y no desatiendan la conducción. También indica que advierten que es obligatorio conducir con las manos en el volante.
La NTSB por su parte, contraataca diciendo que sus sitemas de detección de la atención son muy fáciles de engañar.
Y es que en el estudio de aquel primer accidente, se vio como necesario añadir las salvaguardas necesarias para que nadie puediera hacer lo que hizo la víctima.
Otro accidente investigado en 2018, determinó que de nuevo Autopilot está diseñado de forma que es fácil desatender la conducción que causó aquel accidente.
Aunque O'Neil declaró que Tesla les envía la información que solicitan sin problemas, se niegan a dar una cumplida respuesta a las exigencias de la NTSB para evitar casos como el que se analizará el martes, donde con el piloto automático activado y listo para circular a 75 mph, el Tesla Model X 2017 de Huang aceleró y se estrelló contra una barrera de hormigón. Los datos del vehículo no mostraban que el conductor ni el Autopilot usasen los frenos antes del impacto. De haber estado atento, Huang podría haber evitado el accidente, pero se sobrevaloró las capacidades del Autopilot y Tesla permite que esto suceda.
La NHTSA está investigando otros 14 accidentes con Teslas involucrados y 11 más de otros fabricantes con automatizaciones parciales.
En 2017 a raíz de un accidente producido por mal uso de un Autopilot en 2016 cuando un ex Navy Seal se metió debajo de un camión atravesado en la carretera meintras veía un DVD, la mesa nacional por la seguridad en el transporte (NTSB), reclamó a los fabricantes que los dispositivos de ayuda fueran más resistente a una mala utilización por parte de conductores torpes o irresponsables y que se centrasen para las prestaciones y uso que fueron diseñados.
Fabricantes como Nissan, BMW o VAG, presentaron sus propuetas a la NTSB por las que se requería de una mayor participación e involucración del conductor en su uso y se minimizaba la posibilidad de mala utilización o error, cambios que fueron aceptados.
Sin embargo, según el portavoz de la NTSB Chris O'Neil, Tesla aún no se ha puesto en contacto con ellos sobre este asunto y por tanto, si han hecho algo para implementar esas funciones de seguridad. El representante dijo que no era ni mucho menos lo normal y que el resto de fabricantes respondieron dentro del plazo de 90 días.
Tesla dice por su parte, que actualizó el Autopilot para que enviara advertencias más frecuentes a los conductores despistados.
El papel del Autopilot junto con otros factores, incluyendo la distracción del conductor y la infraestructura de la carretera, se analizarán en una reunión de la NTSB el martes. La agencia está analizando el accidente de marzo de 2018 en Mountain View, que causó la muerte al ingeniero de Apple Walter Huang de 38 años, después de que su Tesla Model X se estrellara contra una barrera mientras circulaba con el Autopilot.
La investigación estuvo marcada por una muestra poco común de las tensiones existentes entre la agencia y Elon Musk, que alcanzó su punto máximo cuando la agencia expulsó a Tesla del análisis después de que Tesla publicara información sobre el accidente a pesar de la obligación de guardar discrección sobre los asuntos que se trataban.
La audiencia podría ofrecer algunas lecciones para la industria automotriz, ya que las características de conducción autónoma son cada vez más comunes en los vehículos nuevos. Varios fabricantes de automóviles ya han equipado sus vehículos con tecnologías que pueden automatizar la dirección, aceleración y frenado y algunos han instalado sistemas para garantizar que los conductores presten atención a la conducción. General Motors y Subaru utilizan cámaras infrarrojas para rastrear el movimiento de la cabeza y los ojos y Nissan, el año pasado dijo que incluiría un monitor de conductor similar en un sistema diseñado para ofrecer conducción manos libres en la carretera.
Tesla se defiende mostrando los datos que publica trimestralmente según los cuales, Autopilot mejora la conducción y los conductores tienen menos accidentes cuando lo utilizan que cuando no. Y que está trabajando para mejorar el sistema de advertencia para que los conductores presten la máxima atención y no desatiendan la conducción. También indica que advierten que es obligatorio conducir con las manos en el volante.
La NTSB por su parte, contraataca diciendo que sus sitemas de detección de la atención son muy fáciles de engañar.
Y es que en el estudio de aquel primer accidente, se vio como necesario añadir las salvaguardas necesarias para que nadie puediera hacer lo que hizo la víctima.
Otro accidente investigado en 2018, determinó que de nuevo Autopilot está diseñado de forma que es fácil desatender la conducción que causó aquel accidente.
Aunque O'Neil declaró que Tesla les envía la información que solicitan sin problemas, se niegan a dar una cumplida respuesta a las exigencias de la NTSB para evitar casos como el que se analizará el martes, donde con el piloto automático activado y listo para circular a 75 mph, el Tesla Model X 2017 de Huang aceleró y se estrelló contra una barrera de hormigón. Los datos del vehículo no mostraban que el conductor ni el Autopilot usasen los frenos antes del impacto. De haber estado atento, Huang podría haber evitado el accidente, pero se sobrevaloró las capacidades del Autopilot y Tesla permite que esto suceda.
La NHTSA está investigando otros 14 accidentes con Teslas involucrados y 11 más de otros fabricantes con automatizaciones parciales.