26-04-2019, 22:24
Os dejo aquí enlace a la traducción de un artículo (ladrillo infernal) muy interesante sobre lo que esperan los pilotos del 'piloto automático' y las muchas implicaciones de la relación entre el piloto humano y el piloto máquina y qué pasa cuando uno deja de funcionar y le pasa el marrón al otro cuando no se lo espera.
https://www.translatetheweb.com/?from=en...1834176244
Artículo original en inglés:
https://jalopnik.com/automation-transfor...1834176244
https://www.translatetheweb.com/?from=en...1834176244
Cita:LA TECNOLOGÍA DEL COCHE
Automatización transformó cómo los pilotos vuelan aviones. Ahora lo mismo debe suceder con los coches
Ilustración: Elena Scotti/GMG
Aaron Gordon
Hoy a las 2:00PMArchivado en: COCHES AUTÓNOMOS
48
Salvar
El futuro de la conducción se supone que tiene ganas de volar. Los nombres que algunas compañías de automóviles dan a su última tecnología: pilotoautomático, piloto asistido, Super Cruise, Pro Pilot, son todos los términos inspirados en la aviación que utilizan las empresas automotrices para sus sistemas semi-autónomos. Al igual que con el piloto automático de un avión, el pensamiento va, el conductor empuja un botón y la cosa vuela en sí. Excepto que esa interpretación es tremendamente errónea.
Los sistemas de piloto automático de aviones, y lo que los pilotos deben hacer mientras están activados, son mucho más complicados que eso. Hasta que la industria automotriz y los reguladores reconcilien una versión cartoónica de las características semi-autónomas con la realidad de cómo usarlas de forma segura, el futuro puede no ser casi tan seguro como uno podría esperar.
Y el tiempo se acaba. Más características de seguridad automatizadas que nunca serán equipos estándar en modelos de bajo precio este año, trayendo lo que una vez fueron costosas características de lujo a las masas.
En los próximos años, parece plausible, o incluso probable, que muchos humanos y máquinas serán socios en la conducción. Y como cualquier relación, estas alianzas pueden complicarse.
"Lo que vamos a ver en el futuro es una disminución general de los accidentes, veremos mejoras en la seguridad en todo el tablero", pronosticó Michael Manser, investigador del programa de factores humanos en Texas A & M University con casi dos décadas de experiencia estudiando Cómo cambia el comportamiento del conductor humano con la nueva tecnología. "Pero vas a empezar a ver una capa secundaria de problemas empiezan a recortar. Y creo que una gran parte de estos se va a relacionar con estos desglose en asociación entre el sistema y el conductor. "
La gran pregunta a la que se enfrenta la industria automotriz, a la que nadie tiene la respuesta, es si esta capa secundaria de problemas, con el tiempo, terminará causando más accidentes de los que la automatización previene.
ANUNCIO
Afortunadamente, hay otro modo de transporte que ha pasado por una transformación tecnológica muy similar: los aviones. Los 40 años de investigación y desafíos del mundo real en la industria de las aerolíneas están repletos de lecciones, incluyendo cómo preparar mejor a los conductores para esta transformación.
Al hablar con varios investigadores que han estudiado ampliamente los llamados "factores humanos", así como los pilotos sobre su experiencia en la industria de la aviación, la palabra que escuché con más frecuencia sobre el enfoque de la industria automovilística es "preocupante."
Casi para una persona, tienen miedo de las compañías de coches de actitud caballerosa-algunos más que otros-están tomando hacia características semi-autónomas sin lidiar con cómo estas características cambian el comportamiento humano. Son conductores preocupados, inadecuadamente entrenados en estas nuevas características, recoger sus capacidades de los nombres de marca, lo que resulta en un malentendido de lo que realmente hacen los programas de asistencia al conductor. Y como ha tenido que suceder en el mundo de la aviación, el futuro de la conducción puede implicar re-entrenar a los seres humanos enteramente en las tareas que realmente están haciendo.
"Realmente ponemos ese trabajo en él, ese entrenamiento", dice el investigador de la NASA Steve Casner sobre el largo camino de la industria de la aviación a la automatización. "Pero no veo que suceda en los coches. Veo suposiciones. "
Al igual que con tantas cosas, la pregunta no es si la historia puede ser cualquier guía, pero si nos molestamos en escuchar. Y en este caso, los cambios en la forma en que entrenamos y educamos a los conductores ocurrirán a medida que esta tecnología avanza.
ANUNCIO
Semi-automatización está aquí por un tiempo
Durante varios años, la creencia común ha sido que las características semi-autónomas eran simplemente un puente a los coches sin conductor. Por ejemplo, la administración nacional de seguridad del tráfico de carreteras tiene una página completa dedicada al tema, que comienza:
La continua evolución de la tecnología automotriz tiene como objetivo ofrecer beneficios de seguridad aún mayores y sistemas automatizados de conducción (ADS) que — un día — pueden manejar toda la tarea de conducir cuando no queremos o no podemos hacerlo nosotros mismos. Los coches y camiones totalmente automatizados que nos impulsan, en lugar de conducirlos, se convertirán en realidad.
Esa misma página de la NHTSA estima que la nueva era de "características de seguridad totalmente automatizadas" comenzará en 2025, un parpadeo de un ojo marco regulatorio. Como resultado, pocos se asentaron en lo que esta asociación entre la computadora y el ser humano se vería como.
En parte, esto se debió a que las características que se implantaron primero fueron los llamados sistemas de monitoreo pasivo, como el pitido si se desvió de su carril en la carretera, o cámaras de respaldo.
Aunque tanto útiles como problemáticos a su manera, estas características no inspiraban visiones de automóviles que operan con mentes propias, lo que se traduce en objetos sólidos como el conductor impotente frenos para el impacto.
Cuando un conductor compra un coche con cualquiera de estas características, el mayor entrenamiento que podría obtener es una breve introducción a la tecnología en el concesionario, a menudo tanto como un paso de venta que un procedimiento de seguridad.
ANUNCIO
En cambio, alteraron nuestro comportamiento de maneras más sutiles. Por ejemplo, David Kidd, un científico senior de investigación en el Instituto de datos de pérdida de autopistas, encontró en una serie de estudios que las personas que utilizan cámaras de respaldo no miran sobre sus hombros o comprobar sus espejos tan a menudo. Tienen una visibilidad trasera mucho mayor debido a la cámara, pero peor visibilidad lateral porque no están comprobando múltiples perspectivas tan a menudo. También son mucho más susceptibles a golpear objetos en las sombras, como por ejemplo de árboles colgantes, porque el rango dinámico de las cámaras de respaldo es bastante pobre.
Pero dos desarrollos, uno gradual, el otro repentino, recientemente han traído esas preocupaciones fuera del ámbito del estudio académico y en la corriente principal, porque las consecuencias podrían ser mucho mayores que retroceder en un polo de luz desprevenido.
El desarrollo gradual ha sido la realización arrastrándose de que estas características de asistencia al conductor van a estar alrededor durante mucho tiempo. No son un mero puente temporal a los coches sin conductor, como muchos han asumido anteriormente.
Los automóviles sin conductor se sienten tan alejados de la implementación del mercado masivo como lo hicieron hace cinco años, e incluso los líderes de la industria como el CEO de Waymo, John Krafcik, lo hacen sonar como si los vehículos autónomos, en el mejor de los lugares, se limitaban a las ciudades con buen tiempo para el futuro previsible.
Article preview thumbnail
2018 fue un chequeo de la realidad dura para coches autónomos
A medida que la industria automotriz continúa arrojando todo su peso detrás de desarrollar...
Lea más
Y entonces algo muy de alto perfil ocurrió recientemente que ha dibujado paralelos directos a la tecnología del vehículo autónomo. El escándalo de Boeing MAX 8, donde uno de los principales fabricantes de aviones del mundo lanzó un modelo con una característica de seguridad automática defectuosa que muchos informes indican fue responsable de dos accidentes principales en cinco meses.
ANUNCIO
En el segundo accidente, los pilotos pasaron varios minutos luchando con los ordenadores, incapaz de desactivar la característica que supuestamente sumergió el avión en la tierra. Un total de 346 personas murieron en esos accidentes.
Aunque algunos escritores científicos generalistas, como Maria Konnikova, de Nueva York, han estado escribiendo sobre este tipo de problemas de automatización durante años, el escándalo de Boeing parece haber servido como una llamada de despertador de para, inesperadamente, la industria automovilística.
Después de todo, si incluso las aerolíneas, que han pasado la mayor parte de 40 años averiguando cómo los humanos y las computadoras pueden trabajar mejor juntos para volar aviones — es el homónimo del programa de asistencia al conductor de Tesla, después de todo — todavía podría estar averiguando cosas, ¿qué significa esto para coches, donde estas características se desplegarán a decenas si no cientos de millones más personas en ambientes mucho menos controlados?
Piense en la computadora como un copiloto, entregando ciertas tareas de una a la otra. Si cada copiloto no está en la misma página sobre lo que el otro está haciendo — digamos, la capacidad del ordenador para permanecer en un carril incluso cuando los marcadores de carril se desvanecieron o cuando un colchón en el techo oscurece las cámaras — entonces podría resultar en casos donde , en efecto, nadie está conduciendo el coche.
Las consecuencias de estas lagunas podrían ser terribles. Kidd advirtió que cuando las características semi-autónomas fallan, "no fallan con gracia. Básicamente, lanzan al conductor inmediatamente, y típicamente inesperadamente, a un estado donde tienen que recuperarse de un error grave. " Por ejemplo, la NHTSA está investigando un posible problema con el sistema de frenado de emergencia automático de Nissan Rogue cuando no debería (un portavoz de Nissan North America le dijo a Jalopnik que el problema se corrigió en una actualización de software anterior Este año).
La tecnología puede funcionar perfectamente la gran mayoría del tiempo, adorando a los seres humanos en una falsa sensación de seguridad a medida que ganan confianza en el sistema, sólo para ser lamentablemente no preparado para el momento crítico de fracaso.
ANUNCIO
En los aviones, los pilotos suelen tener algún tiempo, tal vez tanto como unos pocos minutos, para solucionar estos errores. Pero cualquier conductor que experimente uno de estos fracasos sería increíblemente afortunado de tener tres segundos. La mayoría no tendría tiempo para reaccionar hasta que sea demasiado tarde, y no lo harán en el aire vacío.
Mira a los aviones
La solución, el estrés de los investigadores, es una mejor capacitación del conductor —cualquier entrenamiento de conductor, realmente — que reconozca la verdad fundamental de que la tarea de conducción está cambiando.
Este es precisamente el tema de un reciente artículo de Casner y la Universidad de California, el profesor de San Diego Edwin Hutchins. Tanto Casner como Hutchins pasaron décadas estudiando problemas de factor humano en la aviación antes de cambiarse a los coches, anticipando el cambio de la industria. Casualmente, su papel, titulado "¿Qué le contamos a los pilotos?", fue publicado dos días antes del segundo accidente de Boeing MAX 8 que dio lugar a que el modelo se castigada.
En los aviones, los pilotos suelen tener algún tiempo, tal vez tanto como unos pocos minutos, para solucionar estos errores. Pero cualquier conductor que experimente uno de estos fracasos sería increíblemente afortunado de tener tres segundos.
Casner me dijo que la diferencia en cómo las dos industrias abordan la seguridad es masiva (y, para usar esa palabra de nuevo, concerniente). Gracias a los estudios realizados por la NASA y los militares — por no hablar de investigadores independientes — ya en la década de 1970, la industria de la aviación aprendió desde el principio que los humanos reaccionan a la automatización de formas impredecibles y necesitan amplia formación para contrarrestar esas tendencias.
Los programas informáticos que vuelan aviones — o conducen coches — son inmensamente complicados con millones de líneas de código mientras operan en entornos complejos. Esto lleva a las computadoras a hacer cosas que los humanos no esperan, o no hacer cosas que los humanos esperan. Tales desconexiones, escenarios conocidos como "sorpresas de automatización", ocurren con tanta frecuencia que engendraron un campo de estudio completo.
ANUNCIO
Un ejemplo es lo que se llama inversión de tareas primaria-secundaria, o cuando, por ejemplo, un piloto deja de prestar atención al altímetro para determinar cuándo él o ella ha golpeado la altitud adecuada y en su lugar espera a que la alarma notifique que se está acercando a dijo altitud. En otras palabras, la tarea de pilotar el avión se sustituye por la tarea de hacer la alarma.
Esto puede no sonar como una gran diferencia, pero resulta para introducir todo tipo de nuevos problemas. Aquí hay un ejemplo, del papel de Casner y Hutchins:
En 1988, una tripulación de vuelo conversó sobre un tema no relacionado con el vuelo justo antes del despegue. Poco sabían, se habían olvidado de poner los alerones del avión antes de que partieran. El avión se detuvo y se estrelló momentos después del despegue, matando a 2 miembros de la tripulación y 12 pasajeros. El avión tenía un sistema de advertencia a bordo diseñado para detectar automáticamente y llamar a las aletas mal establecidas. El problema: el sistema no funcionaba ese día.
Si bien los errores raramente resultan en fatalidades en la aviación, ocurren con frecuencia. De hecho, un estudio de 1995 llevado a cabo por la NASA descubrió que los pilotos estadounidenses se informaron desviaciones de altitud debido a la automatización sorprende a la velocidad alarmante de una por hora. El título del estudio, tomado de las palabras de un piloto que superó su altitud prescrita, es "OOPS, no ARM."
Los investigadores también descubrieron que los pilotos (y, de hecho, la mayoría de los humanos) no son muy buenos mirando fijamente una computadora durante horas esperando a que la arruines. En otro estudio, Casner puso 18 pilotos en un simulador de Boeing 747 y regularmente les preguntó lo que estaban pensando para determinar cómo se centraron en la tarea en cuestión. Los pilotos reportaban con frecuencia sus mentes vagando cuando se suponía que estaban monitoreando el sistema.
Casner concluyó que la automatización no estaba liberando la energía mental de los pilotos para centrarse en volar mejor, sino para pensar y hablar de otras cosas. En vez de eso, se distrajeron.
ANUNCIO
Como Casner y Hutchins aclaran, la industria aérea no esperó a resolver la automatización con más automatización. Entre otras cosas, investigadores y pilotos trabajaron juntos — y, con el tiempo, muchos pilotos como Casner se convirtieron en investigadores — para profundizar su comprensión del problema y descubrir soluciones.
Lo que más ayudó, dijo Casner, no fue agregar miles de páginas a los manuales de aviones (que los fabricantes hicieron) o agregar aún más automatización en un intento de automatizar las sorpresas de automatización (que también hicieron).
En cambio, fue entrenar a los pilotos para ser conscientes de lo que su nuevo trabajo implicaba, y cómo era diferente de volar los aviones que solían volar.
El entrenamiento asegura que los pilotos entiendan el estado correcto de la mente para estar en, la tecnología en sí, y obtener una comprensión firme de su papel versus el del piloto automático. Una de esas innovaciones fue la identificación de pilotos que eran propensos a confiar en lo que la computadora les contaba sobre sus propias observaciones.
Para romper este comportamiento, esos pilotos recibieron cursos especiales para demostrar cómo incluso los programas de piloto automático más sofisticados pueden estar equivocados a veces. Estas y otras iniciativas de "factor humano", sostienen Casner y Hutchins en su trabajo, resultaron en tasas de accidentes históricamente bajas a partir de la década de 1990.
De vuelta al futuro
Volviendo su atención a los coches, Casner y Hutchins escriben que "desde la perspectiva de la industria de la aviación, es la década de 1980 de nuevo." Como en, antes de que las aerolíneas estructuraron programas de capacitación específicamente para abordar estos llamados problemas de factor humano y las tasas de choque cayeron.
ANUNCIO
Cuando un conductor compra un coche con cualquiera de estas características, el mayor entrenamiento que podría obtener es una breve introducción a la tecnología en el concesionario, a menudo tanto como un discurso de venta como un procedimiento de seguridad, intercalado en algún lugar entre cómo ajustar su asiento y cómo Empareje el teléfono con el sistema de infoentretenimiento.
La cara pública de esto ha sido, para bien y para mal, Tesla. Líder temprano en sistemas de conducción semi-autónomos activos más allá de los pasivos, la compañía nombró a su conductor de asistencia "piloto automático", conjurando imágenes de pilotos moviendo un interruptor y dejando que el avión vuele a sí mismo, a pesar de que la característica de Tesla fomenta conductores para mantener las manos en el volante en todo momento.
Este sistema de monitoreo de conductores, sin embargo, es fácilmente eludido por botellas de agua bien colocadas, naranjas, o como un vendedor de Tesla me dijo como su técnica preferida, la rodilla del conductor, que engañar al coche en el pensamiento de las manos del conductor están en el volante. Hay hilos enteros en los foros de propietarios de Tesla dedicados a la mejor manera de engañar a AutoPilot. Los usuarios publicaron fotos de sus "configuraciones;" uno involucró una envoltura de nylon alrededor de la rueda, un gancho de pesca a través de la envoltura, con un peso atado al final del gancho.
Cuando se le preguntó sobre estas violaciones evidentes de la política de la compañía para el uso de piloto automático, un portavoz de Tesla remitió a Jalopnik al sitio webde la compañía, lo que explica que el piloto automático mide la cantidad de torque aplicada a la rueda para detectar si el las manos del conductor están en el volante según sea necesario:
Los recordatorios y alertas prácticas del sistema se entregan en función de cada escenario de conducción único, dependiendo de numerosos factores, como la velocidad, la aceleración, las condiciones de la carretera, la presencia de otros vehículos, los obstáculos detectados, la geometría de carril y otro sensor insumos ", explica el sitio Web. "Si el controlador ignora repetidamente esas advertencias, se les bloqueará el uso de AutoPilot durante ese viaje. Además, si un conductor intenta enganchar al piloto automático cuando no está disponible, se le impedirá hacerlo.
El portavoz afirmó además que el equipo de ventas de Tesla está capacitado sobre cómo demostrar que AutoPilot incluye mantener las manos en el volante en todo momento.
ANUNCIO
A pesar de eso, un número de choques de piloto automático han sucedido, y algunos de ellos ilustran el preciso "factor humano" problemas de estos investigadores advierten acerca de.
En el accidente fatal de Joshua Brown, que fue objeto de una investigación de la Junta Nacional de seguridad en el transporte, el conductor se basó excesivamente en la automatización demostrando una "falta de comprensión de las limitaciones del sistema", mientras que el NTSB dijo que Tesla no fue lo suficientemente lejos para asegurarse de que los conductores seguían alerta. El portavoz de Tesla, hablando generalmente sobre AutoPilot, defendió el acercamiento de la compañía al piloto automático señalando que cualquier coche podría ser mal utilizado.
En otras palabras, el caso de Joshua Brown es uno perfectamente en línea con décadas de investigación de factores humanos. Es un problema técnico y uno de comportamiento.
Article preview thumbnail
Límites del piloto automático de Tesla y el error del controlador citado en fatal modelo S Crash
La Junta de seguridad del transporte nacional de los Estados Unidos dictaminó hoy que el "diseño operacional" de Tesla...
Lea más
No todas las empresas son tan Caballer con sus programas de asistencia al conductor. El sistema de Super Cruise de Cadillac es generalmente considerado como uno de los sistemas de semi-automatización más responsables en la industria porque utiliza una cámara montada en el volante para asegurar que los ojos del conductor están en la carretera, aunque su lanzamiento ha sido lento. Hasta la fecha es sólo en un coche, el Cadillac CT6 sedán, y ni siquiera el resto de la línea de Cadillac. Eso puede hablar del enfoque más conservador de GM.
ANUNCIO
Lisa Talarico, que trabaja como líder en el rendimiento del sistema de monitoreo de conductores para Super Cruise, dijo que los concesionarios están "bien entrenados" en la función, pero los conductores sólo deben ver un breve video sobre el sistema que describió como una "visión general muy global."
"Creo que estos coches nuevos, extrañamente, paradójicamente, tan irónicamente, al hacer más por nosotros, no nos exigen que sepamos menos. Nos exigen saber más. "
Pero agregó que en los estudios de prueba pequeños han encontrado "sólo un pequeño aumento de porcentaje" en el conductor miradas Off-Road cuando Super Cruise se activa versus conducción manual. (Varios otros fabricantes, incluyendo Nissan y Volvo, se negaron a ser entrevistados para esta historia.)
Talarico también dijo que las especificaciones técnicas de Super Cruise se detallan en el manual del propietario. De hecho, cada manual del coche probablemente tendrá amplias descripciones de los sistemas automatizados que el coche incluye.
Pero Manser, el investigador de factores humanos de la Universidad de Texas A & M, advierte que incluso si alguien realmente lee la maldita cosa, los manuales del propietario normalmente se centran en lo que no debería hacer, absolviendo el fabricante de responsabilidad legal. El entrenamiento adecuado de los factores humanos es mucho más que eso.
ANUNCIO
Lo que esta capacitación debería incluir, según los investigadores con los que hablé, es una profunda comprensión de cómo funciona la tecnología para que los humanos puedan anticipar problemas antes de que ocurran. Mientras que realmente no necesitaba saber cómo funcionaba un coche para conducir uno en la edad manual, probablemente debería tener una comprensión de lo que las cámaras de su coche pueden (y no) detectar y cómo se interpreta esa información con el fin de detectar peligros en la carretera.
"Creo que estos coches nuevos, extrañamente, paradójicamente, tan irónicamente, al hacer más por nosotros, no nos exigen que sepamos menos", señaló Casner. "Nos exigen saber más."
De la misma manera que los pilotos tuvieron que obtener una comprensión más profunda de los sistemas automatizados — de hecho, esa falta de comprensión puede haber contribuido a los accidentes de Boeing, ya que los pilotos no pudieron averiguar cómo desenganchar el sistema automatizado que los estaba sumergiendo hacia el suelo — estos expertos dicen que los conductores ahora tienen que hacerlo también.
Esa es una tarea alta para un país que en gran parte ha dado una licencia de conducir a la maldita cerca de cualquiera que quiera uno. En la década de 1970, el 95 por ciento de los estudiantes elegibles recibieron Educación de los conductores a través de escuelas públicas, pero gracias en parte a un estudio de 1983 NHTSA que concluyó que los adolescentes de Georgia que tomaron conductores ' ed no eran mejores pilotos, escuelas públicas, a menudo enfrentados a recortes presupuestarios, en gran parte se alejaron de esos programas. (Un estudio reciente y más exhaustivo de ocho años en Nebraska encontró que, de hecho, los conductores ed las clases hacen mejores conductores adolescentes.) Además, muchas escuelas cortan el entrenamiento detrás de la rueda sobre cuestiones de responsabilidad.
En conjunción con el uso generalizado de los cursos de conducción en línea en gran medida no regulados, es demasiado fácil para los adolescentes para bajar unos pocos cientos de dólares de su (o sus padres) efectivo y obtener una licencia sin aprender mucho acerca de la operación de un coche de forma segura . Por supuesto, ganar el privilegio de conducir cuando tienes 17 años de edad generalmente dura toda tu vida.
Es difícil imaginar a muchos clientes sentados a través de un tutorial tan extenso o presentación antes de comprar un coche, dado que tal programa puede ser más extenso que lo que tenían que hacer para obtener su licencia en primer lugar. Si se enteró de que tenía que, digamos, tomar sólo una clase de una hora en el concesionario con el fin de comprar un coche, ¿lo harías? ¿O compraría un coche diferente?
ANUNCIO
Es todo acerca de los Benjamins (y también la responsabilidad)
Lo que en última instancia puede impedir que la industria automovilística tome las mismas medidas de capacitación que la industria de las aerolíneas es la cuestión de la responsabilidad. Los fabricantes y posiblemente las aerolíneas son responsables si un avión se bloquea debido a un error informático — Boeing ya ha sido demandado por el accidente de Ethiopian Airlines — porque los clientes están pagando, en parte, por un viaje seguro. La automatización de la mano en los aviones es entre las computadoras y los pilotos, que son empleados de las aerolíneas. En cualquier caso, el cliente no está tomando el control de nada.
Incluso Cadillac, el más cauteloso de los fabricantes, debutó Super Cruise con un spot publicitario con el lema "es sólo cuando dejas ir que empiezas a atreverte."
Con los coches semi-autónomos, el cuadro legal es mucho más turbio, como se ha discutido en innumerables revisiones legales y revistas académicas. Para uno, los conductores son simultáneamente el "copiloto" y el cliente. Además de eso, el marco legal actual básicamente hace que el conductor sea responsable de lo que hace el coche, excepto en el caso de defectos de fabricación extrema, manipulación, u otros escenarios de borde.
"En última instancia, en nuestra sociedad, el conductor siempre será responsable de lo que ocurra con ese coche", dice Manser. "Si estás bajo, digamos, [nivel] 3 o [LEVEL] 4 automatización y estás mirando tu teléfono muy brevemente y te entra un choque, va a volver a ti como el conductor. Eres responsable de lo que haga ese auto. "
Article preview thumbnail
¿Qué es un auto autónomo de nivel 4? Este gráfico explica todo lo
Los coches autónomos están llegando, y aunque a veces puede sentir que ya están aquí, son...
Lea más
Consideremos, por ejemplo, cuando el coche de prueba autoconducido de uber golpeó y mató a un peatón mientras estaba en modo totalmente autónomo. Los fiscales se negaron a responsabilizar a Uber a pesar de que era el coche, el equipo y el algoritmo de la compañía lo que funcionalmente mató a esta persona.
ANUNCIO
Los fiscales aún no han determinado si presentar cargos contra el conductor de seguridad, que, al supuestamente transmitir un programa de televisión en su teléfono en el momento del accidente, estaba exhibiendo los mismos indicadores del aburrimiento y el pensamiento fluencia de la literatura sobre la industria de la aerolínea advierten acerca de (Uber rápidamente se establecieron un traje civil con la familia de la víctima).
Por lo menos, el marco legal para los casos penales y civiles no está cerca de abordar cuestiones como: ¿fue el fallo de la mano entre el ordenador y el humano la culpa del algoritmo o la culpa del humano?
Como resultado, la industria automotriz no tiene ningún incentivo obvio en este momento para entrenar a los conductores correctamente. En cambio, tiene todos los incentivos para permitir que los conceptos erróneos sobre las capacidades del automóvil se prolongarse que exageran sus habilidades, lo que puede aumentar las ventas. Con este fin, un vendedor de Tesla me dijo que para algunos clientes toma coches de prueba en una carretera cerca de la tienda con un giro agudo para demostrar lo bien que funciona el piloto automático, a pesar de que la carretera no es una carretera, el único lugar piloto automático se supone que se utiliza.
Article preview thumbnail
Los coches autónomos no son realmente acerca de la seguridad
Desde que General Motors lanzó el último plan de juego para coches autónomos a principios de este mes,...
Lea más
No es de extrañar, entre acrobacias como esta, los tweets de Elon Musk que caracterizan erróneamente las capacidades de AutoPilot, o el propio Musk haciendo mal uso de la función en 60 minutos, que los propietarios de Tesla se sienten empoderados para usar la función donde no está previsto.
Incluso Cadillac, el más cauteloso de los fabricantes, debutó Super Cruise con un spot publicitario con el lema "es sólo cuando dejas ir que empiezas a atreverte."
ANUNCIO
Manser me dijo que siente lástima por los conductores porque están siendo arrojados a lo que él llama una "posición insostenible." Como él me lo describió, sonaba casi como una trampa.
Los conductores se están vendiendo características en sus coches que delegar más y más responsabilidad de conducir realmente el coche a los programas de ordenador creados por el fabricante. Y el fabricante, además de los distribuidores, dar a los conductores sólo el tutorial más breve en el sistema, darles las llaves, y decirles que se diviertan.
¿Qué podría salir mal?
¿Es realmente más seguro?
El contraargumento a todo esto, uno que escuché varias veces en estas entrevistas, es que sin duda estas características de asistencia de conductor será más seguro que los seres humanos solos, que son por y grandes terribles en la conducción. En 2017, el último año para el que se dispone de datos, 37.133 personas murieron en accidentes automovilísticos, según el IIHS. ¿Cómo podrían empeorar las computadoras?
Los investigadores con los que hablé que están preocupados por la falta de entrenamiento del conductor felizmente reconocen las características de conducción semi-autónomas tienen el potencial de hacer las carreteras más seguras si se hace bien. Pero a partir de ahora, estas características son para su uso en las autopistas. Y conducir por carretera es una cosa que los humanos realmente hacen bastante bien.
ANUNCIO
Según Kidd, el investigador del Instituto de datos de pérdida de autopistas, alrededor de un tercio de todas las millas viajada en los EE.UU. están en las autopistas, pero sólo el nueve por ciento de los accidentes, lo que significa viaje por carretera es significativamente infrarrepresentadas en términos de donde estamos rompiendo nuestros coches.
"La gente es muy buena viajando por las autopistas", dice Kidd, "¿hasta qué punto conducirá realmente a una mejora marcada en la seguridad? Esa pregunta sigue ahí fuera. "
Parte de la razón por la que la pregunta sigue ahí fuera es que no tenemos buenos datos sobre, bueno, cualquier cosa relacionada con las características semi-autónomas. Kidd dice que hay tres razones para esto. En primer lugar, la tecnología sigue siendo demasiado nueva. En segundo lugar, no hay buena información pública sobre qué vehículos en la carretera tienen realmente capacidades semi-autónomas. Y tercero, los investigadores independientes no saben cuándo los conductores realmente lo están usando.
(Tesla emite informes de seguridad trimestrales, pero sólo incluye accidentes-o-casi-fallas-por milla para cuando el piloto automático está comprometido versus cuando no lo es, una estadística algo engañosa porque el piloto automático es, por política de la empresa, utilizado exclusivamente en autopistas, que, como se indicó anteriormente, tienen una tasa mucho más baja de choque por milla para los conductores humanos, demasiado. En una llamada de ganancias reciente, Musk dijo que no van a publicar más datos porque cree que la gente "como una mina de datos de la situación y tratar de convertir un positivo en negativo.")
Kidd dice que la mejor solución aquí sería algún tipo de acuerdo de intercambio de datos entre los fabricantes y el gobierno, similar a lo que la administración federal de aviación tiene en su lugar para detectar problemas de forma temprana y presentar soluciones a nivel de la industria. Pero el gobierno probablemente tendría que reglamentar eso en la existencia, lo que podría llevar años, la ley siempre está rezagada tras el avance tecnológico, como se ha vuelto dolorosamente obvio en los últimos años.
ANUNCIO
Recientemente, GM, Ford y Toyota anunciaron que lanzarían un consorcio para los estándares de vehículos autónomos, pero los detalles todavía son turbias, y no está claro si tal grupo profundizaría en las características semi-autónomas. Tampoco está claro cuán transparente será este grupo con sus datos.
Aún así, Kidd es escéptico de que un programa de intercambio de datos en toda la industria ocurra en cualquier momento, ya que los fabricantes están compitiendo con el objetivo de billones de dólares de coches totalmente autónomos y no quieren arriesgarse a compartir su salsa secreta con sus competidores. De hecho, las empresas de automóviles tienen un amplio incentivo para ocultar tanta información sobre sus sistemas semiautónomos patentados como sea posible.
La otra cara de esto es, debido a la forma en que la responsabilidad de los accidentes automovilísticos funciona, las compañías de automóviles también tienen muy poco incentivo para entrar en este tipo de acuerdos de intercambio de datos centrados en la seguridad Kidd aboga por. Después de todo, las compañías de automóviles sólo son responsables de las muertes o lesiones en la carretera en casos de defectos de fabricación.
Pero la gente chocar sus coches porque no entienden las limitaciones tecnológicas o de ingeniería de sus máquinas? Diablos, eso es conducir.
Por favor, Señor, ¿me puede entrenar
Mi última pregunta para los investigadores fue lo que cualquier consumidor individual debe hacer si compran un coche con características semi-autónomas. ¿Cómo pueden entrenarse a sí mismos? ¿Cómo pueden estar seguros?
Esperaba sus respuestas para hacerme sentir un poco mejor sobre toda la situación. En cambio, sólo me hicieron sentir peor.
ANUNCIO
El mensaje de Casner, corto de re-herramientas de toda la estructura de la educación de los conductores, incluyendo traerlo de vuelta a las escuelas secundarias, fue, esencialmente, tener mucho cuidado.
"Mi mayor mensaje es que hay mucho más sucediendo aquí que se encuentra con el ojo... más de lo que tu sentido común te está diciendo ", dijo. "Y más de lo que las compañías de automóviles te están diciendo. Hay más que empujar algunos botones, sentarse atrás y relajarse, y disfrutar del paseo. Hay cosas que todos los conductores deben saber sobre el auto, sobre sí mismos, y sobre esta nueva tarea de conducción extraña que están a punto de emprender. "
Manser, usando el lenguaje cuidadoso de un académico que ha pasado años investigando un tema, aconseja a la gente "entender cada aspecto operacional." Cuando el sistema se enciende y se apaga. Cómo hacerlo usted mismo si el sistema no lo hace. Lo que va a hacer en emergencias. Lo que va a hacer en situaciones "normales".
"Necesitan formar un modelo mental preciso de cómo funciona ese sistema", continuó Manser. "Porque si tu modelo y el modelo del sistema son diferentes, va a haber conflicto."
¿Dónde puede la gente encontrar esa información si no está en el manual del propietario o en los concesionarios? Le dije a Manser que sonaba como diciendo que la gente necesita entrenamiento que aún no existe.
ANUNCIO
"sí", admitió. "Eso es probablemente correcto."
Artículo original en inglés:
https://jalopnik.com/automation-transfor...1834176244