Home Autos El manejo de Tesla del error de conducción autónoma completa genera alarmas

El manejo de Tesla del error de conducción autónoma completa genera alarmas

58
0

Tesla lanzó una nueva versión del paquete de software experimental que llama Full Self-Driving para los conductores aprobados el 23 de octubre a través de una actualización “por aire”.

A la mañana siguiente, Tesla se enteró de que la actualización había alterado el comportamiento de los autos de una manera que los ingenieros de la compañía no habían previsto.

En un informe de retiro a los reguladores de seguridad federales el viernes, Tesla planteó los problemas de esta manera: la compañía descubrió una falla de software que “puede producir detecciones de velocidad de objetos negativas cuando hay otros vehículos presentes”.

En el lenguaje cotidiano, el sistema de frenado automático de Tesla se activaba sin motivo aparente, lo que provocaba que los automóviles desaceleraran rápidamente mientras viajaban por la carretera, lo que los ponía en riesgo de ser chocados por detrás. Las campanas de advertencia de colisión frontal también sonaban, a pesar de que no había una colisión inminente de la que advertir.

La compañía dijo que no se reportaron accidentes ni heridos debido a la falla. Aún así, el incidente demuestra cuán complicados son estos sistemas: incluso un pequeño cambio en una parte del sistema puede afectar el funcionamiento de algo tan vital pero aparentemente simple como el frenado automático. El incidente plantea la cuestión de si existe una forma segura de probar vehículos autónomos a gran escala en la vía pública, como ha estado haciendo Tesla.

La respuesta de Tesla a la falla plantea sus propias preocupaciones. Mientras sus ingenieros trabajaban para arreglar el software, desactivaron el frenado automático y la advertencia de colisión frontal para los probadores de software durante el fin de semana, dijo la compañía. Según numerosos mensajes publicados en Twitter, a los propietarios no se les informó que esos sistemas de seguridad se habían desactivado temporalmente, y solo se enteraron al desplazarse por el menú en las pantallas del tablero de sus automóviles.

Para el 25 de octubre, Tesla eliminó una corrección de software y la aplicó a 11,704 conductores inscritos en el programa Full Self-Driving.

Tesla, que ha disuelto su departamento de relaciones con los medios, no pudo ser contactado para hacer comentarios.

El programa Full Self-Driving de Tesla es el intento de la compañía de desarrollar un automóvil sin conductor. Es marcadamente diferente de su sistema de asistencia al conductor llamado Autopilot. Este último, presentado en 2015, automatiza el control de crucero, la dirección y el cambio de carril.

El piloto automático es objeto de una investigación de seguridad federal sobre por qué una docena de Tesla chocaron contra autos de policía y otros vehículos de emergencia estacionados al borde de la carretera. Esos accidentes resultaron en 17 heridos y una muerte.

Los investigadores están tratando de saber por qué los sistemas automáticos de frenado de emergencia de Tesla aparentemente no se activaron para prevenir o mitigar tales accidentes. La Administración Nacional de Seguridad en el Transporte por Carretera está investigando qué elementos de software del sistema están a cargo del frenado automático cuando un automóvil está en piloto automático y un choque es inminente. Los expertos han planteado la posibilidad de que Tesla suprima el frenado automático cuando el piloto automático está activado, posiblemente para evitar el frenado fantasma del tipo que experimentaron los conductores después de la actualización de conducción autónoma completa.

Los problemas de frenado automático de emergencia de Tesla están comenzando a llegar a los tribunales. Un juicio que comenzará en 2022 busca daños y perjuicios de Tesla por un accidente relacionado con el piloto automático que mató al ingeniero de Apple Walter Huang en 2018 en una autopista de Mountain View, California. Según las afirmaciones presentadas en la demanda, el Tesla Model X de Huang “fue diseñado, construido e introducido en el flujo comercial sin haber sido equipado con un sistema de frenado de emergencia automático efectivo”.

Según un informe de accidente de la Junta Nacional de Seguridad en el Transporte, no solo el sistema de frenos automático no se activó, sino que el automóvil también aceleró contra un pilar de concreto.

Tesla ha anunciado la conducción autónoma total como la culminación de su impulso para crear un automóvil que pueda navegar por sí mismo a cualquier destino sin intervención de un conductor humano. El presidente ejecutivo de Tesla, Elon Musk, ha prometido durante años que los Tesla sin conductor son inminentes.

Las regulaciones sobre el despliegue de dicha tecnología en las vías públicas son irregulares en todo el país. No existe una ley federal: la legislación sobre tecnología sin conductor se ha estancado en el Congreso durante años y no se espera ninguna acción pronto.

Y aunque California requiere que las empresas que prueban la tecnología sin conductor en las vías públicas informen al Departamento de Vehículos Motorizados del estado, incluso los choques menores y las fallas del sistema, Tesla no lo hace, según los registros del DMV. Empresas como Argo AI, Waymo, Cruise, Zoox, Motional y muchas otras cumplen con las regulaciones del DMV; Tesla no lo hace, según muestran los registros del DMV. The Times ha pedido repetidamente durante varios meses hablar con el director del departamento, Steve Gordon, para explicar por qué Tesla obtiene un pase, pero cada vez que se considera que no está disponible.

En mayo, el DMV anunció una revisión de las prácticas de marketing de Tesla en torno a la conducción autónoma total. El departamento se ha negado a discutir el asunto más allá de decir, como lo hizo el martes, que la revisión continúa.

Al igual que Tesla, otras empresas que desarrollan sistemas de conducción autónoma utilizan conductores humanos para supervisar las pruebas en la vía pública. Pero donde emplean conductores capacitados, Tesla usa a sus clientes en su lugar.

Tesla cobra a los clientes $ 10,000 por el acceso a iteraciones periódicas del software Full Self-Driving Capability. La compañía dice que califica a los conductores de prueba beta al monitorear su conducción y aplicar un puntaje de seguridad, pero no ha aclarado cómo se desarrolló el sistema.

YouTube está repleto de docenas de videos que muestran el software de prueba beta de Tesla conduciendo automóviles hacia el tráfico que se aproxima u otras situaciones peligrosas. Cuando un automóvil de prueba beta intentó cruzar la calle hacia otro vehículo, un pasajero comentó en un video: “Casi nos mata”, y el conductor dijo en el video: “FSD, intentó asesinarnos”.

A medida que aparecían tales videos, Tesla comenzó a exigir que los probadores beta firmaran acuerdos de confidencialidad. Pero la NHTSA envió a Tesla una carta severa calificando los acuerdos de “inaceptables” y se reanudó la publicación del video. La agencia dijo que se basa en los comentarios de los clientes para monitorear la seguridad de los automóviles.

El retiro que resultó del error de frenado automático, que emplea software inalámbrico, no es necesario visitar al distribuidor, marca el comienzo de un cambio importante en la cantidad de retiros que se manejan. Tesla ha tomado la delantera en la entrega de software automotriz y otros fabricantes de automóviles están tratando de ponerse al día.

Los retiros voluntarios son un evento raro en Tesla. En septiembre, la NHTSA criticó a la compañía por entregar un software destinado a ayudar al sistema de piloto automático de Tesla a reconocer las luces de emergencia intermitentes a raíz de la investigación del accidente de vehículo de emergencia de la agencia. NHTSA le dijo a la compañía que las soluciones de seguridad cuentan como un retiro del mercado, ya sea que se entreguen por aire o si se requiere una visita al distribuidor. (El software por aire se entrega directamente a un automóvil a través de conexiones de torre de telefonía celular o Wi-Fi). A medida que otros fabricantes adopten actualizaciones de software por aire, tales retiros serán más comunes.

Los reguladores de seguridad federales apenas comienzan a comprender los profundos cambios que están provocando la tecnología robótica y su software de animación. NHTSA nombró recientemente a la experta en interacción hombre-máquina de la Universidad de Duke, Missy Cummings, como asesora principal de seguridad.

“El problema es que la NHTSA se ha centrado históricamente en los sistemas mecánicos”, dijo Junko Yoshida, editor en jefe del Informe Ojo-Yoshida, una nueva publicación que “examina las consecuencias intencionadas y no intencionadas de la innovación”.

En un artículo titulado “Cuando los Tesla chocan, ‘Uh-Oh’ no es suficiente”, escribe: “El comportamiento de Tesla hasta la fecha es un caso claro para los cambios consecuentes en la supervisión regulatoria de la NHTSA de los sistemas avanzados de asistencia al conductor”.

Cuando se le pidió un comentario, la NHTSA dijo que la agencia “continuará sus conversaciones con Tesla para garantizar que cualquier defecto de seguridad se reconozca y aborde de inmediato de acuerdo con la Ley Nacional de Seguridad de Tráfico y Vehículos Motorizados”.



Leer la nota Completa > El manejo de Tesla del error de conducción autónoma completa genera alarmas

Previous articleHublot tiene los relojes más veraniegos para llevar en 2022
Next articleAl menos 16 muertos en el accidente de un autobús de migrantes en Nicaragua
Latimes
En Los Angeles Times, encuentras las historias y reportajes más relevantes de Los Angeles y el mundo ahora en español. También, puedes ver la mejor información y mucho más.