Anuncio

Alerta por el manejo de Tesla del error de frenado en la prueba pública de conducción autónoma

Tesla Chief Executive Elon Musk stands in front of a car with stage lights in the background.
El presidente ejecutivo de Tesla, Elon Musk, siente más presión por parte de los reguladores de seguridad.
(Jae C. Hong / Associated Press)

Tesla lanzó una nueva versión del paquete de software experimental que llama Full Self-Driving (FSD) a los conductores aprobados el 23 de octubre, a través de una actualización “por aire”. A la mañana siguiente, la compañía se enteró de que la actualización había alterado el comportamiento de los coches de una forma que los ingenieros de la empresa no habían previsto.

En un informe de retiro del mercado a los reguladores de seguridad federales con fecha del 29 de ese mes, Tesla planteó así los problemas: la compañía descubrió una falla de software que “puede producir detecciones de velocidad de objetos negativos cuando hay otros vehículos presentes”.

En otras palabras, el sistema de frenado automático de Tesla se activaba sin razón aparente, lo cual provocaba que los coches desaceleraran rápidamente a medida que avanzaban por la autopista, y los ponía en riesgo de choques por detrás. Las campanas de advertencia de colisión frontal también sonaban, a pesar de que no había un choque inminente del cual preocuparse.

Anuncio

La compañía señaló que no se reportaron choques ni heridos debido a la falla. Aún así, el incidente demuestra lo complicados que son estos sistemas: incluso un pequeño cambio en una parte del sistema puede afectar el funcionamiento de algo tan vital pero aparentemente simple como el frenado automático. El percance plantea la cuestión de si existe una forma segura de probar vehículos autónomos a gran escala en la vía pública, como lo ha estado haciendo Tesla.

La respuesta de la empresa a la falla genera sus propias preocupaciones. Mientras sus ingenieros trabajaban para reparar el software, desactivaron el frenado automático y la advertencia de colisión frontal para los probadores de éste durante el fin de semana, expresaron fuentes de la compañía. Según numerosos mensajes publicados en Twitter, a los propietarios no se les informó que esos sistemas de seguridad se habían desactivado temporalmente, y estos solo se dieron cuenta al desplazarse por el menú en las pantallas del tablero de sus autos.

Para el 25 de octubre, Tesla había eliminado una solución de software y la había aplicado a 11.704 conductores inscritos en el programa de conducción autónoma completa. La compañía disolvió su departamento de prensa y ningún representante pudo ser contactado para hacer comentarios en este artículo.

El programa de conducción autónoma completa de Tesla es el intento de la compañía de desarrollar un automóvil sin conductor. Es notablemente diferente de su sistema de asistencia al conductor llamado Autopilot. Este último, introducido en 2015, automatiza el control de crucero, la dirección y el cambio de carril.

El piloto automático es objeto de una investigación de seguridad federal sobre por qué una docena de Teslas se han estrellado contra coches de policía y otros vehículos de emergencia aparcados al costado de las carreteras. Esos choques resultaron en 17 heridos y una muerte.

Los investigadores intentan averiguar por qué los sistemas automáticos de frenado de emergencia de Tesla aparentemente no se activaron para prevenir o mitigar tales choques. La Administración Nacional de Seguridad en el Transporte en Carreteras (NHTSA, por sus siglas en inglés), está indagando qué elementos de software del sistema están a cargo del frenado automático cuando un automóvil está en piloto automático y un choque es inminente. Los expertos han planteado la posibilidad de que Tesla esté suprimiendo el frenado automático cuando el piloto automático está activado, posiblemente para evitar el frenado fantasma que experimentaron los conductores después de la actualización reciente.

Los problemas de frenado automático de emergencia de Tesla están comenzando a infiltrarse en los tribunales. Un juicio comenzará en 2022 por daños y perjuicios contra Tesla por un accidente relacionado con el piloto automático que mató al ejecutivo de Apple Walter Huang, en 2018, en una autopista de Mountain View, California. De acuerdo con las afirmaciones hechas en la demanda, el Tesla Model X de Huang “fue diseñado, construido e introducido en la corriente del comercio sin haber sido equipado con un sistema de frenado de emergencia automático eficaz”.

Según un informe de choque de la Junta Nacional de Seguridad en el Transporte, no solo el sistema de freno automático no se activó, sino que el automóvil también aceleró hacia un estribo de concreto.

Tesla ha anunciado la conducción autónoma total como la culminación de su impulso para crear un automóvil que pueda desplazarse por sí mismo a cualquier destino sin la intervención de un humano. El presidente ejecutivo de la empresa, Elon Musk, promete hace años que los Tesla sin conductor son inminentes.

Las regulaciones sobre el despliegue de dicha tecnología en las vías públicas son irregulares en todo el país. No existe una ley federal: la legislación sobre la tecnología sin conductor fue bloqueada en el Congreso durante años, y no se espera ninguna acción pronto.

Aunque California exige que las empresas que prueban la tecnología sin conductor en las vías públicas informen al Departamento de Vehículos Motorizados del estado -incluso los accidentes menores y las fallas del sistema- Tesla no lo hace, según los registros del DMV. Empresas como Argo AI, Waymo, Cruise, Zoox, Motional y muchas otras cumplen con las regulaciones del DMV; Tesla no, según muestran los registros del departamento. The Times solicitó repetidamente durante varios meses hablar con el director del departamento, Steve Gordon, para que explique por qué se sigue teniendo paciencia con Tesla, pero en cada oportunidad se informó que el ejecutivo no estaba disponible.

En mayo, el DMV anunció una revisión de las prácticas de la mercadotecnia de Tesla en torno a la conducción autónoma total. El departamento se negó a discutir el asunto más allá de decir, como lo hizo el martes, que la revisión continúa.

Al igual que Tesla, otras empresas que desarrollan sistemas de conducción autónoma utilizan conductores humanos para supervisar las pruebas en la vía pública. Pero mientras que ellas emplean conductores capacitados, Tesla utiliza a sus clientes.

Tesla cobra a los clientes $10.000 por el acceso a renovaciones periódicas del software Full Self-Driving (FSD) Capability. La compañía afirma que califica a los conductores de pruebas beta monitoreando su conducción y aplicando una puntuación de seguridad, pero no ha aclarado cómo se desarrolló el sistema.

En YouTube hay decenas de videos que muestran el software de prueba beta de Tesla conduciendo automóviles hacia el tráfico que se aproxima u otras situaciones peligrosas. Cuando un auto de prueba beta intentó cruzar la calle hacia otro vehículo, un pasajero comentó en un video, “casi nos mata”, y el conductor expresó: “FSD trató de asesinarnos”.

Mientras aparecían esos videos, Tesla comenzó a exigir a los probadores beta que firmen acuerdos de no divulgación. Pero la NHTSA envió a la empresa una carta severa, calificando los acuerdos de “inaceptables”, y se reanudó la publicación de videos. La agencia dijo que se basa en los comentarios de los clientes para monitorear la seguridad del automóvil.

El retiro del mercado que resultó del error de frenado automático -que emplea un software enviado por aire, sin necesidad de visitar al concesionario- marca el comienzo de un cambio importante en cómo se manejan los retiros. Tesla ha tomado la delantera en la entrega de software automotriz y otros fabricantes de automóviles están tratando de ponerse al día.

Los retiros voluntarios son inusuales en Tesla. En septiembre, la NHTSA castigó a la compañía por entregar software destinado a ayudar a Tesla Autopilot a reconocer las luces de emergencia intermitentes a raíz de la investigación de accidentes de vehículos de emergencia de la agencia. La NHTSA le indicó a la compañía que las soluciones de seguridad cuentan como un retiro del mercado, ya sea que se entreguen por aire o se requiera una visita al distribuidor (el software por aire se entrega directamente a un automóvil a través de conexiones de torres de telefonía celular o wifi). A medida que otros fabricantes adopten actualizaciones de software por aire, estos retiros del mercado se volverán más comunes.

Los reguladores de seguridad federales apenas están comenzando a comprender los profundos cambios que la tecnología robótica y su software de animación provocan. La NHTSA nombró recientemente a una experta en interacción hombre-máquina de la Universidad de Duke, Missy Cummings, como asesora principal de seguridad.

“El problema es que la NHTSA se ha centrado históricamente en los sistemas mecánicos”, afirmó Junko Yoshida, editor en jefe del Ojo-Yoshida Report, una nueva publicación que “examina las consecuencias intencionales y no intencionales de la innovación”.

En un artículo titulado “Que los Tesla se estrellen no es suficiente”, remarcó: “El comportamiento de Tesla hasta la fecha es un caso claro para los cambios consiguientes en la supervisión regulatoria de la NHTSA de los sistemas avanzados de asistencia al conductor”.

Cuando se le pidió un comentario, la NHTSA señaló que la agencia “continuará sus conversaciones con Tesla para garantizar que cualquier defecto de seguridad sea reconocido y abordado de inmediato de acuerdo con la Ley Nacional de Seguridad de Tráfico y Vehículos Motorizados”.

Para leer esta nota en inglés, haga clic aquí.

Anuncio