Los incidentes ocurrieron en varios lugares de Estados Unidos, lo que llevó a la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) abrir una nueva investigación sobre el sistema de conducción autónoma de Tesla.
Un video compartido en redes sociales muestra a autos equipados en la última versión del software FSD desviándose de las líneas de carril e incluso incorporándose al tráfico en sentido contrario antes de corregir el rumbo.
En un comunicado, la NHTSA afirmó tener conocimiento de 'múltiples informes de vehículos Tesla que incurren en conductas de conducción inseguras al usar funciones de asistencia al conductor' y confirmó que había solicitado datos a la compañía para evaluar si el software representa un riesgo público más amplio.
El modo FSD de Tesla, un programa beta actualmente disponible para usuarios selectos, permite a los vehículos circular por las calles de la ciudad, responder a las señales de tráfico e intentar maniobras complejas sin intervención del conductor.
Sin embargo, los conductores deben mantener el control y permanecer alerta en todo momento.
La compañía, dirigida por Elon Musk, se ha enfrentado a un escrutinio constante sobre la marca y el rendimiento de su software de conducción autónoma.
A principios de este año, la NHTSA obligó a Tesla a emitir una llamada a revisión inalámbrica para más de dos millones de vehículos, lo que requirió actualizaciones de sus sistemas de monitoreo Autopilot tras una serie de accidentes relacionados con conductores distraídos.
Los expertos en seguridad advirtieron que el enfoque de Tesla para las pruebas en condiciones reales corre el riesgo de poner sistemas de IA no probados en la vía pública.
Jake Fisher, de Consumer Reports, declaró:
'Esto no es autonomía total; es un entorno de prueba con vidas humanas en juego'.