comscore

Tras pagar 10.000 dólares por la función Autopilot, así conduce este Tesla con síndrome de tren

El reciente incidente protagonizado por un Tesla equipado con la función de Autopilot completa (FSD, por sus siglas en inglés) ha vuelto a encender el debate sobre la seguridad de estos sistemas en situaciones complejas. En esta ocasión, un vehículo terminó circulando sobre las vías de un tren ligero en Santa Mónica, California, un error que podría haber tenido graves consecuencias. El suceso, captado en vídeo y ampliamente difundido en redes sociales, plantea dudas sobre la capacidad de los algoritmos para distinguir entornos urbanos complejos y los riesgos asociados a confiar plenamente en estas tecnologías.

El conductor del Tesla, Jesse Lyu, fundador de una empresa de inteligencia artificial, activó la función de Autopilot mientras circulaba por Colorado Avenue. Sin embargo, al girar en una intersección, el vehículo realizó una maniobra inesperada que lo llevó directamente a la línea E del metro de Los Ángeles, que corre paralela a la carretera. Según el vídeo, Lyu no intervino de inmediato, dejando al Tesla seguir su trayectoria errónea. Este detalle subraya un problema recurrente: la falsa percepción de que estos sistemas hacen al vehículo completamente autónomo, cuando Tesla advierte explícitamente que el conductor debe mantenerse alerta en todo momento.

El Autopilot no es para cualquier ambiente

El Autopilot no es para cualquier ambiente

El entorno urbano donde ocurrió el incidente no es un espacio sencillo para utilizar el Autopilot. Las vías del tren, al estar al ras del suelo, pueden confundirse fácilmente con una carretera, especialmente si los sensores y cámaras del vehículo no interpretan correctamente las líneas y señales. Pero lo que complicó aún más la situación fue la presencia de una valla a un lado y un bordillo de hormigón al otro, lo que dejó al Tesla atrapado en un espacio estrecho, con un tren acercándose rápidamente por detrás.

La escena se tornó aún más caótica cuando el Tesla quedó bloqueado por peatones y autobuses en un semáforo cercano. Incapaz de retroceder y con el tren cada vez más cerca, Lyu se vio obligado a saltarse la luz roja para evitar un posible accidente. Aunque logró salir del paso sin mayores daños, la experiencia lo dejó visiblemente afectado. “Esto es una locura, podría morir por esto”, comentó en la red social X al compartir el vídeo del incidente. Su relato pone de manifiesto la vulnerabilidad que puede sentir un conductor al confiar en sistemas como el Autopilot, que aún tienen fallos importantes.

Los fallos en la tecnología de Tesla, una constante…

Los fallos en la tecnología de Tesla, una constante...

Este tipo de errores no son aislados. En los últimos años, diversos informes han documentado incidentes similares en los que la tecnología de Tesla ha cometido errores de juicio en entornos complicados. Aunque la compañía ha realizado mejoras constantes en su software, eventos como este demuestran que aún falta mucho para alcanzar una conducción verdaderamente autónoma y segura con el Autopilot. Además, subrayan la necesidad de una supervisión activa por parte del conductor, incluso cuando se utilizan sistemas avanzados.

El caso de Lyu plantea una cuestión crucial: ¿vale la pena invertir miles de dólares en una tecnología que aún presenta riesgos significativos? Si bien la promesa de vehículos totalmente autónomos es tentadora, la realidad actual exige un enfoque más prudente y la implementación de regulaciones más estrictas para garantizar la seguridad de los usuarios y de las personas a su alrededor. Mientras tanto, confiar ciegamente en estos sistemas podría resultar, como se demostró en este caso, en situaciones de alto riesgo.