Tesla y la NHTSA: cómo una investigación revela los límites reales del Full Self-Driving

Share

La NHTSA —la agencia federal de seguridad vial de EE.UU.— lleva meses investigando el sistema Full Self-Driving (Supervised) de Tesla y el caso revela algo más importante que las infracciones puntuales: los límites reales de cómo una empresa de IA de movilidad debe relacionarse con la regulación.

Más de 2,8 millones de vehículos en EE.UU. usan el software que está bajo escrutinio. Las violaciones reportadas incluyen vehículos que pasaron semáforos en rojo y que invadieron carriles de sentido contrario mientras el sistema estaba activo. La investigación sigue en fase de evaluación preliminar —no se ha escalado a investigación de defecto formal— pero el proceso ya está revelando tensiones estructurales.

¿Qué le pide la NHTSA a Tesla?

La solicitud de información es exhaustiva: versiones de software activas, estadísticas de uso, reportes de incidentes, datos de accidentes, y logs de hasta 30 segundos previos a cada potencial violación. Tesla identificó más de 8.000 casos relevantes, pero justificó extensiones de plazo alegando que el procesamiento manual avanza a unos 300 casos por día.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

La agencia ya concedió dos prórrogas. La más reciente llevó el límite de entrega de datos críticos al 9 de marzo de 2026. Si Tesla no cumple, enfrenta multas de hasta $27.874 diarios, con un tope de $139,4 millones.

Una actualización reciente del software (versión 2026.2.9) cambió el nombre de “Full Self-Driving (Supervised)” a “Self Driving (Supervised)”. No alteró funcionalidades de conducción.

El problema real no es Tesla, es el modelo de datos

Lo que hace este caso emblemático para el sector no son las infracciones específicas, sino la arquitectura del problema de cumplimiento. Tesla tiene millones de vehículos generando petabytes de datos de conducción. Extraer un subset relevante para una investigación regulatoria no es un clic; requiere sistemas de trazabilidad diseñados desde el inicio con ese objetivo.

Ese es el aprendizaje estructural para cualquier startup de movilidad autónoma: la capacidad de responder a una investigación regulatoria con datos procesables no es un requisito burocrático, es una capacidad de producto. Si no puedes extraer en días qué hacía tu software 30 segundos antes de 8.000 incidentes, tienes un problema de arquitectura, no solo de compliance.

La tensión también es conceptual. Tesla denomina su sistema “supervisado”, lo que implica que el conductor siempre mantiene la responsabilidad última. Pero cuando el sistema está activo en millones de vehículos y genera miles de incidentes potenciales, la línea entre “asistente supervisado” y “agente autónomo con fallas” empieza a borrarse para los reguladores.

¿Dónde está Waymo en todo esto?

El contraste con otros actores del sector es útil. Zoox y Waymo operan con modelos completamente distintos de relación con la regulación: vehículos dedicados, geografías controladas, datos operativos más acotados. Tesla eligió el modelo opuesto: escala masiva en vehículos de consumo general, con un software que el usuario puede activar en cualquier carretera.

Ese modelo permite velocidad de adopción y cobertura de datos de entrenamiento que ningún robotaxi puede igualar. Pero también crea una superficie regulatoria órdenes de magnitud mayor. La NHTSA no está investigando un piloto; está investigando el software que corre en casi 3 millones de coches en autopistas americanas.

Por qué importa para el ecosistema

El caso Tesla con el FSD ocurre en el mismo contexto en que otros actores de IA autónoma también enfrentan escrutinio regulatorio. Las 3 muertes que pusieron a Ford BlueCruise ante el NTSB muestran que la presión regulatoria sobre sistemas de conducción asistida es sistémica, no puntual.

El mensaje para cualquier empresa que construya IA aplicada a infraestructura crítica —vehículos, salud, energía— es claro: la trazabilidad de los datos no es un bonus de la arquitectura, es el requisito mínimo para operar en mercados regulados. Si tu IA toma decisiones en el mundo físico, necesitas poder explicar qué hizo y cuándo, a velocidad que no requiera extensiones de plazo de meses.

Tesla lo está aprendiendo a escala. Es mejor aprenderlo antes de llegar ahí.


Fuentes

Leer más

Otras noticias