📂 Categoría: Tech,uber,tesla,model-x,self-driving | 📅 Fecha: 1773838606
🔍 En este artículo:
El ex director del programa de conducción autónoma de Uber dice que un accidente de Tesla le enseñó una lección sobre el «exceso de confianza» en la IA.
en un pruebas publicado el martes en The Atlantic, Raffi Krikorian escribió que su modelo Tesla
«Algo salió mal: el volante tembló en un sentido, luego en el otro, y el auto desaceleró de una manera que no esperaba. Giré el volante para tomar el control», escribió Krikorian, quien ahora es el CTO de Mozilla.
«No sé exactamente qué estaba haciendo el sistema, ni por qué. Sólo sé que en algún momento, durante esos segundos, terminamos chocando contra una pared», añadió.
Krikorian dijo que sufrió una conmoción cerebral, pero que por lo demás nadie resultó herido en el accidente, que tuvo lugar mientras se preparaba para dejar a su hijo en una reunión de Boy Scouts en San Francisco. Tesla no respondió a una solicitud de comentarios.
Pero el ejecutivo de tecnología, que dirigió la división de conducción autónoma de Uber de 2015 a 2017 y supervisó las pruebas de una flota de vehículos autónomos, dijo que el incidente le enseñó una lección preocupante sobre la tecnología de conducción basada en IA: es fácil apagarse cuando los sistemas están tan cerca de la perfección.
«Me pidieron que pasara de pasajero a piloto en una fracción de segundo, para evitar meses de acondicionamiento en el tiempo que lleva parpadear», escribió cdse.
Los sistemas modernos de asistencia al conductor, como el Full Self-Driving (FSD) de Tesla, pueden manejar casi cualquier situación de conducción.
Sin embargo, estos sistemas de IA no son infalibles. Tesla y otros fabricantes exigen que los conductores supervisen el vehículo y estén preparados para tomar el control en cualquier momento si algo sale mal.
«Una máquina que funciona perfectamente no necesita supervisión. ¿Pero una máquina que funciona casi perfectamente? Ahí reside el peligro», escribió Krikorian.
FSD tiene un historial de incidentes
Los incidentes de errores cometidos por la FSD están bien documentados. Tesla se enfrenta a investigaciones regulatorias tras informes de que vehículos equipados con el software conducían por el lado equivocado de la carretera, se saltaban semáforos en rojo e intentaban cruzar. cruce ferroviario.
La compañía ha enfrentado varias demandas por accidentes fatales que involucraron a FSD y su predecesor Autopilot, y el año pasado se le ordenó pagar poco más de 242 millones de dólares en daños por un accidente de 2019 que se cobró la vida de una mujer de 22 años.
El fabricante de automóviles de Elon Musk también ha sido objeto de escrutinio por su comercialización de FSD y Autopilot, y un juez de California dictaminó en diciembre pasado que la publicidad de Tesla sugería falsamente que los automóviles equipados con esta tecnología podían conducirse solos.
Tesla no es el único fabricante que se ha metido en problemas con su sistema de asistencia al conductor.
Ford enfrenta una investigación regulatoria sobre dos accidentes fatales en 2024 que involucraron al fabricante de automóviles de Detroit. Tecnología BlueCruiseJunto con documentos publicados por la Junta Nacional de Seguridad en el Transporte (NTSB) a principios de este mes, sugieren que ambos conductores estaban distraídos antes de los accidentes.
Uber enfrentó los desafíos planteados por la tecnología de conducción asistida en 2018. Un año después de que Krikorian dejara la empresa, un vehículo de prueba de Uber que conducía de forma autónoma con un operador de seguridad atropelló y mató a un peatón en Arizona.
A investigación de la NTSB descubrió que el guardia de seguridad no monitoreó los alrededores y se distrajo con su teléfono celular, y criticó la «cultura de seguridad inadecuada» de Uber. Uber abandonó su intento de fabricar vehículos autónomos internamente en 2020.
El ex director del programa de conducción autónoma de Uber dice que un accidente de Tesla le enseñó una lección sobre el «exceso de confianza» en la IA.
en un pruebas publicado el martes en The Atlantic, Raffi Krikorian escribió que su modelo Tesla
«Algo salió mal: el volante tembló en un sentido, luego en el otro, y el auto desaceleró de una manera que no esperaba. Giré el volante para tomar el control», escribió Krikorian, quien ahora es el CTO de Mozilla.
«No sé exactamente qué estaba haciendo el sistema, ni por qué. Sólo sé que en algún momento, durante esos segundos, terminamos chocando contra una pared», añadió.
Krikorian dijo que sufrió una conmoción cerebral, pero que por lo demás nadie resultó herido en el accidente, que tuvo lugar mientras se preparaba para dejar a su hijo en una reunión de Boy Scouts en San Francisco. Tesla no respondió a una solicitud de comentarios.
Pero el ejecutivo de tecnología, que dirigió la división de conducción autónoma de Uber de 2015 a 2017 y supervisó las pruebas de una flota de vehículos autónomos, dijo que el incidente le enseñó una lección preocupante sobre la tecnología de conducción basada en IA: es fácil apagarse cuando los sistemas están tan cerca de la perfección.
«Me pidieron que pasara de pasajero a piloto en una fracción de segundo, para evitar meses de acondicionamiento en el tiempo que lleva parpadear», escribió cdse.
Los sistemas modernos de asistencia al conductor, como el Full Self-Driving (FSD) de Tesla, pueden manejar casi cualquier situación de conducción.
Sin embargo, estos sistemas de IA no son infalibles. Tesla y otros fabricantes exigen que los conductores supervisen el vehículo y estén preparados para tomar el control en cualquier momento si algo sale mal.
«Una máquina que funciona perfectamente no necesita supervisión. ¿Pero una máquina que funciona casi perfectamente? Ahí reside el peligro», escribió Krikorian.
FSD tiene un historial de incidentes
Los incidentes de errores cometidos por la FSD están bien documentados. Tesla se enfrenta a investigaciones regulatorias tras informes de que vehículos equipados con el software conducían por el lado equivocado de la carretera, se saltaban semáforos en rojo e intentaban cruzar. cruce ferroviario.
La compañía ha enfrentado varias demandas por accidentes fatales que involucraron a FSD y su predecesor Autopilot, y el año pasado se le ordenó pagar poco más de 242 millones de dólares en daños por un accidente de 2019 que se cobró la vida de una mujer de 22 años.
El fabricante de automóviles de Elon Musk también ha sido objeto de escrutinio por su comercialización de FSD y Autopilot, y un juez de California dictaminó en diciembre pasado que la publicidad de Tesla sugería falsamente que los automóviles equipados con esta tecnología podían conducirse solos.
Tesla no es el único fabricante que se ha metido en problemas con su sistema de asistencia al conductor.
Ford enfrenta una investigación regulatoria sobre dos accidentes fatales en 2024 que involucraron al fabricante de automóviles de Detroit. Tecnología BlueCruiseJunto con documentos publicados por la Junta Nacional de Seguridad en el Transporte (NTSB) a principios de este mes, sugieren que ambos conductores estaban distraídos antes de los accidentes.
Uber enfrentó los desafíos planteados por la tecnología de conducción asistida en 2018. Un año después de que Krikorian dejara la empresa, un vehículo de prueba de Uber que conducía de forma autónoma con un operador de seguridad atropelló y mató a un peatón en Arizona.
A investigación de la NTSB descubrió que el guardia de seguridad no monitoreó los alrededores y se distrajo con su teléfono celular, y criticó la «cultura de seguridad inadecuada» de Uber. Uber abandonó su intento de fabricar vehículos autónomos internamente en 2020.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre Tech,uber,tesla,model-x,self-driving
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Tom Carter |
| 📅 Fecha Original: | 2026-03-18 12:41:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



