edición general
22 meneos
122 clics
Los datos ocultos del piloto automático que revelan por qué se estrellaron los Tesla - WSJ [EN]

Los datos ocultos del piloto automático que revelan por qué se estrellaron los Tesla - WSJ [EN]

Los videos y datos recopilados por el Wall Street Journal de más de 200 accidentes del Autopilot de Tesla muestran que las antiguas preocupaciones sobre la tecnología basada en cámaras de Tesla, que se diferencia del resto de la industria, están apareciendo en las carreteras y poniendo al público en riesgo. Las investigaciones en video del WSJ utilizan evidencia visual para revelar la verdad detrás de las historias más importantes del día.

| etiquetas: lidar , tesla , autopilot , accidentes , seguridad , trafico , wsj
El vídeo trata la cuestión de una forma completamente superficial y con datos anecdóticos, lo que sería ético y responsable cuando se analiza la conducción autónoma es comparar sus riesgos con los riesgos de los competidores y con los riesgos de la ausencia de ese tipo de asistencia.

El vídeo parte de la premisa idealizada de que cuando un vehículo es conducido de forma autónoma no debería poder tener accidente alguno y nadie debería morir en esas circunstancias, y aunque esa es una aspiración…   » ver todo el comentario
#6 perdona, amego, un sigarro.

Pero date cuenta, amego, q los problemas en los videos son, basicamente, de sensores. No hay IA q arregle eso.

La camara no tiene suficiente sensibilidad y no lo ve pq esque, no se ve (en el video).

La solucion seria bajarles la velocidad con poca luz para q les de tiempo a ver y reaccionar, pero no se como se vende eso de bien...

O ponerles camaras termicas (q igual es mas caro y Elon no lo va a hacer)
#8 La camara no tiene suficiente sensibilidad y no lo ve pq esque, no se ve (en el video).

Nada de este vídeo del meneo permite llegar a esa conclusión, incluso explícitamente se indica en uno de los accidentes mostrados que una de las cámaras detecta el impedimento en la carretera aunque otra de las cámaras no lo hace, pero una sí lo detecta. Que el vehículo no reaccionase a ese riesgo no es un problema con el sensor, es una decisión que toma el vehículo que desestima ese potencial riesgo.

 media
#9 se ve q al final trata de e itarlo pero se ostia.. esp es pq no la ha visto, lo cual es claro en el video...

Tendran varios sensores para evitar falsos positivos q puedan generar accidentes (imaginate si no hay nada en la carretera y cambia asi de carril....) uno diria q hay obstaculo y 2 q no... no problemo....

En fin, q yo creo q el probkema principal de las IAs es ese: sensores.

No vas a encontrar una camara tan buena como un ojo humano ni algo como la piel sintetico.

Para el resto ganan las IAs, para eso, no.
#10 esp es pq no la ha visto

En la edición he añadido la captura donde se ve claramente que sí lo ha visto con suficiente antelación, la añado de nuevo a este comentario. Tu especulación no queda avalada por el contenido del vídeo.

No vas a encontrar una camara tan buena como un ojo humano ni algo como la piel sintetico.

Sobreestimas la calidad del ojo humano, lo que crees que es calidad en el ojo humano en realidad es postprocesado a nivel de cerebro. Cualquier cámara del montón tiene mayor calidad que un ojo humano.

 media
#10 #11 Sobrestimas mucho al ojo humano, y más el de la media de personas de 40 años para arriba.
Es un tema de tecnología de sensores y de toma de decisiones. Hay tecnologías superiores a nivel de sensores a los que usa Tesla, pero debe de existir un compromiso entre coste y fiabilidad, coches de más de 50.000 € son para muy pocos.
#12 No sobreestimo el ojo humano de mas de 40 años: ahi llega la presbicia, q es ver mal de cerca, y aqui el problema es la vision nocturna y la identificacion de obstaculos a larga distancia (de cerca la camara los ve perfectamente).

Es q las carreteras de los videos estan iluminadas... eso un ojo humano sano, aunq tenga 40 años, lo ve facil.

Esto es, como dices y digo, un problema de sensores, no de IA. Q los habra mejores? No lo dudo pero no creo q lleguen a nivel de ojo en nitidez, facilidad para identificar objetos, cambio luz/no liuz y viceversa...

Mejor les vendria algo termico, q da mas informacion de noche y mas clara, IMHO. Pero es mas caro, claeo.
#6 Correcto, pero es que el tema no es la seguridad de la conducción autónoma frente a la normal, o la diferencia entre los diferentes sistemas o marcas.

El tema es que Tesla es de Elon Musk, y Musk se metió en política apoyando a Trump, y el WSJ apoya a la oposición a Trump. Es un tema de política, no de tecnología ni de seguridad.
Me he visto el vídeo enterito para ver si respondían la GRAN pregunta. No lo han hecho.
¿Es más seguro el piloto automático que la persona promedio? Es difícil opinar sin conocer esta estadísticas. Nadie debería esperar que no hubiera accidentes, al menos todavía.
He encontrado algo, pero es comparando marcas de coches.

www.motorpasion.com/tesla/tesla-presume-autopilot-sus-conductores-tien  media
#7 yo ni entro, WSJ opinando de algo de Musk? Están todo el día peleándose el Twitter.. solo quieren putearse
#7 Es juzgable el piloto automático cuando por su culpa hay un accidente? A quién juzgamos, a los ingenieros? A los accionistas?
#23 Al dueño del coche, no son pilotos automáticos, son ayudas a la conducción.
#7 Y esa estadística no sirve para nada.

La incidencia de accidentes depende mucho del tipo de coche. No es lo mismo un coche rápido de lujo que un coche familiar o un utilitario que gasta poco y potencia justa. La comparativa debería ser por categoría de vehículos en cada marca. Hacer una suma general por marca lo que viene a decir más que nada es cuantos coches de cada tipo vende cada marca. Por ejemplo, Honda está abajo de la lista porque se ha especiliazado en utilitarios pequeños que consumen poco, el típico coche barato de ciudad, mientras que Tesla se ha especializado en coches eléctricos rápidos y de semi-lujo, que tienen bastante más siniestralidad.
No importa. Se ha comprado un presidente de una república bananera y va a regular lo que el diga.
La potencia de un sistema autónomo reside en que puede ver más que un humano, limitar el sistema a usar simplemente la visión es un error.
#1 No se basa en "ver más", se basa en estar pendiente continuamente, en ser capaz de anticiparse a lo que vaya a ocurrir, en reaccionar con mayor inmediatez, en reaccionar con mayor precisión, etc.
#3 Se basa en lo que tú diseñes el sistema. Mira cómo son los coches de waymo por ejemplo. Poner unas cámaras con el mismo campo de visión que un humano y limitar el input a eso es absurdo.
#14 No tiene nada de absurdo usar tecnología IA para imitar lo que hacen los humanos con sensores equiparables a los de los humanos.
#15 Yo hablo desde la perspectiva de haber trabajado en varios proyectos en los que la solución era precisamente ir más allá de lo que es capaz de captar el ojo humano. Siempre hay que utilizar el conjunto de datos más grande que puedas conseguir y después eliminar lo que no haga falta. Si me dijeses que la conducción de Tesla es completamente autónoma pues tendría sentido, en un sistema en desarrollo no lo tiene y con esto no quiero decir que no se pueda conseguir, pero a priori yo usaría un…   » ver todo el comentario
#16 Si entrenas una IA usando como sensores cámara normal, cámara térmica, radar y LiDAR cuando la tengas entrenada para que siga dando buenos resultados necesitarás tener todo lo anterior, si le quitas sensores necesitarás entrenarla de nuevo.

La premisa que una cámara normal ofrece suficiente información para conducir como un humano es válida en tanto el ser humano no necesita más que su visión para conducir. Partir de esa premisa para entrenar la IA es una propuesta racional y razonable, muy lejos del calificativo de absurdo que usaste.
#17 Y si necesitas añadir entradas también tienes que entrenar de nuevo.

Lo que no tiene sentido es crear un conjunto de datos limitado, eso es lo que después no tiene solución. Si la competencia consigue un sistema autónomo 100% y descubres que necesitas otro tipo de datos, el conjunto de entrenamiento que tienes no te vale, años y años de imágenes que no te van a servir.
#18 Y si necesitas añadir entradas también tienes que entrenar de nuevo.

Partir de la premisa que con imágenes basta es partir de una premisa demostrada durante siglos por parte de los humanos. La apuesta por entrenar una IA en esas condiciones es una apuesta a no tener que añadir nada más por que ya sabes que con eso basta.

Si la competencia consigue un sistema autónomo 100% y descubres que necesitas otro tipo de datos

Es que no descubres nada, simplemente la apuesta que has hecho basada en una premisa sólida ha obtenido resultados peores que otras apuestas basadas en premisas distintas.

En ese escenario le licencias o le compras la tecnología a quien lo ha conseguido o sales del mercado.
#15 más sensores = más entradas = más procesamiento = más hardware de mayor capacidad de procesamiento = más costoso = más seguro = menos bono para el CEO.... Y eso es inaceptable. Se diseña teniendo en mente aumentar el bono del CEO así sea sacrificando seguridad vial.
#20 Ibas bien hasta que te inventaste lo de "más seguro", la hipótesis que más complejidad, más potenciales conflictos de sensores equivale a mayor seguridad está por demostrar.
Porque según mElon el LIDAR no es necesario. :roll:
#4 Que casualidad que lo montan prácticamente todas las marcas menos Tesla.

Hace unos días veía precisamente este vídeo de un Toyota C-HR, que efectivamente, lleva cámaras y lidars (nótese que uso el plural en ambos casos)

youtu.be/5rVBLDR9vHE?t=900

Como podéis ver casi nada que envidiar a un Tesla, pero es que encima si el lidar detecta algo delante o a punto de cruzarse te frena en seco sin importar si las dos cámaras del coche lo han visto o no.

Es cierto que no lo puedes poner en modo 100% autónomo, pero cuando lo haces en un Tesla lo mismo te matas, así que... :roll:
A Elon Musk le importa esto una puta mierda

menéame