Sobre la conducción autónoma y los accidentes

El coche autónomo, una revolución imparable pese a los accidentes - Cinco DíasNoemí Navas, de Cinco Días, me llamó ayer para hablar de las posibles consecuencias del atropello mortal de una persona por un vehículo autónomo de Uber en Tempe, Arizona, sobre el desarrollo de la tecnología de conducción autónoma en el futuro, y hoy menciona algunas de mis declaraciones en «El coche autónomo, una revolución imparable pese a los accidentes» (pdf).

Por supuesto, todo accidente mortal es profundamente lamentable, y debe llevarnos a la reflexión. Pero la reflexión, por duro que parezca, debe ponerse por encima de las pérdidas individuales, y buscar el bien común: debe hacerse de manera constructiva. Desgraciadamente, nada va a revivir a Elaine Herzberg, pero debemos comprender que la vía para evitar la mayor cantidad de accidentes en el futuro no es ralentizar el desarrollo de la conducción autónoma, sino precisamente lo contrario: tratar de convertirlo lo antes posible en una realidad. Nos pongamos como nos pongamos, una persona va a ser siempre peor conductor que un conjunto de sensores y unos algoritmos que aprenden no solo de su experiencia (que es algo que muchas personas ya de por sí ni siquiera consiguen hacer), sino de la de toda la red de vehículos autónomos en las carreteras de todo el mundo.

Una máquina de dos toneladas circulando a una cierta velocidad requiere, por una simple cuestión de física, un determinado espacio para detenerse. El atropello de Elaine Herzberg, según el atestado de la policía, habría sido imposible de evitar estuviese el vehículo conducido de manera autónoma o por un conductor humano. La tecnología de conducción autónoma no está en una fase demasiado temprana, los que la han puesto en las calles de nuestras ciudades no se han vuelto locos ni son unos irresponsables. Simplemente, es una tecnología sujeta a un proceso de aprendizaje, a un desarrollo que va mejorando cada día, con cada kilómetro recorrido, con cada obstáculo detectado o con cada circunstancia de la vía. En realidad, puede ser mucho más peligroso poner todos los días en la calle a un número determinado de conductores a los que acabamos de entregar el carnet de conducir que cruzarse con un vehículo autónomo que, a lo largo del tiempo, ha acumulado ya una experiencia de varios millones de millas (cuatro millones en el caso de Waymo y dos en el de Uber), y si embargo, seguimos haciéndolo todos los días, aunque el futuro, claramente, ya no es que esas personas se pongan al mando de vehículos.

La tecnología de conducción autónoma no va a detenerse simplemente porque existe una clara conciencia social de que el mejor escenario de cara a la seguridad vial no es el actual, sino el de vehículos que se conducen solos y nos liberan para hacer otras cosas durante el transporte. Las aproximaciones a la resolución del problema pueden ser diferentes, Waymo puede haber comenzado directamente desde el nivel de autonomía 5 mientras la mayoría de los fabricantes de vehículos van progresando penosamente desde el 3, pero la realidad es la que es: ningún humano es capaz de ver en 360º, de tener sistemas de percepción múltiples y redundantes, de estar al margen de la distracción, del cansancio o de los efectos del alcohol, o de tener unos reflejos casi perfectos. La conducción autónoma está aquí para quedarse: habrá, desgraciadamente, algunos accidentes más, pero aquellos que pretendan ralentizarla, estarán haciendo mucho más mal que bien, y provocando más muertes de las que supuestamente pretendían salvar.

 

88 comentarios

  • #001
    JJ - 21 marzo 2018 - 14:31

    «… los que la han puesto en las calles de nuestras ciudades no se han vuelto locos ni son unos irresponsables»

    Creo que aunque se comprobara fehacientemente que Elaine Herzberg murió por su propia culpa, Uber tendrá que demostrar que no actuó con su coche autónomo de manera irresponsable o temeraria.

    Me refiero a que su coche superaba la velocidad permitida en la zona. Y a que también debe explicar porqué se habla de la oscuridad como una de las causas del accidente cuando se supone que los sensores no tienen problemas con la falta de luz, como los conductores humanos.

  • #002
    Carlos Quintero - 21 marzo 2018 - 15:25

    Me sigue pareciendo desafortunado que se extraigan conclusiones sobre un accidente cuya investigación no ha finalizado. Este no va a ser un accidente de coche normal, de esos que la policía local de Tempe, tras ver un vídeo, despacha (como han hecho siempre con los coches normales) con un «la culpa fue de la peatón, que cruzó por un lugar indebido, estaba oscuro, el conductor no la vio, el impacto fue inevitable y la muerte también».

    No, este accidente está siendo investigado (por la NTSB) como un accidente «inusual» de esos de aviación, de tren, de barco o de autopista con elevado número de víctimas: se van a investigar a fondo todos los factores involucrados: el coche, la peatón, su bici, la conductora de seguridad, el estado de la carretera, la señalización, la iluminación de la vía, etc. para ver qué multiples cosas se pueden mejorar para evitar el impacto, y en caso de que fuera inevitable, para reducir el daño (en especial evitar la muerte). No se trata de buscar un «culpable», de hecho:

    «The NTSB does not assign fault or blame for an accident or incident; rather, as specified by NTSB regulation, “accident/incident investigations are fact-finding proceedings with no formal issues and no adverse parties … and are not conducted for the purpose of determining the rights or liabilities of any person.”

    Para hacerse una idea de este tipo de informes, se averiguará hasta qué desayunaron, comieron y cenaron las dos personas involucradas, si discutieron en casa con sus parejas, las horas que durmieron, etc. etc. para saber si estaban al 100% física y mentalmente.

    De todo eso saldrá un conjunto de 1) obligaciones y 2) recomendaciones, puede que hasta para los fabricantes de bicis.

    The investigative process (NTSB)

    Accident reports (NTSB)

    • Krigan - 21 marzo 2018 - 21:44

      Con lo cual este accidente habrá servido para algo bueno: para mejorar. Así se construye el progreso.

      Pero claro, la primera pregunta que me surge es ¿por qué la NTSB no investiga todos los accidentes de coche? Y la respuesta es que entonces habría que prohibir los humanos al volante, o por lo menos prohibir a todo humano que no sea un profesional debidamente preparado, con copiloto igualmente profesional, ambos bien descansados, por supuesto sin probar el alcohol, y con conductores y peatones siguiendo siempre las directrices de unos controladores de tráfico.

      Seamos sinceros. Las máquinas lo tienen chupado para llegar a ser mucho mejores que nosotros conduciendo. Ves el panorama de los humanos y da pena. Los unos con prisas, los otros con sus hijos peleándose en el asiento de atrás, el de más allá es un fan de «Need for speed», y el de más acá es un viejecito que se dejó las gafas en casa. Menos mal que ve bien para su edad.

      ¿Y cómo se obtiene el carnet de conducir? Basta conque no la cagues en un recorrido de un cuarto de hora con el examinador. Da lo mismo si la cagaste las 5 veces anteriores que te examinaste. Después de eso, ya puedes pasarte toda una vida conduciendo, sin ningún reciclaje, tan solo con alguna revisión médica ocasional.

      • Gorki - 21 marzo 2018 - 22:20

        Si las maquinas son mejores que los hombres conduciendo y existiendo el piloto automático desde antaño. ¿Por qué – es aun obligatorio en los aviones dos pilotos?.
        .

        • Krigan - 21 marzo 2018 - 22:30

          Porque alguien tiene que provocar los accidentes aéreos. Esa es su principal función.

          • Gorki - 21 marzo 2018 - 23:40

            Seguro que esa es su función. Tienes razón

          • Pollo - 22 marzo 2018 - 12:18

            Un poco frívolo ¿no te parece?

          • Krigan - 22 marzo 2018 - 14:00

            Pollo:

            No, para nada. La principal causa de los accidentes aéreos es el error humano. No siempre son los pilotos, a veces son los mecánicos o los controladores, pero a menudo sí son los pilotos.

          • Pollo - 22 marzo 2018 - 14:59

            ¿No te parece frívolo decir que la principal misión de los pilotos es provocar accidentes?
            Díselo a Sully… y como él, muchos otros

        • HastaDNDvamosAllegar - 22 marzo 2018 - 17:53

          Para que los clientes se quieran subir en ellos.

          Si hubieran aviones autónomos de sólo mercancías casi nunca tendrían accidentes…
          Pero no es rentable por el combustible ni ecológico, en cambio, los vehículos autónomos terrestres y acuáticos de mercancías tendrán que lidiar con unos, más que probables, frecuentes robos de mercancías (Si pones a un vigilante no ganas nada, que conduzca)

      • Carlos Quintero - 21 marzo 2018 - 23:47

        Este es el informe más reciente (8 de marzo 2018) de la NTSB sobre un accidente en autopista que tuvo lugar en 2016, entre un camión que impactó por detrás a un SUV, con 6 víctimas, 5 heridos y un ileso (el del camión):

        Report HAB1801

        – Causa probable: fallo del conductor del camión, posiblemente por fatiga (según datos recopilados), al no apreciar la velocidad anormalmente reducida del SUV que circulaba delante.
        – Factor contribuyente: el conductor del SUV no iba señalizando con los 4 intermitentes que circulaba a velocidad reducida (por un fallo mecánico, a pesar de lo cual decidió proseguir el viaje)
        – Factor contribuyente: el SUV llevaba 11 pasajeros cuando su capacidad era de 8.
        – Factor contribuyente: Tres de ellos, obviamente, no podían llevar cinturón de seguridad.
        – Factor contribuyente: el camión carecía de sistema de detección de colisiones.

        Recomendaciones:

        1) Implantar sistemas de detección de colisiones
        2) Insistir en no conducir fatigado

        Esa es la triste realidad de la conducción / condición humana. Múltiples fallos en cadena.

        Dada la inutilidad de la segunda recomendación, se insistirá en la recomendación tecnológica.

        Es fácil ver que, en pocos años, la recomendación será eliminar al conductor de la ecuación.

  • #012
    Gorki - 21 marzo 2018 - 16:06

    Vuelvo a preguntarme lo que me pregunté hace dos días:

    ¿Cuanto retrasará la incorporación generalizada del coche autónomo a las calles y carreteras?

    ¿Es posible un coche en nivel 4? O lo que es lo mismo, un conductor de “guardia”, reacciona a la suficiente velocidad cuando falla la conducción automática?

    A la primera pregunta mi respuesta es;

    Supongo que no mucho,, entre uno y tres años, pues evidentemente, de los accidentes graves, salen freno en la experimentación, nuevas normas/recomendaciones que habrá que implementar y probar en los equipos y retrasos en la aprobación de las leyes que permitan de forma generalizada y no experimental la circulación, pero de ninguna fora prohibición ocancelacion de pruebas, pues hay mucho en juego

    En cuanto a la segunda, creo que los vehiculos en nivel 4 son inviables, el conductor de guardia poco o nada hace cuando un incidente ocurre de imporviso, por tanto esta¡e recurso extremo no es viable, Por tanto l que ha que hacer es saltar del nivel 3 facilidades para el conductor habitual, , Control de velocidad permitida, aparcamiento automático, o frenado automáatico ante un inminente choque, etc… ), al nivel 5 eliminación del conductor. (el coche sin volante ni pedales y tan solo un freno de emergencia..

    • Krigan - 21 marzo 2018 - 22:27

      Respecto a tu primera pregunta, yo creo que el retraso va a ser de cero días. Recordemos que la empresa que está a punto de sacar la conducción autónoma al mercado, y cuyos coches llevan ya meses circulando sin conductor de seguridad, es Google, no Uber. Un retraso en Uber no afecta al desarrollo de la conducción autónoma en general.

      Dices que este es uno de esos accidentes tan graves que lo retrasan todo, pero es lo que es: una peatona imprudente invadió la calzada y murió. Al margen de lo que puedan ser las responsabilidades de Uber (¿hubo tiempo para frenar? la policía dice que no), no hay motivo para que esto afecte a Google. Si tu vecino borracho atropella a alguien, ¿hay que prohibirte a ti que cojas el coche?

      • Gorki - 21 marzo 2018 - 23:56

        La policía dice que no había luz, Yo me pregunto ¿Los sensores no ven en la obscuridad? Por otra parte se g habla de establecer algún tipo de diálogo entre vehiculos autónomos y peatones- Creo recordar que incluso alguien había hecho una patente sobre el tema.

        Digo yo, que lo lógico es que con motivo de este accidente se les haga algunas normas/recomendaciones que tendrán que implementar TODOS, los coches autónomos, (no solo los de UBER)., con sus consiguientes desarrollos ingenieriles y sus pruebas.de labor5tatorio y calle

        Según parece,hHace solo unos días, Waymo, Uber y otras empresas habían instado al Congreso de Estados Unidos a aprobar una legislación que allane el camino para los vehículos autónomos. Pero este accidente tiene muchas probabilidades de dificultar (si no impedir) su petición. Eso retrasara necesariamente el momento de inicio de la puesta en marcha de los robotaxis.

        • Carlos Quintero - 22 marzo 2018 - 00:34

          Si los sensores de obscuridad lo vieron o no, si los faros del coche (que también los lleva) iluminaron a la peatón o no, si el coche frenó o no, si iba a más velocidad de la permitida o no, etc. lo dirá la investigación. Aquí se concluye que como no había iluminación y el coche lleva sensores que no necesitan iluminación, es un fallo del coche… las investigaciones se basan en datos, datos, datos. Las especulaciones son para cuando no hay datos pero estos coches aportan muchos datos.

          Respecto a las normas obligatorias que puedan surgir, ralentizará a los fabricantes que no las tengan implantadas. Los que ya las tengan «solo» tendrían que certificarse, si es que no vale la certificación que tengan. Pero es pronto para saberlo.

          Sí, cada accidente de un coche autónomo va a ralentizar algo su adopción por la marca afectada, por el tiempo que lleva la investigación (pueden ser semanas o meses), y a todas las marcas dependiendo de la implementación de las mejoras que procedan si no las tienen implementadas.

          Lo que sería lamentable es una opinión pública /clase política desinformada. Los editoriales y artículos que he leído hoy en la prensa «seria» me han parecido lamentables.

        • Krigan - 22 marzo 2018 - 08:32

          Veamos. La policía hizo unas primeras declaraciones en las cuales se expuso lo conocido en aquel momento, y que hasta donde yo sé son totalmente correctas: que la peatona intentó cruzar la calle por donde no hay paso de peatones, y cuando estaba pasando un coche (el de Uber).

          Posteriormente, la jefa de policía de Tempe hizo otras declaraciones, basándose en lo que había visto en el vídeo de una de las cámaras frontales del coche autónomo, y es en esas declaraciones en las que se menciona la tan cacareada oscuridad. Para la jefa, no acostumbrada a accidentes con coches autónomos, la cosa consiste en ver si la conductora de seguridad es responsable (concluye que no) y además hace la valoración de que Uber tampoco es responsable porque un humano no habría podido frenar a tiempo.

          Es esta última valoración la que NO comparto. Habrá quien diga que esto es una conspiración judeo-masónica. Para mí es simplemente que la jefa no está muy versada en estos temas del coche autónomo, tal vez antes de este accidente ni supiera qué es un lídar. Afortunadamente, la NTSB ha iniciado la investigación de este accidente.

          Ahora bien, al margen de las responsabilidades de Uber, y de que la jefa se haya precipitado al exculparla, sigue siendo cierto que una jefa de policía, tras haber visto el vídeo, concluye que un conductor humano no habría podido evitar el choque. Vamos, que si hubiera sido un coche cualquiera (no autónomo) la peatona hubiera muerto igualmente.

          Por tanto, veo difícil que este accidente le suponga algún retraso a Google o a cualquier otro que no sea Uber. Otra cosa es que la investigación de la NTSB contribuya a mejorar el coche autónomo, espero que así sea. Pero sería un poco tonto que la implantación del coche autónomo se retrasase por un accidente que un conductor humano no habría podido evitar.

  • #017
    Pepe Pérez - 21 marzo 2018 - 18:38

    Debería haber total transparencia en la investigación que hasta ahora no veo.

    Por otra parte Uber no me gusta. Me parecen unos macarras y tramposos. Tengo entendido que han dejado de publicar su estadística de incidencias. Si es así por algo será.

  • #018
    José Luis de juan - 21 marzo 2018 - 18:52

    Todo parece mal cuando se duda de lo efectivo de la tecnología, y se tiende a culpar directamente lo.humano por imperfecto, pues sepan que la presunción de.inocencia es de los humanos, o, ¿Por casualidad la tecnología, actual no materializan los humanos?…

  • #019
    Xaquín - 21 marzo 2018 - 18:56

    Al ser humano le gusta tropezar en la misma piedra. Algunos lo tienen como deporte (y muy profesional).

    En estes casos me gusta repetir que un empresario de UBER no se diferencia mucho (en su ADN empresarial) de un empresario de ExxonMobil.

  • #020
    Luis Garcia - 21 marzo 2018 - 21:45

    Esperando algo de lo sucedido a Facebook y la ausencia de respuesta de su fundador…..

  • #021
    Juan Navidad - 22 marzo 2018 - 00:19

    Lo que me preocupa es que no se hagan las cosas bien y se repitan errores de desarrollos anteriores. Y no me refiero solo a desarrollos o proyectos tecnológicos sino farmaceúticos.

    Hace ya veinte años, cuando salió la Viagra hubo muchas muertes. Se trató de enmascarar todas ellas para que pareciera que habían sido por un uso inadecuado o por un abuso de la pastilla. Ni una sola de ellas fue por problemas del fármaco.

    En este caso, estamos ante un accidente singular. Un vehículo que tiene todos los sensores del mundo no puede detectar a una señora que va caminando se supone que despacio porque lleva una bicicleta a su lado.

    Si dejamos que este tipo de accidentes se asuman como males necesarios no quiero ni imaginarme la cantidad de pasajeros de los vehículos autónomos van a sufrir percances si no se corrigen y se toman las medidas adecuadas. En los años del Viagra, prefirieron mirar para otro lado o echarle la culpa a las víctimas.

    Creo que jugar con nuestra salud o con nuestra seguridad no es cosa de niños por mucho dinero que haya encima de la mesa.

    • Krigan - 22 marzo 2018 - 07:22

      Escribiste: «Un vehículo que tiene todos los sensores del mundo no puede detectar a una señora que va caminando se supone que despacio porque lleva una bicicleta a su lado.»

      La cantidad de suposiciones que haces en esta única frase es tremenda:

      – El coche llevaba lídar e iba en modo autónomo (usando los datos de todos los sensores, incluido el lídar de 360 grados). Por tanto tu suposición de que la peatona no fue detectada es a priori harto improbable.

      – Estás suponiendo implícitamente que el coche no frenó tan pronto la peatona invadió la calzada.

      – Estás suponiendo que la peatona iba caminando, y además despacio. En los 2 casos que yo, como pasajero de un coche, he visto cómo este casi atropella a unos peatones, estos iban corriendo (un niño en el primer caso, 2 borrachas de mierda en el segundo). En el segundo caso el atropello no fue evitado mediante frenazo, sino por un rápido cambio de carril. Pero claro, para eso necesitas que haya otro carril, y que además esté desocupado.

      Afortunadamente, los coches autónomos van trufados de sensores, y por tanto se va a poder determinar hasta el último detalle de lo que pasó, cosa que con los coches tradicionales no es posible.

      Aquí nadie asume como males necesarios los accidentes en los que hay un coche autónomo, incluso si fue causado por un humano imprudente. Lo que decimos, por el contrario, es que los coches autónomos van a reducir grandemente el número de accidentes, así como el número de muertos en caso de que llegue a producirse el choque.

      No estamos hablando de que el coche autónomo llegue a ser tan bueno como un conductor humano, estamos hablando de que su continua mejora hará que llegue a ser mejor que el mejor de los humanos.

      • JaviA - 22 marzo 2018 - 07:41

        Ya.. cuando un coche autónomo gane un par de grandes premios de Formula 1 vienes y dices esto… o haga un recorrido sin accidentes por las carreteras de por ejemplo «cuba o tanzania o cualquier país del tercer mundo donde todo no es perfecto y ni siquiera están pintados los carriles» entonces hablamos….

        • Krigan - 22 marzo 2018 - 09:36

          ¿Ganar en la Fórmula 1? Dios mío, miedo me das. ¿Ese es el concepto que tienes de ser un buen conductor?

          No estamos en Tanzania. Cuando Google y las demás quieran sacar el coche autónomo en Tanzania (que para eso todavía faltan unos añitos), ya resolverán cualquier problema específico de allí.

          • JaviA - 22 marzo 2018 - 11:41

            Lo que quiero decir, es que los humanos seguimos siendo muy superiores a las máquinas todavía en conducción, «unos pocos humanos son capaces de conducir en la formula 1» y muchos de ellos en lugares como Tanzania o Cuba. Ningún vehículo autónomo es capaz de hacer ninguna de estas dos cosas.

          • Krigan - 22 marzo 2018 - 13:12

            Javia:

            En efecto, los seres humanos somos generalistas. Lo cual quiere decir que una máquina especializada nos puede ganar en lo suyo por goleada. Un telar mecánico no puede hilar, pero a la hora de tejer te gana por goleada.

            Lo que tú llamas «conducción» (Fórmula 1 e ir por la calle con un coche) son en realidad tareas muy distintas.

      • JJ - 22 marzo 2018 - 11:51

        Para el coche autónomo con Lídar no existe la noche, le es igual, y en cualquier condición de iluminación «ve» lo mismo.

        Entonces, tuvo que detectar perfectamente y con tiempo que había una transeúnte con una bicicleta en su trayectoria o en movimiento con posibilidad de colisión.

        Parece evidente que el Volvo de Uber asumió que no había riesgo, que la persona no intentaría cruzar porque no había paso de cebra ni era zona para ello.

        Podría ser entonces una chapuza de programación. El coche autónomo debe contemplar estos casos e intentar evitar por todos los medios el accidente, que fue mortal.

        Puede ser un niño que sale corriendo detrás de una pelota o cualquier otra cosa. Pero reitero que el coche autónomo «ve» al transeúnte con suficiente tiempo para impedir el accidente, incluso deteniéndose si es necesario.

        • Krigan - 22 marzo 2018 - 13:02

          Lo del lídar es algo que yo mismo llevo mencionando desde hace 2 días. De hecho, lo mencioné también en el mensaje al cual estás contestando.

          Ahora bien, tu conclusión de que el lídar detectó a la peatona con tiempo para frenar me parece harto precipitada, sobre todo porque no vemos lo que pasó antes de que invadiera ese carril.

          La peatona cruza de izquierda a derecha. No entra en el carril del Uber desde el arcén, sino desde el otro carril. Pero cuando se la empieza a ver en el vídeo, ya está en el carril del Uber. ¿Qué pasó antes? ¿Llegó a detenerse la peatona en el otro carril antes de iniciar el cruce del carril del Uber? No lo sabemos.

          Un detalle más. La prenda superior de la peatona es negra. Si el lídar usa luz visible, los pulsos de luz del lídar también serían absorbidos por esa prenda. Y una bicicleta, con sus tubos y radios delgados, también puede ser difícil de «ver» para un lídar.

          Mi consejo es que esperes a los resultados de la investigación antes de considerar a Uber culpable de nada. Y desde luego, con ese vídeo, creo que está claro que la principal responsable (tal vez la única) fue la peatona.

          Pero bueno, todo depende de si nos interesa aprender de un desgraciado accidente para mejorar la tecnología, o lo que queremos es arremeter contra Uber como sea.

      • Pollo - 22 marzo 2018 - 13:13

        Pues a la vista del video no son tantas suposiciones. La peatona ha tenido que cruzar el carril izquierdo por lo que ya llevaba un tramo en trayectoria perpendicular al coche. Iba realmente despacio. No había obstáculos para que el LIDAR y los demás sensores del coche la hubiesen visto y calculado que iba en rumbo de colisión.
        Y respecto a lo que se comenta de la posibilidad de reacción de la conductora… va prácticamente dormida y sin prestar la más mínima atención a lo que ocurre fuera del coche

        • Krigan - 22 marzo 2018 - 14:25

          Pues en tu mensaje veo más suposiciones. Muchos peatones, cuando cruzan una calle o carretera de 2 carriles, que por el carril más alejado va a pasar un coche, lo que hacen es empezar a cruzar el primer carril, y quedarse parados poco antes del segundo, esperando que pase el coche. En el vídeo no se ve qué hizo la peatona en ese carril.

          Yo no la veo dormida (con lo cual esto ni siquiera es una suposición, sino una inventada). Está mirando con frecuencia a un sitio, que lo mismo podría ser una pantalla que incluya una imagen de la cámara frontal, además de otros datos.

          Levanta la vista antes del choque. ¿Tenía la vista levantada en el momento en que la peatona empieza a ser visible? No hay indicador de tiempo en ninguno de los 2 vídeos (cámara frontal e interior), para poder saberlo se necesitaría un indicador de tiempo en ambas secuencias que indicase incluso las décimas de segundo.

          Lo que no es ninguna suposición es que la conductora ya estaría más que exonerada si este fuera un coche no autónomo.

          • Pollo - 22 marzo 2018 - 15:09

            Puede que tengas razón y esté mirando una pantalla, no voy a entrar en lo que hace la conductora porque no sé sus instrucciones, aunque parecería lo lógico (y sí, es una suposición) que debería estar mirando fuera para complementar lo que «vea» el coche. Si mira la imagen de una cámara del coche, va a ver lo mismo que el coche y no aporta mucho.
            Respecto a la peatona, es cierto que podría haber estado parada en el centro del carril, pero hay distancia a recorrer desde el centro del carril hasta que llega el coche y eso lo debería haber visto el coche.
            No quiero decir con esto que esté poniendo en cuestión la conducción autónoma, pero técnicamente queda trecho por recorrer y de cara a la opinión pública mucho más.

          • Krigan - 22 marzo 2018 - 16:12

            Pollo:

            Afortunadamente no necesitamos andar con suposiciones, porque es un coche autónomo, y por tanto está trufado de sensores y con un sistema informático que almacena ingentes cantidades de información. Se está investigando y acabará por saberse hasta el último detalle.

            Lo que queda por recorrer no viene marcado por Uber, sino por Google, que les lleva años de ventaja a las demás. Uber ni siquiera creo que vaya en segunda posición, aunque claro, en realidad no se sabe en qué posición va Uber porque se negó a hacer sus pruebas en California para no tener que entregar a las autoridades de allí las estadísticas de sus pruebas.

            En cuanto a la opinión pública, Google ya tiene licencia para operar en Phoenix, y ha señalado que abrirá su servicio este año. Un servicio funcionando bien y a buen precio es la mejor publicidad.

  • #033
    eldelaplazoleta - 22 marzo 2018 - 02:18

    Sí, pero no. Así no. ¿El coche con conducción autónoma será el futuro?, sí sin duda. ¿La tecnología, a día de hoy, (inteligencia artificial, deep learning, todo tipo de cámaras, sensores, etc), está capacitada para manejar un vehículo autónomo en condiciones de tráfico real con las carreteras y normas de circulación actuales?, absolutamente NO. En mi opinión, el «ansia viva» de cierto sector industrial por eliminar el factor humano en el transporte de mercancias y personas está provocando saltarse etapas de desarrollo y aprendizaje esenciales. Todos hemos gateado y aprendido a andar antes de echar a correr, no basta simplemente con tener pies y dedos.

    La AI (inteligencia artificial) será la pera limonera, le sobrará cerebro pero le faltan pies, manos, nariz, orejas, ojos, en resumen: datos suficientes para procesar y no errar a la hora de tomar una decisión que puede llegar a ser un desastre. De temas de ética al tratar dichos datos ya ni hablamos.

    Veo que el lobby pro-UBER, pro-coche autónomo, funciona a pleno rendimiento. Al final, viendo este caso desde la distancia, lo que más acojona es cómo compañías todopoderosas retuercen las normas para amoldarlas a su conveniencia incluso jugando con la vida de seres humanos. Primero demuestra que el coche es seguro 100% (cien por cien, no 99,9999 %), principio de precaución, y después sácalo a la calle. No acumules experiencia a base de jugar con la vida de otras personas. Todos los que tenemos carné de conducir hemos pasado nuestras horitas con un profesor al lado del volante y hemos aprobado un examen teórico y práctico antes de salir a la carretera con nuestro coche.

    Que el invento ha tenido un accidente con desenlace fatal, no pasa nada. Daños colaterales. Estamos en fase de aprendizaje, además, la victima tuvo la culpa. Esto no hay quien lo pare. Con un par!!!.

    Por cierto, ¿cómo es que un sistema de conducción «inteligente» es capaz de detectar con el radar un accidente de coche en una autopista varios coches por delante y salvar la situacion, y sin embargo es incapaz de detectar el peligro de un peatón arrastrando una bicicleta a pocos metros de la calzada por la que circula?. Ah, claro, el peatón tuvo la culpa, El coche iba por su lado, vale.

    Cuántos de estos imprevistos habré salvado yo (y cualquiera) con el coche, sin ser el que provoca el incidente, simplemente teniendo una actitud de precaución ante el volante y quién sabe si un sexto sentido. Os puedo asegurar que muchos de estos imprevistos no los hubiera salvado un coche autónomo actual, ni de coña.

    Esta frase última es demoledora: «habrá, desgraciadamente, algunos accidentes más, pero aquellos que pretendan ralentizarla, estarán haciendo mucho más mal que bien, y provocando más muertes de las que supuestamente pretendían salvar.» . ¿En serio, exigir más seguridad y responsabilidad provoca muertes, o es la actitud irresponsable de empresas como UBER y demás paniaguados?.

    • Krigan - 22 marzo 2018 - 10:32

      Claro, todo esto es una conspiración judeo-masónica del lobby. Que la policía dijera desde el primer momento que la peatona intentó cruzar la calle por donde no hay paso de peatones y cuando estaba pasando un coche, es parte de la conspiración, lo mismo que la jefa de la policía concluyera, tras haber visto el vídeo, que la conductora de seguridad no tuvo tiempo de frenar. La NTSB tan solo simula estar investigando el accidente, lo que en realidad pretende es encubrirlo.

      Pero claro, tú con tus ¿20 horitas? de práctica en autoescuela, y un examen práctico de ¿un cuarto de hora? ya te consideras capacitado para conducir. Los 2 millones de millas recorridas por los coches de Uber sin haber eliminado todavía al conductor de seguridad, y los 4 millones recorridos por Google, habiendo quitado al conductor de seguridad tan solo en los últimos meses, eso no cuenta, no se pueden comparar a tus 20 horitas de autoescuela.

      Porque esa es otra. Declaras que la tecnología no está madura… pese a que los coches de Google ya van sin conductor de seguridad desde hace meses. Hace 2 años, en California, donde hay estadísticas oficiales, los coches de Google ya recorrían un promedio de 8.000 Km entre intervenciones del conductor de seguridad.

      Tú sabrás para qué usas los pies y manos. ¿Para palpar a ver si hay peatones? ¿Y la nariz? ¿Olfateas a ver si viene algún peatón? Te recomiendo que le eches un vistazo a la larga lista de sensores que tiene un coche autónomo, con cámaras, rádar, y lídar cubriendo 360 grados (algo que tus sentidos no hacen).

      Exiges seguridad al 100%. Deberías ser consecuente y dejar de conducir, porque nadie, ni humano ni máquina, te va a dar nunca seguridad al 100%, eso no existe. Pero claro, fijo que piensas que tú sí que eres 100% seguro.

      ¿Qué me dices del resto de los peatones muertos ese día? ¿Y de los muertos hoy? ¿Se cuentan por decenas o por centenares? Ni lo sabemos, es lo normal. En parte de los casos la culpa es del peatón, ¿verdad? («Con un par!!!»). Y en el resto de los casos, la culpa fue del conductor…

      • eldelaplazoleta - 22 marzo 2018 - 17:51

        Da la impresión de que algunos tengáis acciones en UBER ó VOLVO, de no ser así no se explica tanto fanboy y tanta vehemencia en su defensa.

        Yo, con más de millón y medio largos de Km recorridos en muy diversos vehículos a lo largo de varios años de experiencia no profesional, me considero suficientemente capacitado para como mínimo opinar sobre coches. La capacitación para conducir la da tráfico (la DGT) una vez que demuestras que con 20 horitas, o las que sean, tienes los suficientes conocimientos para llevar un coche con plena garantía (100%).

        Si no apruebas el examen teórico y práctico no te dan el carné. Si no estás bien físicamente, eres ciego, no coordinas, etc, no pasas el examen médico y no te dan el carné. Si el coche no está en regla, no pasa la ITV Y no se puede usar. Hay que cumplir toda una serie de normas y requisitos.

        Se supone que cuando tú sales a conducir por carretera estas con plenas facultades para hacerlo, o te las tendrás que ver con las autoridades competentes así como con el seguro en caso de accidente grave. Por tanto, a una máquina hay que exigirle a priori, como mínimo, lo mismo: seguridad plena de que no la vaya a liar su «primerito» día.

        Sigo opinando que no es una tecnología madura, tiene fallos, está muy verde aún. Este accidente no hace más que darme la razón.
        Al margen de quién tiene la culpa del atropello, claramente el peatón (¿Qué hacía esta señora de noche caminando en medio de la calzada con una bicicleta en un lugar sin apenas luz?), la pregunta es: ¿tú le fiarías tu vida a un coche que no es capaz de reconocer una situación de riesgo de colisión al no detectar un bulto del tamaño de una persona más su bici en medio de la carretera?. ¿Dónde estaban las cámaras, sensores, radares, etc, que no saltaron las alarmas?. La excusa de la poca luz con un radar no es válida.

        Después de ver el video, la sensación es de que ni el coche, ni la conductora, ni la victima se enteraron de lo que pasó hasta el instante del impacto.

        De haber sido un coche conducido por una persona probablemente hubiera sucedido lo mismo, o no. Yo te puedo asegurar que por esa carretera y con esa visibilidad no hubiera llevado las luces cortas, para empezar. Ni probablemente esa velocidad, aunque estuviese dentro del límite legal. Un humano conduciendo hubiera dado un volantazo o un frenazo en el último momento. ¿Habría salvado el accidente?, posiblemente NO. No se sabe. Lo que sí está claro es que el VOLVO no reaccionó, ni se enteró hasta el momento del golpe.

        ¿Cuántas veces tiene que fallar un coche autónomo para darse cuenta de que no es fiable todavía?.

        KRIGAN, yo no sé muy bien cómo conduces tú, quizás tengas un coche adaptado, pero la mayoría usamos las manos y los pies para conducir, al igual que el resto de los sentidos, incluido el olfato por si se te quema el culo con el asiento eléctrico. Tómalo en tono de broma.

        • Carlos Quintero - 22 marzo 2018 - 19:35

          Mi postura es esperar a que concluya la investigación. No tengo acciones en Uber ni me caen especialmente simpáticos. Pero en los comentarios hay muchas suposiciones sin verificar. Te voy a dar un posible resultado de la investigación: los sensores sí funcionaron, y por duplicado, los cables sí transmitieron la información a la CPU, el algoritmo sí evaluó que era mejor frenar que dar un volantazo, sí dio la orden de frenar a fondo, pero el sistema hidraulico de frenado no funcionó. Ya sé, ya sé, una hipótesis muy improbable, pero solo con la información del video no se puede invalidar. Esto no es ser fanboy ni ser vehemente, es no prejuzgar la causa antes de tener los datos de lo que pasó. Así es como se funciona, no con opiniones. Mi opinión personal es que Uber la ha cagado bien, que sus conductores de seguridad no aportan redundancia, y que han tenido «suerte» de que fue la peatón la que provocó el accidente, pero es una opinión sin datos firmes que la sustenten.

        • Krigan - 22 marzo 2018 - 19:41

          El accidente ocurrió cerca de Mill Avenue y Curry Road, en Tempe, Arizona. Puedes comprobar en Google Maps que es una zona urbana. ¿Tú hubieras puesto las luces largas en travesía?

          Todavía están en pruebas (por eso llevan conductor de seguridad), pero una vez abierto al público el servicio de robotaxis, por supuesto que lo usaré (es decir, cuando llegue a España).

          Desde luego me resultará más confiable que no pocos de los conductores humanos con los que he ido a lo largo de mi vida, y no digamos ya muchos de los que ves pasar por ahí, y que en cualquier momento pueden causar un accidente que me afecte, aunque yo no vaya en su coche.

          Tendrás millón y medio de Km, pero el solo hecho de que pienses que alguien recién aprobado es 100% seguro no me inspira confianza. Yo ese porcentaje de seguridad no se lo doy a nada ni a nadie. La primera regla para evitar un accidente es ser consciente de que el accidente puede ocurrir.

          Y luego están las ilegalidades, claro. De un coche autónomo sé que no ha bebido alcohol, ni tiene sueño atrasado, ni se va a saltar un «ceda el paso» porque tiene prisa y eso es una tontería. Dormirse al volante podrá ser ilegal, pero la gente se duerme.

          Si ese accidente llega a tenerlo un conductor humano, no le quitan el carné y ni siquiera le sancionan. Entonces, ¿por qué dices que ese accidente te demuestra que la tecnología no está madura?

  • #038
    Javi - 22 marzo 2018 - 07:36

    https://elpais.com/elpais/2018/03/22/videos/1521681970_604181.html
    Habéis visto el vídeo? Un conductor humano, que hubiera ido atendiendo a la conducción, no la hubiera atropellado. Habéis conducido en Latinoamérica, una persona parada en la carretera es muy común o un coche de caballos sin luces.
    De momento poco tienen que enseñarnos las máquinas a los humanos y si no, que ponag un coche autónomo en la formula 1 .. a ver como le va a 300 x hora. :-)

    • Krigan - 22 marzo 2018 - 11:11

      Los puñeteros letreros de El País tapan parte del vídeo durante el accidente. Recomiendo este vídeo sin letreros:

      https://youtu.be/dhT6JFV_vt8

      En él, la peatona empieza a ser visible en medio del segundo 3 del vídeo (se puede para el vídeo para comprobar el segundo exacto), y el atropello se produce en el segundo 4. Eso sí, nos aseguras que tú habrías sido capaz de frenar a tiempo.

      Vuelves a insistir en la Fórmula 1. Alguien que vaya a 300 por hora fuera de un circuito de carreras es un pésimo conductor.

      Chorradas tuyas aparte, aprovecho para comentar que desde luego no ayudó el que la peatona llevara una prenda negra en la parte superior del cuerpo.

      • JaviA - 22 marzo 2018 - 11:45

        Es un peatón cruzando una calle mal iluminada, insisto en que un conductor humano con las luces largas la hubiera visto. Paso el 50% de mi tiempo en países del tercer mundo por viajes de trabajo. Todas las carreteras son como esa, mal iluminadas y a menudo mucha gente en la calle.
        Insisto, mucho tienen que mejorar las máquinas todavía, que no dudo que seguirán mejorando.

        • Krigan - 22 marzo 2018 - 13:32

          Ahora mencionas las luces largas. En tu anterior mensaje lo que decías era que el conductor estuviera atento. Y vuelves al Tercer Mundo, pero no estamos allí.

          Lo cierto es que sí había un conductor humano en ese coche, y que la peatona intentó cruzar la carretera donde no debía y cuando no debía. ¿Quieres creer que tú lo hubieras evitado? El ego es mal consejero. Por favor, menos Fórmula 1.

          • JaviA - 24 marzo 2018 - 06:50

            Ya, cierto que en travesia están prohibidas o limitadas las luces largas, pero ¿Que pasa no conducís? En ese tramo de carretera un conductor humano atento hubiera puesto las largas saltándose la norma, debido a la deficiente o casi nula iluminación presente. Instinto de conservación, vas a 60 km/h y no ves un pijo, pongo la larga pues me voy jugando la vida y por supuesto bajo la velocidad. Ir atento es utilizar los medios a tu alcance para hacer la conducción segura. No hay ningún planteamiento ególatra en lo que comento, no se si yo me hubiera llevado por delante al peatón, no digo que yo hubiera evitado el accidente. Pero lo que si es muy evidente es que en este caso, este coche concreto ha fallado.

        • John Smith - 22 marzo 2018 - 16:58

          Por lo menos, aquí, está prohibido conducir con las largas en travesías. me preocupa que no lo sepas.

      • Pollo - 22 marzo 2018 - 12:29

        La prenda negra sigue sin ser obstáculo para el LIDAR

        • Krigan - 22 marzo 2018 - 13:17

          ¿Seguro? ¿Qué longitud de onda usa el lídar? Si usa luz roja, o verde, o azul, o cualquier otra visible, esa prenda negra va a absorber los pulsos de luz del lídar igual que absorbe la luz de los faros. Y si el lídar usa luz infrarroja, ¿el material de esa prenda también absorbe el infrarrojo?

  • #046
    JOSE LUIS DE JUAN - 22 marzo 2018 - 09:56

    ¿habeis visto el, corte de viseo, facilitado por la policia noreamericana?, pues bien, ojo cuando se os ocurra socorrer a un herido de tráfico, ojo cuando un policia decida regular el tráfico, ojo cuando un animal, en un paraje protegido, cruce una carretera o camino, etc, porque como no corrijan el coche autónomo, se van a ir directamente a hacer puñetas. ¿Donde estan los simuladores de circulación de estos vehiculos, para que la gente los pruebe?…

  • #047
    JOSE LUIS DE JUAN - 22 marzo 2018 - 10:05

    … en mi opinión, los Estados con responsabilidad para dar licincias a los coches autónomos, deberian exigir que los simuladores que estos fabricantes tienen con patente, se pongan previamente a disposición de la gente para que ensaye todo tipo de tropelías que se cometen en la conducción a fin de observar y denunciar deficiencias de respuesta. Pero, claro, los políticos estan mas ocupados en saber cuantos votos van a obtener con ello.

    • JOSE LUIS DE JUAN - 22 marzo 2018 - 10:09

      Facilitar los simuladores al público, daria como consecuencia, tomar experiencia de lo bueno y lo malo de la conducción humana, sea cual sea la edad, cultura y formación de los que lo utilicen. «Siempre Datos Positivos para la conducción autónoma». «No hay que fiarse 100% de las pruebas de laboratorio»

  • #049
    JOSE LUIS DE JUAN - 22 marzo 2018 - 10:15

    Aqui la direccion del video, del accidente de UBER
    https://jalopnik.com/video-shows-driver-in-fatal-autonomous-uber-crash-was-l-1823970417

  • #050
    Martin - 22 marzo 2018 - 10:20

    Más allá del estado actual de la tecnología, y de este accidente concreto, nos deberíamos preguntar
    ¿Para qué nos sirve un coche autónomo?
    Para que un coche sea de alguna utilidad, siempre tendrá que llevar a alguien dentro (y mejor, que lleve varias personas en cada viaje).
    De lo contrario, el coche autónomo solo serviría para llenar las calles y carreteras de coches que no llevan a nadie; empeorando todavía más los problemas que sufrimos los seres humanos en las ciudades (como los atascos de tráfico en hora punta, los problemas de aparcamiento y contaminación). Estos problemas son causados por que la mayoría de los coches solo llevan una sola persona y desperdician cuatro asientos libres en cada viaje que hacen.
    ¿Podéis imaginar lo que pasará cuando tu coche autónomo te deje en el centro de la ciudad, y tu le digas que se vaya a aparcar al garaje de casa y vuelva a recogerte a la hora de la salida? ¡Que llenaremos la ciudad con el doble de viajes en coche, en la mitad de los cuales no llevarán a nadie (rendimiento = 0)!
    Entonces, si para que el coche sea útil, tiene que llevar al menos a una persona, ¿Qué ganamos con que esa persona no tenga un volante para conducirlo?
    No digo que los avisos de cambio involuntario de carril, o un «piloto automático» no pueda ser sea de utilidad para los viajes largos por autopista, como los que hace un camionero que cruza varios países. Pero hay que ser muy vago para querer librarte de conducir 20 minutos cuando vas a trabajar cada día, y hay que ser muy caprichoso para que te merezca la pena pagar el coste adicional de todos esos sensores y todo ese software.
    La prueba es que, los que veían negocio en este tema eran los de Uber (para aumentar sus beneficios al no tener que pagar al conductor del taxi) y han acabado por abandonar.
    El coche autónomo es una fantasía, un juguete de niños grandes; pero no tiene futuro real.
    Mejor dedicaré mis esfuerzos a crear una app como DedoCar , que ayude a ahorrar gastos y problemas de movilidad a quienes van al trabajo. Facilitándoles que puedan compartir esos cuatro asientos libres que lleva cada uno en su coche, para que dejen de tirar el dinero cada día.

    • Miguel Alvim - 22 marzo 2018 - 11:26

      Tu aportación se basa en una premisa errónea de que los coches autónomos van a ser bienes en propiedad (producto) cuando lo que se pretende es usarlos como servicio (pago por uso).

    • TORONJIL - 22 marzo 2018 - 11:39

      Con una salvedad: cuando le digas a tu coche autónomo que aparque, buscará una plaza libre cercana. No se irá hasta tu casa y luego le llamarás para que vuelva desde allá a recogerte.

      Tú te ves liberado desde el primer momento de buscar un sitio. En ese lapso de tiempo sin conductor mientras busca plaza libre… el coche estará en la carretera igualmente (pero sin un conductor desesperado por encontrar una porque tiene prisa).

      Y seguro que la inteligencia “conectada” del coche le permite encontrar plaza bastante antes que a un humano…

      • Enrique Dans - 22 marzo 2018 - 11:44

        Que NO. Que no lo pilláis, por más veces que lo repetimos: QUE NO TENDRÉIS UN COCHE AUTÓNOMO. No. Nein. Nope. No way. Zero. Zilch. Nada. ¿Nos vamos enterando? Por mucho que vuestro cerebro os lleve a pensar que el coche autónomo es un avance sobre los actuales y que os podrán ir tan bien las cosas como para compraros uno, no va a ser así. No está pensado para eso. Está pensado para ser un servicio, no un producto, y no va a estar aparcado, ni vas a mandar a «tu» coche autónomo a aparcar a ningún sitio, porque ni será tuyo, ni pasará tiempo aparcado. Estará moviéndose todo el tiempo para recoger al siguiente pasajero, que podrá ir solo si paga más o compartido si paga menos, en función de sus circunstancias. Repite conmigo: nunca voy a tener un coche autónomo. Eso sí, lo usarás constantemente. Con el vehículo autónomo viene un cambio en el modelo de propiedad: lo sabe la industria, lo saben los gestores urbanos, lo saben los operadores de flotas, lo saben las empresas de alquiler, lo sabe Uber, lo sabe Daimler, lo sabe Google… lo sabe todo el mundo, coñe, dejad de hacer hipótesis absurdas, por favor, y elevad el nivel de la discusión.

        • JJ - 22 marzo 2018 - 12:03

          Quién lo ha pensado?

          Albert Einstein?

          Stephen Hawking?

          Quién lo ha decidido?

          Unos magnates transhumanistas de Silicon Valley?

          La plutocracia reptiliana?

          La dictadura china?

          Los hackers de Putin?

          :o)

          Mejor, supongo, sería que fuese una decisión tomada democráticamente…

          • Carlos Quintero - 22 marzo 2018 - 13:26

            Lo han decidido los que hasta ahora están poniendo el dinero en un modelo de negocio basado en servicio. Nada impide que otros pongan dinero para desarrollar otro modelo de negocio basado en la propiedad. La gente vota democráticamente todos los días con el dinero de su bolsillo :-)

        • TORONJIL - 22 marzo 2018 - 13:27

          Creo que la «necesidad» de ser propietario de tu coche perdurará algún tiempo. Después de todo los taxis no han sustituido a los vehículos particulares en muchas décadas, y ni siquiera se han acercado a ello.

          También podríamos vivir todos de alquiler, sin embargo, y sobre todo en España, la mayoría prefiere tener el piso en propiedad.

          Y no dudo para nada que acabará siendo un servicio más pronto que tarde, pero en España tardaremos un poco más, precisamente por esa cultura de la propiedad que tenemos.

          Es como el leasing de vehículos, mucho menos implantado en nuestro país.

          O incluso como el leasing de computadoras. Podríamos cambiar de ordenador cada año, pero preferimos tener uno que nos dure siete u ocho años.

          Las gafas de realidad virtual (o los hologramas) también podrán sustituir a las reuniones, sin la necesidad de que todos se desplacen al lugar de reunión. O incluso nos permitirán viajar a una lejana isla desierta de vacaciones, o a un desierto, o a una ciudad futurista ó submarina…

          Todo esto ayudará a que tengamos menos cosas en propiedad. Y más cosas en forma de servicios (virtuales o no).

          • Enrique Dans - 22 marzo 2018 - 13:36

            El coche es otra cosa. El precio de un vehículo autónomo va a ser alto el tiempo suficiente como para que no sea normal plantearse el adquirir uno, y en cambio, estará disponible mucho tiempo y se normalizará completamente su uso. Eso dará lugar una generalización de su uso que llevará a que la idea de poseer uno resulte absurda, una extravagancia completamente ineficiente. ¿Quién quiere una máquina como esa para tenerla en un garaje el 95% del tiempo? ¿No te parece absurdo y no justificable? Pues a las generaciones más jóvenes, mucho más. El coche no será una propiedad, será un servicio, por pura lógica, y lo veremos mucho antes de lo que muchos piensan.

          • JJ - 22 marzo 2018 - 13:48

            «Lo han decidido los que hasta ahora están poniendo el dinero en un modelo de negocio basado en servicio.»

            Claro. Es decir que nadie ha decidido nada.

            Todo son conjeturas, suposiciones sobre lo que luego decidirá el mercado.

            A menos que creamos que se terminarán imponiendo las teorías de Jason Brennan…

          • Martin - 22 marzo 2018 - 15:18

            Hay que distinguir entre tener un coche propio (que a la gente le gusta, y no está tan mal), y la necesidad de usarlo todos los días para ir al trabajo (lo que supone una verdadera esclavitud, y nos crea muchos problemas).
            Una app en tu smartphone (como DedoCar, Un BlablaCar para ir al trabajo todos los días) que te ayude a ahorrar gastos de viaje, compartiendo los asientos libres que ahora se desperdician, permitirá a muchos no depender de usar su propio coche cada día, sino que podrían ir con la misma rapidez y comodidad, pero a coste de bus, en el coche de otro.
            Con los coches que se dejan de mover, arreglamos los problemas de aparcamiento, los atascos de tráfico, la contaminación y hasta el cambio climático.

          • Martin - 22 marzo 2018 - 16:21

            Todo depende del uso que le des al coche. Hablemos de costes:
            A alguien como Enrique (que solo parece necesitar desplazarse esporádicamente), seguramente no le merezca la pena tener un coche en propiedad y hasta le salga más barato tomar taxis (y en tal caso, él preferiría que fueran sin conductor, para evitar discusiones).
            Sin embargo, para alguien que necesite desplazarse a diario, el coste de un taxi resulta prohibitivo (incluso si fuera uno autónomo) y, en vez de alquilar un coche o contratar un servicio, le sale mejor disponer de su propio medio de transporte (incluso si tira el dinero conduciendo su coche en solitario, porque desperdicia cuatro asientos en cada viaje).
            ¿Qué será todavía más económico?
            Dejar de desperdiciar esos asientos que lleva libres tu coche mientras vas al trabajo, y aprovecharlos para llevar a otras personas que vayan en tu misma dirección y compartir los gastos del viaje con ellas.
            ¿Que personas son estas?
            Hoy en día, no puedes ahorrar, porque no las conoces, pero en hora punta hay muchas personas que realizan trayectos compatibles con el tuyo, y pronto habrá una app que te las vaya señalando por el camino.

        • Martin - 22 marzo 2018 - 15:07

          Eso es lo que le gustaría a Uber (y al resto de multinacionales que nos quieren vender el coche autónomo como servicio): Que los ciudadanos no tuviéramos coches, y que fuéramos esclavos de pagarles dos veces al día para ir al trabajo.
          El coche autónomo como servicio, tiene la misma pega que han tenido siempre los taxis (por lo menos en el planeta Tierra). Una pega que no ven, los que no han estudiado la distribución del tráfico a lo largo del día:
          La mayoría de los viajes se producen en hora punta, cuando muchas personas tienen que ir al trabajo o de vuelta a casa, todas a la vez. El resto del tiempo son horas valle, en las que sobran vehículos.
          Para esas horas del día nunca ha habido suficientes taxis (ni habrá nunca coches autónomos como servicio suficientes). Ninguna compañía invertirá en ellos, a sabiendas que la mayoría de ellos se pasarían las 20 horas restantes aparcados (o peor aún, circulando vacíos). Si no lo crees, pregúntales a tus amigos taxistas, que esto lo saben muy bien.
          Estos servicios sirven para que quien no tenga coche propio haga viajes esporádicos. Pero el que tiene que moverse por la ciudad todos los días, nunca se ha podido permitir ir en taxi (a menos que se lo pague su empresa), ni podrá permitirse ir en taxi autónomo. Por mucho que intenten evitar el coste del humano que conduce.
          En realidad, lo que menos necesita una ciudad es empeorar sus problemas aumentando el número de coches que circulan por sus calles, a base de introducir nuevas flotas (del tipo que sea).
          En realidad sobran coches de todo tipo, y lo que menos necesitamos en las ciudades son mas coches, sino aprovechar mejor esos viajes que han de hacer de todos modos los coches que ya tenemos, con algunos que lleven al trabajo más gente (no solo al conductor), y otros que solo se usen el fin de semana para ir a la playa .
          En cada ciudad del tamaño de Madrid se desperdician 4.000.000 de asientos libres al día, y la mayoría en hora punta, cuando más se necesita compartirlos.
          ¡Compartir nuestros asientos libres en los viajes al trabajo SI. Más taxis (sin conductor) NO!

  • #062
    Carlos Quintero - 22 marzo 2018 - 12:27

    Por seguir aportando datos:

    En la investigación están participando la policía local de Tempe (en concreto la Tempe Police Vehicular Crimes Unit), que es quien está proporcionando la información, vídeo, etc. (y alguna que otra opinión) a los medios de comunicación, pero ciertamente la NTSB está también con 4 investigadores. Fuente oficial:


    NTSB Investigating Uber Crash

    Estos últimos son más exhaustivos («will examine vehicle factors, human performance and electronic recorders») y discretos, y se tomarán su tiempo (meses, a veces años) en emitir un informe basado en datos que no deje mucho margen a la opinión.

    • Enrique Dans - 22 marzo 2018 - 12:36

      Eso es lo que tiene la conducción autónoma: que con la sensorización del vehículo, lo que está claro es que sabremos qué ocurrió perfectamente, sin dejar lugar a la interpretación. Mi impresión, de nuevo, es que Uber está «cutting corners», tomando atajos muy poco recomendables para lograr acumular experiencia más rápido y de manera más eficiente en costes: ni la conductora parece, en principio por su perfil, una «conductora de seguridad» como tal, con la instrucción adecuada para ello (que es, o debería ser, algo más que simplemente «saber conducir»), ni parece que mantenga el nivel de atención adecuado a la conducción, ni que el vehículo detecte el obstáculo o intente llevar a cabo algún tipo de maniobra de emergencia, y eso a lo que lleva es a pensar en un problema de ajuste del algoritmo y, sin duda, a una responsabilidad. Pero lo importante es que lo sabremos todo, que la investigación tomará en cuenta toda la información disponible, y que habrá un veredicto ajustado a las circunstancias. Pero lo que es de verdad importante es que incluso en el caso más riguroso, si se demostrase que Uber puso en circulación vehículos no suficientemente probados o con conductores no adecuados, esto no significará – o no debería significar una ralentización del desarrollo de la tecnología de conducción autónoma, porque su finalidad es precisamente la de reducir de manera drástica estos accidentes y, de hecho, se demuestra que está en muy buen camino para conseguirlo.

  • #064
    Carlos Quintero - 22 marzo 2018 - 13:06

    Respecto a los últimos comentarios:

    – La formula 1 y los 300 Km/h: si el interés de los fabricantes fuera la formula 1 sería un problema mucho más sencillo: un circuito cerrado de unos Km (que se puede cartografiar palmo a palmo) al que se le da decenas de vueltas y con unos pocos coches. No hay zonas protegidas por donde salgan ardillas, ni cruces, ni oscuridad, ni peatones cruzando, etc. ¿cual es la mayor dificultad? ¿la salida? ¿que en los tramos a 300 Km/h hay la mitad de tiempo de reacción que a 150 Km/h? Los 300 Km/h son en rectas, y en general con un solo coche rival. En todo caso un problema computacional.

    – Tanzania, Cuba, países de Sudamérica, carreteras mal iluminadas del tercer mundo, etc.: pues cuando haya que conducir en esos sitios se ajustará la tecnología a sus idiosincrasias. El coche autónomo no se ha lanzado simultáneamente en todos los países, ciudades, climas, etc. Se empieza por lo que está más controlado y se prosigue en otros escenarios.

    – Puede que algunos conductores hubieran evitado el accidente de Uber, pero muchos otros no. No sabemos si el coche de Google lo hubiera evitado (a buen seguro lo están averiguando). La diferencia está en que TODOS los coches de Volvo/Uber, y de otras marcas, dentro de un tiempo, serán capaz de ir sin luces y en completa oscuridad «ver» a una persona de color vestida de negro y con una bici negra que aparece en menos de un segundo, y frenar a tiempo o esquivarla. Nosotros seguiremos conduciendo con nuestra vista en el espectro visible limitada a menos de 180º y el oído en algunos casos (redundancia casi cero). Que se sepa, el tacto, gusto y olfato no se usan en la conducción.

    – Ninguna tecnología es 100% segura. Es un error pensar que antes de poner un coche autónomo en la calle ha de ser 100% seguro. Nosotros no somos 100% seguros, ni cuando nos acabamos de sacar el carné y tenemos buenos reflejos pero no experiencia, ni cuando tenemos 75 años y mucha experiencia pero pocos reflejos. Ni el ascensor que usamos todos los días es 100% seguro. Hay que pedir que sea inicialmente razonablemente seguro, al menos tan bueno como los humanos en promedio, y que a partir de ahí mejore cuanto antes para ser mucho mejor que nosotros.

    Ayer me pasé el día en dos trenes (que no son 100% seguros) y en unas horas cogeré un avión (que no es 100% seguro). También cogí un taxi, cuyo conductor iba hablando por unos auriculares (al parecer es legal en Norteamérica, aunque imprudente) y que señalizó con el intermitente un giro a la izquierda que estaba claramente prohibido. El conductor del tranvía que venía de frente le pitó repetidamente para indicarle que lo que iba a hacer estaba prohibido, pero le dio igual, esperó a que pasara el tranvía y giró. Esa es la realidad. Mientras tanto, la conducción autónoma en mejora continua.

  • #065
    JJ - 22 marzo 2018 - 16:09

    Aquí está el vídeo del accidente

    La gente que no sabe cómo funcionan los sensores pensará que se trató de un accidente inevitable. Pero los que sí saben, posiblemente lo verán como un accidente injustificable porque los sensores del sistema y cámaras «ven» perfectamente en condiciones de oscuridad absoluta. En consecuencia, pueden anticiparse a un accidente de este tipo como si fuese de día y en condiciones de luminosidad óptima.

    • Martin - 22 marzo 2018 - 16:41

      El centro de Control del Tráfico Aéreo de Torrejón, es lo más parecido que conozco a lo que debe ser el «cerebro» de un coche autónomo (donde se recibe la información de los sensores, y se toman decisiones para evitar colisiones).
      Allí reciben los ecos de los radares y las respuestas de las balizas transpondedoras que van a bordo de los aviones. Pero no os penséis que son como aquellas pantallas de fósforo verde que escudriñaben las defensas aéreas en busca de aviones enemigos, como vemos en las películas antiguas. Son unos monitores enormes, donde la información del tráfico aéreo aparece muy elaborada.
      Os sorprendería la cantidad de capas de filtros que se incorporan uno detrás de otro, para eliminar señales y rebotes espúreos, para que no distraigan la atención del controlador y este pueda centrarse solo en la información relevante.
      Al final, resulta que los controladores solo ven aquellos rebotes de radar (y la información relacionada) que corresponden a los aviones que tienen que controlar.
      Estoy seguro que en el procesamiento de las señales que llegan a la CPU de un coche autónomo, se tiene que aplicar (por narices) gran cantidad de filtros similares. Por ejemplo, para que el coche no de un frenazo, o un volantazo, por una brizna de paja que cruce la carretera impulsada por el viento.
      ¿Cómo distinguir la paja, de los radios de la rueda de una bicicleta?
      ¿Como enseñar al cerebro del coche que detrás de una pelota que cruza la carretera, vendrá un niño a recogerla?
      Un humano tiene la ventaja de millones de años de evolución de los seres vivos (tanto en los sentidos, como en el cerebro y sus respuestas, más o menos instintivas o reflexivas), y la ventaja de su capacidad de aprender (de su propia experiencia, o incluso de las historias que le cuentan).
      ¿Quien y cuándo será capaz de picar el código que consiga esto en una máquina?

      • JJ - 22 marzo 2018 - 17:36

        Hombre, estás diciendo que el coche autónomo no tiene futuro?

    • Krigan - 22 marzo 2018 - 17:16

      Eso de que las cámaras ven en la oscuridad…

      El rádar es algo muy útil, pero detectar personas no es lo que mejor se le da. Con lo cual queda el lídar, que ya te comenté que también tiene sus limitaciones.

      La prenda superior de la peatona es negra. Si el lídar usa luz visible, los pulsos de luz del lídar también serían absorbidos por esa prenda. Si usa luz infrarroja o ultravioleta, esa prenda también podría ser «negra» (absorber) esas frecuencias, dependiendo del material del que esté hecha.

      Una bicicleta, con sus tubos y radios delgados, también puede ser difícil de “ver” para un lídar. A diferencia de las cámaras, el lídar son pulsos de luz, y aunque sean muchos, te pueden pasar por entre los tubos y radios de la bicicleta. A la zona donde está una rueda el lídar podría enviar 4 pulsos, y que los 4 lleguen a pasar por entre los radios.

      De todas formas, es satisfactorio ver que al coche autónomo se le exige más que al conductor humano. Del «accidente inevitable» con los pobres sentidos de un conductor humano hemos pasado al «accidente injustificable» con los supersentidos de un coche autónomo… solo que no son supersentidos, también tienen sus limitaciones, así que mejor si esperamos a que concluya la investigación.

  • #069
    JJ - 22 marzo 2018 - 17:48

    Krigan, me extraña tu comentario.

    Por supuesto que las cámaras ven perfectamente en la oscuridad. Ya he puesto en la entrada anterior sobre el tema el vídeo de BMW.

    aquí

    A estas alturas nadie puede decir que el accidente del coche autónomo de Uber ocurrió porque estaba oscuro…

    Si en un coche con conductor se puede ver en la noche cerrada está claro que en un autónomo será igual o mejor. Aunque el coche no tenga ojos.

    Además, la presentación del vídeo del accidente está manipulada, porque han quitado los segundos previos y solo muestran el instante fatal.

    • Krigan - 22 marzo 2018 - 18:46

      No, las cámaras (a secas) no ven en la oscuridad. Ese vídeo de BMW es de una cámara de infrarrojos. Me parece muy bien que te entusiasme esa tecnología, pero las cámaras de un Uber son de las «normales», de las que pueden ver los colores en las señales de tráfico, y los semáforos, e identificar los coches de la policía en un control, cosa que una cámara de infrarrojos no puede hacer.

      El vídeo que ha mostrado la policía es de una de las cámaras del Uber, esa es la imagen que el cerebro electrónico del coche podía ver, no la del BMW.

      El accidente ocurrió porque una peatona cruzó la calle por donde no había paso de peatones, cuando pasaba un coche. De remate esa peatona con bici no llevaba chaleco reflectante de noche y en un sitio oscuro, sino que la prenda superior suya era negra, lo peor que podía llevar en esas circunstancias.

      Esto hizo que no fuera visible para la conductora de seguridad hasta que ya era demasiado tarde. También impidió su detección a tiempo por parte del Uber a través de las cámaras. Quedaba el lídar… al cual también le pudo afectar esa prenda negra.

      Y en cuanto a la supuesta manipulación del vídeo que ha publicado la policía, ya nos contarás a qué te refieres, que seguro que es algo tan divertido como las conspiranoias de los reptilianos.

  • #071
    JJ - 22 marzo 2018 - 21:28

    Krigan, por Dios, ¿Comprendes lo que estás diciendo?

    Sencillamente, que la tecnología que lleva el coche autónomo de Uber es inferior a tecnologías que existen hace años para el coche con conductor. Y que en consecuencia, el coche autónomo es menos eficiente a la hora de evitar accidentes. Resulta totalmente absurdo.

    Para que el coche autónomo tenga éxito tiene que ofrecer mas seguridad que cualquier coche convencional y no a la inversa.

    Krigan, una cosa es defender las nuevas tecnologías incluída la del coche autónomo. Y otra cosa diferente es defender a cualquier empresa que quiera aprovecharse de las nuevas tecnologías.

    Y Uber no es muy defendible. Es una empresa que no sabe nada de automóviles ni tampoco es Google, que sí es experta en programación y que se ha tomado el tema de la conducción autónoma en serio y trabaja en ello desde hace años.

    Uber es otra cosa. Un App. comisionista, intermediaria entre conductores y pasajeros. Una App. que ha tenido mucho éxito y que ha recaudado mucho dinero, pero poco mas. Es como Airbnb. ¿Qué pensarías si Airbnb decidiera dedicarse ahora a esto?

    El fin no justifica los medios. Uber es una empresa conflictiva. Y Uber robó a Google el know how para fabricar el sistema de conducción autónoma. Aunque luego haya llegado a un acuerdo, así no se hacen las cosas cuando se trata de un tema tan serio.

    • Krigan - 22 marzo 2018 - 22:47

      ¿Mande? Yo no defiendo a Uber. Llevo ya 2 días diciendo lo del lídar, y manifestando que la jefa de policía de Tempe se precipitó al exculpar a Uber, probablemente porque no está familiarizada con los coches autónomos y este tal vez sea su primer caso de accidente en el que hay un coche autónomo.

      Otra cosa es que tú quieras condenar a Uber desde ya, y sin que se haya publicado ni una sola prueba en su contra. Yo lo que digo es que hay que examinar los datos del lídar, cosa que la jefa no hizo. Pero tampoco los hemos examinado ni tú ni yo. Ahora bien, el NTSB sí los va a examinar, y otros muchos datos también. Lo van a mirar *todo*, y después publicarán su informe.

      Evidentemente habrá que esperar meses. Yo no me voy a lanzar a culpar a Uber, de la misma manera que también rechazo exculparla. Voy a hablar siempre, como lo he hecho hasta ahora, de la evidencia que se vaya conociendo. No te preocupes, que si Uber es culpable, se va a saber.

      En cuanto a la cámara infrarroja, como mucho sería añadirla a las cámaras actuales (que usan todos, no solo Uber), y no sustituir unas por otras, porque entonces el coche autónomo no vería, entre otras cosas, las señales de tráfico. Y no tengo claro que eso suponga una ventaja, porque tan solo serviría para ver a humanos y otros animales de sangre caliente en la oscuridad.

      ¿Qué pasa si la investigación determina que el lídar sí detectó a la peatona y lo que falló fue otra cosa? La cámara infrarroja no aportaría nada en ese caso. ¿Qué pasa si la investigación determina que no hubo ningún fallo?

      Claro, tú estás convencidísimo de que hubo un fallo. Para ti eso es un dogma incuestionable. ¡Uber no puede ser inocente! Pero los que estamos interesados en la mejora de la tecnología lo que queremos es saber todo lo que pasó (ya sea Uber culpable o inocente), y mirar a ver qué mejoras se pueden hacer a partir de lo que se aprenda de este accidente.

      Como te conozco, y sé que no te vas a quedar tranquilo, mi opinión personal (totalmente especulativa) es que el soft de Uber no supo interpretar adecuadamente los datos del lídar. Pero vamos, esto que acabo de expresar no vale un carajo, es pura especulación sin fundamento. Las conclusiones no pueden ser colocadas antes que los hechos. Lo primero es examinar todos los datos, y después ya vendrán las conclusiones.

      • JJ - 22 marzo 2018 - 23:11

        No comprendo el sentido de tu respuesta.

        Al parecer, de noche Lídar no sirve y habrá que esperar a 2020 para que un sistema como Flir esté listo.

        La vida humana vale esperar un poco. No es tanto. Y es mejor hacer las cosas bien, sin tanta prisa.

        ver enlace

        • Krigan - 22 marzo 2018 - 23:31

          Es decir, que una empresa llamada Flir (y otra llamada Adasky) quieren que les compren sus productos.

          • JJ - 23 marzo 2018 - 09:44

            Krigan, por favor…

            Uber también quiere que le compren sus productos. Todo el mundo vende o quiere vender algo.

            Lo importante es que la tecnología de Flir puede salvar vidas evitando accidentes mejorando lo que hace Lídar.

            Tengo la impresión de que te tomas este tema como algo personal. La variedad, e incluso la confrontación de opiniones es buena en un debate que resulta necesario.

          • Krigan - 23 marzo 2018 - 10:34

            JJ:

            ¿Personal? Para nada, me parece perfecto que expongas tus opiniones. Yo también pienso que la variedad de opiniones enriquece el debate.

            Claro que todo el mundo quiere vender lo suyo. Por eso precisamente hay que ser un poco escéptico.

            Sobre el tema de la cámara de infrarrojos (Flir o la empresa que sea), ya lo dije: no está claro que suponga ninguna ventaja. Se supone que un lídar también es perfectamente capaz de detectar personas en la oscuridad. De hecho, a la espera de los resultados de la investigación, estoy convencido de que el lídar sí detectó a la peatona.

  • #077
    Mauricio - 22 marzo 2018 - 23:14

    Deberían leer el artículo de Forbes titulado Fatal Uber Crash Was ‘Inevitable,’ Says BMW’s Top Engineer, en el cual un alto ingeniero de BMW califica el accidente de «inevitable» pero también considera que el Volvo XC90 no tiene la tecnología necesaria para ir por las calles de manera totalmente autónoma.

    Entre las cosas que dice están: «…Elaine Herzberg, 49, was killed when she wheeled her bicycle across a road in Tempe, Arizona, and was hit by a self-driven car that neither braked nor took evasive action«. Luego de ver el video, me parece extremadamente preocupante el hecho de que el auto no haya ni frenado ni realizado ninguna acción evasiva, pues aunque el accidente fuera, según parece, inevitable el auto no tomó ninguna medida para tratar de aminorar el impacto.

    Se afirma desde BMW que «…no automaker or tech company had current sensor and computer systems advanced enough for production-ready Level 4 or Level 5 self-driving». Si todavía ningún fabricante está en capacidad de fabricar un auto autónomo de nivel 4 o 5, creo que este accidente de Uber debería ser también analizado desde la perspectiva de que esta tecnología todavía no ha alcanzado la madurez requerida para utilizarse cotidianamente. Según el mencionado artículo, algo que le faltaría al Volvo XC90 involucrado en el accidente serían «thermal-imaging cameras».

    Por otro lado, al igual que a otras personas que han comentado en esta entrada, me llama la atención el hecho de que el auto no tuviera activadas las luces largas. En realidad, sería deseable que un auto autónomo viera por la noche mucho más allá de lo que podría ver un conductor humano. ¿Acaso los sensores de este Volvo no superan el alcance de las luces cortas?

    Creo que hay mucho por analizar y mejorar en esto de la conducción autónoma. Lo más probable es que esta tecnología llegue a estar realmente madura dentro de no demasiado tiempo. Serán, sin embargo, los fríos datos los que nos dirán si realmente estos vehículos ayudan a mejorar la seguridad en las calles y carreteras.

    • Krigan - 23 marzo 2018 - 00:24

      Sobre las luces largas: como sabe cualquiera que se haya sacado el carnet de conducir, la razón por la que hay 2 tipos de luces es porque los focos de un coche no pueden ser demasiado potentes, o deslumbrarán al que va delante (por el retrovisor) y a los que vengan por el carril contrario. Por eso las largas se encienden y se apagan según haya o no otros vehículos.

      Además de eso, está prohibido ponerlas en travesías, haya o no otros vehículos. Donde se produjo el accidente es probablemente una travesía (aunque también es cierto que la legislación USA podría ser diferente de la española).

      Sobre las declaraciones del Top Buitre de BMW, te las traduzco al lenguaje normal: «vamos más atrasados que otros (en especial Google) en esto de la conducción autónoma, probablemente porque nos tiramos años sin meternos en esto que podría poner en peligro nuestro modelo de negocio, y ahora queremos seguir nosotros con las pruebas, a más velocidad que antes, pero que los gringos se queden quietos, deteniendo sus desarrollos, porque ha muerto en América (no en Europa, en Europa es imposible que pasen estas cosas) una peatona imprudente que hubiera muerto igualmente con cualquier conductor humano».

      Sobre que no frenó ni inició maniobra evasiva: verdaderamente en el vídeo parece eso, pero habrá que mirar, digo yo, los datos del lídar, qué interpretó el ordenador de esos datos, si el ordenador activó o intentó activar los frenos, y cuándo (¿el problema fue de latencia?). Precisamente para esto se hace una investigación.

      Por poner un ejemplo de una de las muchas posibilidades que hay, si es un fallo del soft al interpretar esos datos, ese fallo podría estar en el soft de Uber y de BMW (que va a intensificar sus pruebas de coches autónomos en las calles europeas) pero no en el soft de Google, que tal vez ya resolvió ese problema hace un par de años.

      Así es que yo le pediría al Top Buitre de BMW que hipocresías las justas. No puedes decir que nadie está preparado para el nivel 5 al mismo tiempo que estás a punto de iniciar pruebas de nivel 5 en Hamburgo.

      • Mauricio - 23 marzo 2018 - 02:06

        BMW es una empresa bastante seria, Uber no sé si lo sea. En todo caso, el punto crítico es el hecho de que el Volvo de Uber, según dice este ingeniero, no frenó ni realizó ninguna maniobra evasiva, lo que, de ser así, ya sería bastante grave.

        Por otro lado, la policía de Tempe (Arizona) dice que el auto no frenó «significativamente», lo que, ciertamente, no es lo mismo que decir que no frenó, aunque el asunto seguiría siendo casi igual de preocupante.

        Habrá que ver, en todo caso, qué dice el informe final sobre este accidente en lo que se refiere al frenado, a la ausencia de maniobra evasiva, a la cuestionable agudeza de los sensores y a otros temas, pero, por lo visto no parece que este auto se encuentre más allá del nivel 3 de conducción autónoma.

        • Krigan - 23 marzo 2018 - 09:38

          Con independencia de la opinión que tengamos de Uber, las declaraciones del de BMW han sido una buitrería carroñera detestable y un tanto hipócrita.

          Pongamos que ese accidente se hubiera producido con un coche no autónomo. La evidencia es la misma, hay una cámara frontal (en Rusia son obligatorias) y una interior (¿deberíamos ponerlas por ley?). ¿La conductora sería exculpada? Yo pienso que sí.

          La culpa es claramente de la peatona, la conductora no ha bebido (estoy suponiendo que le hicieron la prueba de alcoholemia) y tenía la vista levantada en el momento del accidente. De hecho, la jefa de policía (que seguro que conoce la normativa de allí sobre luces largas) exculpó a la conductora tras haber examinado los vídeos.

          La jefa también exculpó a Uber. Ya he dicho que esta exculpación de Uber me parece prematura, ese coche llevaba un lídar (cosa que no tienen los coches no autónomos), pero el argumento de la jefa tiene su interés. Señala que un conductor humano no habría podido evitar el accidente.

          Por supuesto que ese coche de Uber no está preparado al 100% para la conducción autónoma. Por eso está en pruebas. Hasta los de Google, que llevan meses circulando sin conductor de seguridad, siguen en pruebas.

          Para mí la cuestión relevante es si esas pruebas suponen un riesgo añadido para los demás, y no parece que sea el caso. Las estadísticas del coche autónomo (en pruebas) son envidiables, incluido este accidente. Siguen siendo cero muertos atribuibles al coche autónomo (lo de Tesla es ayuda a la conducción, no coche autónomo).

          El resto ya es esperar a los resultados de la investigación. Pero no parece que vaya a cambiar el hecho de que la peatona imprudente hubiera muerto igualmente con un conductor humano.

          • JJ - 23 marzo 2018 - 09:51

            Otro artículo interesante donde opina un experto que cuestiona el vídeo entregado por Uber (que en mi opinión ha sido editado deliberadamente)

            ver enlace

          • Krigan - 23 marzo 2018 - 10:42

            JJ:

            En ese artículo no se menciona ninguna manipulación del vídeo.

    • Krigan - 23 marzo 2018 - 10:51

      La verdad, ese artículo de El Español me parece lamentable, y ni siquiera lo he leído completo porque me resulta vomitivo. Pongo el titular, para que los demás se hagan una idea:

      «Las víctimas del coche de Uber: Elaine, la ‘sintecho’ muerta y Rafaela, la conductora exconvicta»

      ¿Qué tendrá que ver si la peatona era una «sintecho» y la otra una exconvicta?

  • #085
    Krigan - 23 marzo 2018 - 14:21

    JJ:

    Respecto al vídeo, conviene fijarse tanto en lo que se ve como en lo que no aparece. ¿Qué hizo la peatona antes de que se la empiece a ver en el vídeo? Una posibilidad es que cruzase el primer carril, y empieza a cruzar el segundo, pero ve que se acerca un coche (el Uber), y retrocede un poco hacia el primer carril, pero después piensa que va a tener tiempo de pasar, y vuelve a intentar cruzar ese segundo carril.

    El ordenador del Uber, a través del lídar, sí que ve que la peatona invade su carril, pero después la ve retroceder, y para cuando la ve avanzar de nuevo ya es demasiado tarde. Esta explicación es concordante con todos los hechos conocidos (vídeo incluido), y además, si es cierta, así aparecerá reflejado en los datos del lídar.

    ¿Fue esto lo que pasó? Vete a saber. Habrá que esperar a que concluya la investigación.

  • #086
    Krigan - 24 marzo 2018 - 12:23

    Un artículo con algunos datos interesantes:

    http://es.engadget.com/2018/03/24/coches-autonomos-mas-seguros/

    En USA un 94% de los choques entre vehículos ligeros son causados por los conductores. Un 2% por fallo en los vehículos, otro 2% por las condiciones ambientales, y el 2% restante por causas desconocidas. Estamos hablando de la posibilidad de reducir en más de un 90% los accidentes con la conducción autónoma.

    ¿Suena increíble? Pues bien, en los Tesla, hace ya 2 años (la tecnología ha avanzado desde entonces, esto fue con la primera generación de Autopilot), el tener el Autopilot activado ya suponía reducir a la mitad la probabilidad de accidente.

    Aprovecho para mencionar un dato adicional sobre este accidente. En la zona donde intentó cruzar la peatona hay 4 carriles, no 2. Al principio del vídeo son 2, pero después nacen hacia la derecha otros 2 carriles más. Tan solo unos metros más allá del impacto nace hacia la izquierda otro carril más (el nacimiento de este llega a ser visible en el vídeo). Estos carriles adicionales son porque unos 100 metros más allá hay un cruce (con paso de peatones), son para los vehículos que quieren girar a derecha e izquierda en ese cruce.

    Así que manda carajo la peatona. Intentó cruzar por el peor sitio, y con un bonito cartel de «prohibido cruzar». Aunque claro, en medio de la oscuridad vete a saber si lo vio.

    • Martin - 24 marzo 2018 - 14:47

      Pues, cuanto más ancha la vía, peor aún para el software de «collision avoidance».
      Se puede entender que atropelles a alguien que te sale de repente entre dos coches aparcados, justo cuando pasas, y no tienes tiempo material de frenar o esquivar.
      Pero si hay alguien cruzando una calle tan ancha y despejada… el «cerebro» del coche autónomo, no solo debió verla, sino reaccionar de algún modo (aunque solo fuera reduciendo la velocidad). O es que aún no saben cómo programar aquello de «precaución, amigo conductor, la senda es peligrosa…».

      • Krigan - 24 marzo 2018 - 23:49

        Depende. ¿Qué hizo la peatona antes de ser visible en el vídeo? Pudo cruzar 2 carriles, y cuando estaba en el tercero quedarse parada, porque ve que se acerca un coche, y no sabe a qué distancia está, ni su velocidad, ni por qué carril va. Después decide seguir adelante, e invade el carril del Uber.

        ¿Suena estúpido? Lo es. Tan estúpido como ponerse a cruzar 4 carriles de noche, en una zona oscura, con una prenda superior negra, y con el impedimento de una bici.

        No nos pensemos que el lídar y el rádar son como una cámara de vídeo. Al rádar se le habrá dado bien percibir la bici, objeto metálico amplio, pero mal el percibir a la persona. Al lídar se le habrá dado bien el percibir a la persona, pero mal el percibir a la bici, con sus tubos y radios delgados.

        De propina, esa prenda negra tal vez absorba también los pulsos del lídar, no solo la luz de los focos. Y por el lado de las cámaras, una información con la que normalmente el coche autónomo cuenta, estaba tan ciego como un humano.

        No nos pensemos que un coche autónomo es Supermán, sus sentidos también están limitados, y la información limitada puede tener resultados funestos. La buena noticia es que verdaderamente los sensores de un coche autónomo son superiores a los sentidos de un humano en lo que a conducir se refiere. Cubren 360 grados e incluso tienen cierta capacidad para «ver» (con comillas) en la oscuridad.

        Dicho esto, conviene ver también otro aspecto de la cuestión:

        https://www.nytimes.com/2018/03/23/technology/uber-self-driving-cars-arizona.html

        En marzo (supongo que del año pasado) los coches de Uber eran capaces de recorrer solo 21 Km de promedio entre intervenciones del conductor de seguridad. El año pasado la cifra de Google fueron 9.000 Km, y la de Cruise (GM) 2.000 Km.

        Si lees el artículo verás que lo peor de Uber no es esto. No voy a repetir aquí todos los detalles, pero casi parece una peli de terror. Lo que más me asombra es que estos tíos de Uber, con tan solo 21 Km entre intervenciones (cifra que han tratado de mantener en secreto, y por eso se fueron de California), estuviesen pensando en abrir su servicio de robotaxis en diciembre de este año.

        Pero claro, si su portavoz dice que eso de los Km entre intervenciones no importa…

Dejar un Comentario

Los comentarios están cerrados