Uber, Volvo y el primer atropello mortal

Volvo XC90 (IMAGE: Uber)Ayer, hacia las 10 de la noche en Tempe, Arizona, tuvo lugar el primer atropello mortal de uno de los Volvo XC90 autónomos que Uber utiliza para pruebas de conducción autónoma, como reportó inicialmente una cadena local. El suceso, según los reportes que he podido leer, tuvo lugar cuando una mujer de 49 años, Elaine Herzberg, cruzaba por una zona no señalizada como paso de peatones y fue arrollada por el vehículo, parece ser que mientras caminaba con su bicicleta, pero sin ir montada en ella. La conductora del vehículo, Rafaela Vasquez, de 44 años, circulaba sin pasajeros en ese momento e iba tras el volante, pero con el vehículo en modo autónomo, y ni su reacción ni la de los sensores del vehículo fueron suficientes para impedir el mortal atropello. Uber está cooperando con el departamento de policía de Tempe para intentar esclarecer los hechos, ha lamentado el accidente, y por el momento, ha interrumpido sus pruebas. Anteriormente, hubo otra víctima mortal, Joshua Brown, un conductor de un Tesla que también circulaba en modo autónomo, pero la compañía, tras una amplia investigación, fue hallada no culpable del accidente. 

¿Qué reflexión debemos hacer este tipo de casos? Obviamente y en primer lugar, lamentarlo: todo accidente es triste, pero la tasa de accidentalidad de los vehículos autónomos, por el momento, ha sido enormemente baja. En el tiempo que llevan los vehículos de diversas compañías haciendo pruebas en tráfico real, se ha producido un número enormemente reducido de accidentes, muy inferior al que, durante el mismo tiempo, han producido vehículos con conductor. Toda tecnología produce accidentes, y lo único que cabe esperar cuando se desarrolla y pone en marcha es que produzca menos que la tecnología anterior, como de hecho es el caso. De cada accidente, además de, lógicamente, responsabilizarse adecuadamente, habrá que aprender las lecciones adecuadas para que estos se produzcan las menos veces posible.

Pretender que los vehículos autónomos son un peligro porque ha habido un accidente es completamente absurdo. Imponer muchos más controles o de manera más rígida, teniendo en cuenta que el accidente ha sido completamente excepcional y que, obviamente, nadie tiene interés por relajar de manera excesiva las medidas de seguridad, también lo es: los sensores de un vehículo autónomo pueden ser mucho mejores que una persona a la hora de captar lo que ocurre a su alrededor, pero eso no evita, en determinadas circunstancias, un accidente, ni pueden evitar, lógicamente, todos los accidentes.

Dicho esto, todo indica que Uber, seguramente la compañía para la que el desarrollo del vehículo autónomo resulta más crucial porque está en la base de su astronómica valoración, podría ser también la que más pudiese estar intentando acelerar su desarrollo, y las prisas nunca han sido buenas consejeras para este tipo de cuestiones. La tentación, en un tema en el que las mejoras se dan de manera progresiva a medida que los algoritmos acumulan cada vez más experiencia y kilómetros, puede ser la de poner en la calle vehículos que aún no se hayan visto expuestos a situaciones que, aunque poco probables, sí pueden tener lugar en la conducción cotidiana. El proceso para obtener vehículos cada vez más seguros y fiables es largo, y resulta difícil tomar atajos. Que los vehículos autónomos de Uber encabecen las estadísticas de accidentalidad en conducción autónoma, aunque sea derivado de un número muy escaso de incidentes, es decididamente una muy mala noticia para la compañía.

Para Volvo, fabricante del XC90 implicado en el accidente, las circunstancias tienen, aparentemente, pocas derivadas: la compañía, en este caso, pone el vehículo, pero el software que se utiliza para la conducción autónoma no es suyo, lo que impide, lógicamente, que pueda responsabilizarse de sus acciones. En su momento, la compañía sueca afirmó que se haría responsable de todo accidente que uno de sus vehículos pudiese tener cuando circulase en modo autónomo, pero lógicamente, se refería a sus propios vehículos y bajo el control de su propio software, como las pruebas que la compañía está desarrollando en Goteborg. Ayer, las miradas recayeron fundamentalmente sobre Uber como desarrollador del software que controlaba el vehículo, no sobre el fabricante del vehículo en sí.

¿Significará el accidente de Tempe una ralentización del desarrollo del vehículo autónomo, o conllevará decisiones legislativas que lo compliquen y lo conviertan en más complejo? Posiblemente sea así, pero sería un error. En primer lugar, porque parece difícil esperar una fuerte reacción colectiva en contra de esta tecnología: la mayoría de la sociedad parece estar de acuerdo en las ventajas de que los vehículos conduzcan de manera autónoma, tanto por los beneficios en términos de seguridad como por la reducción de otros problemas, como la conducción bajo los efectos del alcohol o la movilidad para personas con limitaciones físicas. El objetivo al que se pretende llegar con la conducción autónoma es tan apetecible para una sociedad en la que casi todo el mundo está en contacto con víctimas de accidentes de conducción, que eclipsa el hecho de que pueda haber algunos accidentes en la ruta hacia ese objetivo, accidentes que, por otro lado, acompañan al desarrollo de prácticamente cualquier tecnología. En segundo lugar, porque un vehículo autónomo no es una entidad: la entidad es la flota, los algoritmos se desarrollan a nivel de compañía, y el aprendizaje también tiene lugar a ese nivel. Limitar las pruebas en tráfico real implica ralentizar el progreso de la tecnología, y dificultar en gran medida el avance de una tecnología que sabemos perfectamente que va a estar ahí en el futuro, y que cada mes que se ralentice supone unas cuantas decenas o centenas más de víctimas en la carretera. Víctimas de conductores torpes, borrachos o irresponsables, no de máquinas como tales.

La decisión del gobernador de Arizona de convertirse en el primer estado que permitiese la conducción autónoma sin conductor de seguridad tras el volante tampoco parece especialmente cuestionable: no, el gobernador no ha puesto en peligro a nadie, dado que ese tipo de vehículos siguen demostrando ser esencialmente más seguros que los de conducción humana. Arizona, por su buen clima y su red de vías bien mantenidas, es un lugar ideal para desarrollar este tipo de tecnologías, y eso no equivale a convertir a sus habitantes en conejillos de indias, sino simplemente a pretender, en último término, protegerlos mejor mediante el uso de una tecnología más segura que la propia conducción humana.

De nuevo; toda tecnología es susceptible de causar víctimas. En una tecnología destinada a controlar una máquina de casi dos toneladas que transporta personas, es evidente que puede haber accidentes: lo que debe hacerse no es no desarrollar esa tecnología, sino intentar hacerlo de la manera más segura posible. Que haya un accidente no implica ni que esa tecnología sea mala o inviable – en este caso, menos aún – ni que deba detenerse su puesta en marcha. Los vehículos autónomos son el futuro, lo eran ayer antes del accidente, y lo siguen siendo hoy. Mantengamos la calma y que prevalezca el sentido común.

 

 

 

This post is also available in English in my Medium page, “Uber, Volvo and fatal accidents involving self-driving cars»

 

56 comentarios

  • #001
    Javi-C - 20 marzo 2018 - 08:45

    El enfoque en los medios es, en general, bochornoso. Seudoanálisis mezcla de ignorancia, superstición y tópicos.
    A mí me preocupa que los accidentes mortales se hayan producido en situaciones sin aparente complejidad, que parecen indicar la necesidad de mucho trabajo antes de la generalización de la tecnología.

  • #002
    Ignacio - 20 marzo 2018 - 09:17

    Buenas dias Prof. Dans,

    Descanse en paz Elaine Herzberg. Una noticia muy desafortunada para los que esperamos ansiosos poder ver un mundo de conducción autónoma.

    Por hacer de abogado del diablo, comentar que comparar el numero de accidentes entre conducción autónoma y conducción humana carece de sentido si no se estandarizan los datos.
    Habría que comparar «numero accidentes por Km conducido», y en ese caso igual la conducción autonoma no sale tan bien parada. Aun en ese caso la muestra es demasiado pequenia (especialmente las victimas mortales) para que las conclusiones puedan ser significativas.

    Saludos

    • Lucio M - 20 marzo 2018 - 16:44

      «Habría que comparar “numero accidentes por Km conducido”, y en ese caso igual la conducción autonoma no sale tan bien parada.»

      ¿Tienes los números? ¿Cuál es tu fuente? ¿Es una fuente seria?

    • Pedro Torres Asdrubal - 21 marzo 2018 - 13:10

      La culpa no fue del coche autonomo. La carretera es para coches, no para peatones que arrastran bicicletas por medio de la carretera.

      Recuerda que llevaba un conductor humano y ha dicho que solo se dio cuenta cuando noto el choque.

      En el futuro el sistema de tráfico sabrá que hay una señora en medio de la carretera y aminorará la velocidad del resto de coches tras avisar a la policía para que la saque de ahí.

      Un ejemplo de como la privacidad mata, pues un sistema como el que describo requerirá que compartamos datos.

      Fdo. Quien Google le dijo que su móvil estaba a 2 m del coche, en medio de los arbustos.

    • Javier Gómez Pérez - 23 marzo 2018 - 19:31

      Totalmente de acuerdo. Me gustaría saber cuántos kilómetros han recorrido los vehículos autónomos de Uber para poder comparar

  • #006
    FERNANDO BL. - 20 marzo 2018 - 09:39

    una mujer de 49 años, a pie, llevando de la mano una bicicleta… no creo que se moviera a la velocidad del rayo por mucho que cruzara por un sitio indebido, ni es un objeto pequeño, ni creo que el tráfico de una pequeña ciudad de Arizona a esas horas fuese infernal…

  • #007
    Fran - 20 marzo 2018 - 09:54

    Más allá de lamentar el suceso, lo realmente inquietante de este asunto es que esconde una complejidad que roza lo filosófico y la sociedad debe abordar. ¿Quién es, en este caso, el culpable/responsable de la muerte? ¿El (no-)conductor? ¿El peatón? ¿Uber? ¿El desarrollador?

    Puede parecer que aquí ha habido una imprudencia del peatón. Los que con frecuencia nos ponemos al volante en entornos urbanos sabemos que éstas suceden, lo que incrementa nuestra vigilancia para anticipar la situación. Los peatones lo tienen en cuenta. ¿También ellos deben aprender a convivir con el vehículo autónomo?

    • Germán - 20 marzo 2018 - 13:46

      Tal vez los peatones tengamos ciertamente que aprender a convivir con coches autónomos.
      No he estado en presencia de ninguno de ellos, pero probablemente la manera de «reaccionar» de ellos sea diferente a lo que tenemos asumido cuando una persona conduce un coche.

      • Xaquín - 20 marzo 2018 - 19:00

        Un conductor no deja de ser «un criminal en potencia». Pero un peatón tampoco deja de ser «un suicida en potencia».

        Los seres humanos aún tenemos pendiente la asignatura de adaptación al medio. Y «los algoritmos» también.

    • Krigan - 20 marzo 2018 - 22:14

      No, no hay que aprender nada nuevo. Basta con no ponerse a cruzar la calle cuando está pasando un coche.

  • #011
    Konamiman - 20 marzo 2018 - 09:56

    Los accidentes de avión son escasos pero muy mediáticos, y lo que nadie tiene nunca en cuenta es que cada accidente se estudia minuciosamente y resulta en la implementación de modificaciones técnicas o procedimentales para que no vuelva a ocurrir lo mismo, haciendo que volar sea cada vez más seguro.

    Pues con la conducción autónoma lo mismo, y yo diría que de momento la cosa va realmente bien teniendo en cuenta lo jovencísima que es la tecnología implicada.

    • Pedro Torres Asdrubal - 21 marzo 2018 - 13:14

      El avión es tan barato y tan cómodo, que no necesita convencer de que también es seguro.

  • #013
    Aurelio Llorente - 20 marzo 2018 - 10:25

    Por lo que dicen las noticias esta mañana, parece que esta señora cruzó sin mirar por un mal sitio, si en lugar de ese coche autónomo hubiese ido conduciendo un humano seguramente el resultado hubiese sido el mismo.
    La ventaja de la conducción autónoma es que analizarán si poniendo sensores laterales, o con cambios de software, se puede reducir el riesgo y si es así, lo implantarán, en todos los modelos, con lo que será casa vez más difícil que se produzcan accidentes similares.

  • #014
    Preikestolen - 20 marzo 2018 - 10:32

    Teneis razón en que no son justas las comparaciones.

    pero la realidad es simple:

    Si con tan pocos coches autonomos ya ha habido un accidente o dos o 300: la tecnologia del coche autonomo, sus implicaciones: seguros, responsabilidad civil quien la asume (seguro, fabricante, creador sistema robotico, automatizzador) NO Está Preparada AUN y le falta MUCHO.

  • #015
    Pablo - 20 marzo 2018 - 10:41

    Me ha gustado el artículo, pero he echado de menos alguna mención a que puede que el accidente fuese inevitable. Si una persona salta inesperadamente delante de un coche, no hay humano ni máquina que lo libre del atropello. Quiero decir que podría ser que el accidente ni siquiera tenga nada que ver con el hecho de que sea un coche autónomo o no.

  • #016
    Roberto - 20 marzo 2018 - 11:26

    «Se ha producido un número enormemente reducido de accidentes, muy inferior al que, durante el mismo tiempo, han producido vehículos con conductor». «La tasa de accidentalidad de los vehículos autónomos, por el momento, ha sido enormemente baja».
    Estaría bien que acompañase esa información con datos y estadísticas claras, y que también citase las fuentes. ¿No cree? Un saludo.

    • Miguel - 20 marzo 2018 - 18:57

      Algunos números: la tasa de víctimas en accidentes de tráfico en Estados Unidos es de 1.18 muertes por 100 millones de millas conducidas. En noviembre Waymo anunció que habían alcanzado 4 millones de millas conducidas, y Uber alcanzó los dos millones de millas en diciembre. Sencillamente, no hay suficientes datos para poder evaluar la tasa de víctimas mortales de los vehículos autónomos. Hay razones para pensar que mejorará la tasa actual, pero por ahora no se sabe. Quizá la tasa de accidentes sin víctimas mortales dé pistas, no tengo los datos a mano.

      • Krigan - 20 marzo 2018 - 23:28

        Gracias por las cifras, es siempre de agradecer que alguien aporte datos, pero la cifra de los 1,18 muertos, ¿es realmente pertinente?

        Se debería tomar la cifra de muertos causados por coches autónomos, no la cifra total de muertos sin tener en cuenta quién causó el accidente.

        De acuerdo en que todavía no hay datos suficientes, ni para la tasa que dijiste ni para la que he dicho. Más aún, la gran mayoría de esos 4 millones de millas de Google fueron con conductor de seguridad.

  • #019
    Luis Bárcenas - 20 marzo 2018 - 11:32

    Parece que en 1896 se produjo el primer accidente de tráfico con víctimas y no por eso dejó de desarrollarse, hasta hoy, el motor de explosión.
    Por lo tanto, debemos desdramatizar el asunto, dentro de lo lamentable que es perder vidas humanas y este suceso no ha de ser la excepción.

    Sin embargo, que UBER esté involucrada a mí me da que pensar. Una empresa que compite deslealmente siempre que puede, que juega sucio contra sus competidoras, que explota a sus trabajadores… algo turbio hay en UBER y aquí yo diría que han buscado el resultado rápido a costa de minimizar las medidas de seguridad.

    Ganar dinero y rápido. Pasando por encima de quién sea. En este caso, en sentido literal.

    No tengo pruebas y esto no pasa de ser una opinión pero, lo siento, la reputación de UBER es cada vez peor. Siempre están en el centro de la polémica, son rechazados cada vez en más paises y la lista de demandas es creciente.

    Seguramente otras empresas seguirán desarrollando el coche autónomo y con éxito. Pero UBER… lo más lejos que se pueda.

  • #020
    JJ - 20 marzo 2018 - 11:51

    «En su momento, la compañía sueca afirmó que se haría responsable de todo accidente que uno de sus vehículos pudiese tener cuando circulase en modo autónomo, pero lógicamente, se refería a sus propios vehículos y bajo el control de su propio software, como las pruebas que la compañía está desarrollando en Goteborg»

    Volvo fue sueca hace tiempo pero ahora es China.

    Geely, dueña de Volvo, primer accionista de Daimler

    En cuanto a la responsabilidad en el accidente mortal, creo que Uber es responsable, pero también lo es Geely-Volvo como proveedor del coche en la medida en que tienen un acuerdo con Uber.

    El accidente, afecta también a la marca Volvo. Y a Geely. Me parece innegable. Geely sabía que si un Volvo de Uber tenía un accidente fatal, sus marcas se verían implicadas, pues los de Uber no saben nada de coches (ni autónomos ni convencionales) pero se supone que Geely sí sabe y es la que asesora a Uber.

    Otra cosa es el software y los sensores. Pero aquí también se puede abrir un debate: quién mató a Elaine Herzberg; el coche o el fallo del software?

    • JJ - 20 marzo 2018 - 12:04

      He tenido problemas para conectar al blog.

      Repito el enlace

    • Aurelio Llorente - 20 marzo 2018 - 12:11

      ¿O tal vez la propia Elaine?
      A la espera de ver las conclusiones de la investigación, no conviene dar por hecho nada.

      • JJ - 20 marzo 2018 - 13:57

        Supongo que Geely-Volvo y Uber intentarán por todos los medios culpar del accidente a los eslabones débiles: la conductora Rafaela Vásquez y/o la víctima Elaine Herzberg…

        Uber car kills Arizona Woman

        • Carlos Quintero - 20 marzo 2018 - 14:33

          En aviación la investigación no la realiza la compañía propietaria del avión, sino un organismo nacional independiente que emite un informe. Es de esperar que en la conducción autónoma sea así.

          Las compañía aérea involucrada a veces discrepa de las conclusiones del informe pero da igual, el informe va a misa y sus medidas se implementan.

        • Gorki - 20 marzo 2018 - 16:18

          Cob toda seguridad la culpa fue de la bicicleta

    • Asier - 20 marzo 2018 - 12:16

      ¿Y si la responsable fue la propia Elaine Herzberg? Sabemos que cruzaba la carretera por una zona no señalizada.

      Lo siento pero, a falta de esclarecer bien lo sucedido, es un error dar por hecho que la responsabilidad recae sobre el coche o el software. En el caso del accidente de Tesla la compañía fue hallada no culpable.

      • Gorki - 20 marzo 2018 - 14:31

        ¿Insinúas que por el hecho de introducirse indebidamente en la calzada, el peatón puede ser cazado cuan conejo por un coche que circule, porque no «es culpa» del piloto el que esté en la calzada?.

        • Carlos Quintero - 20 marzo 2018 - 14:47

          Asier insinúa que se está dando por hecho que el coche pudo evitar el atropello y que no lo hizo por un fallo propio, cuando no ha finalizado la investigación. Puede ser que sí o puede ser que ni un conductor humano hubiera podido evitar el fatal desenlace en las mismas circunstancias. La investigación lo dirá. Nada más.

        • Asier - 20 marzo 2018 - 16:55

          De ninguna manera, habrá que evitar los atropellos y accidentes en la medida de lo posible, pero si me meto en las vías del tren y el tren me atropella, nadie se plantea si la culpa es del tren…

          • JJ - 20 marzo 2018 - 17:44

            El ejemplo del tren no tiene valor porque por las vías (salvo para cruzarlas) solo pueden circular los trenes.

            No se puede comparar con calles, ni con vías, ni siquiera con autopistas.

            Incluso, aunque fuese una vía en la que estuviese prohibido circular en bicicleta. O aunque la persona fuese caminando…

            El coche autónomo debe anticiparse evitando los accidentes. Si se dice que es mas seguro un coche autónomo que otro conducido por un ser humano esto debe ser demostrado. Es decir, que no debe tener la posibilidad de cometer los mismos errores u otros.

            Tampoco vale aquí la excusa de: «con un coche con conductor también hubiera ocurrido el accidente mortal».

        • Aurelio Llorente - 20 marzo 2018 - 17:52

          Bueno, en realidad son las leyes de la física. Si te metes delante de un coche sin distancia suficiente para que su conductor pueda reaccionar y frenar, no puedes culpar al conductor. Un trozo de chatarra de 2 toneladas a cierta velocidad no se detiene instantáneamente, por mucho derecho que tengas a salir a la calzada.

          • JJ - 20 marzo 2018 - 19:14

            Aquí, hasta ahora, se habla de un accidente y no de suicidio.

            Las leyes de la física existen y quizás también por eso para tener derecho a conducir un coche hay que pasar antes por unos exámenes y aprobarlos.

            El conductor de un coche es responsable del mismo.

            Quién es el responsable legal aquí? Quién es el responsable del coche en este accidente?

            Si la familia de la difunta cree que hubo negligencia por parte del coche sin conductor; a quién tiene que demandar?

          • Krigan - 20 marzo 2018 - 23:10

            Aquí, hasta ahora, se habla de una peatona que se puso a cruzar la calle, sin haber paso de peatones, cuando pasaba un coche. Al menos eso ha dicho la policía, aunque seguro que tú piensas que han sido sobornados por Uber.

            Podrías aprovechar que en España todavía no hay coches autónomos, solo conductores humanos, e imitar el ejemplo de la difunta. Lo digo más que nada porque suena un poco falso decir que no pasa nada por cruzar la calle sin mirar, cuando resulta que tú mismo la miras siempre.

  • #034
    Gorki - 20 marzo 2018 - 12:23

    La pregunta es ¿Cuanto retrasará la incorporación generalizada del coche autónomo a las calles y carreteras?

    La otra pregunta es ¿Es posible un coche en nivel 4? O lo que es lo mismo, un conductor de «guardia», reacciona a la suficiente velocidad cuando falla la conducción automática?

  • #035
    TORONJIL - 20 marzo 2018 - 12:25

    ¿Hora de implementar las tres leyes de la robótica en los procesadores neuronales de los sistemas de conducción autónoma?

    • Enrique Dans - 20 marzo 2018 - 12:39

      Las leyes de la robótica son ciencia ficción, no son implementables. Son excesivamente ambiguas. El análisis de circunstancias en algoritmia no puede hacerse con «frases hechas» ni con conceptos humanos, hay que reducirlo a lenguaje de máquinas…

      • Germán - 20 marzo 2018 - 13:51

        Por el momento es así, pero me pregunto si en un futuro (lejano?), cuando IA reales, con «consciencia» sean conductores, ¿entonces la responsabilidad del accidente, y único culpable, sería «ella»? ¿Y el resultado sería que la tendrían que «apagar»? O tal vez el castigo sería proporcional al grado de «consciencia»?…

        • Enrique Dans - 20 marzo 2018 - 14:32

          No funciona así. Una IA nunca será, como tal, un conductor. Es parte de un sistema que actúa coordinadamente, aprende de todos sus integrantes y aplica el aprendizaje de todos los elementos del sistema. De lo que «ve» cada coche aprenden todos, de los que «deduce» el algoritmo, se benefician todos. Un coche no es un sistema aislado ni lo que lo conduce es un ente independiente o «responsable de sus actos», es otra cosa. Son redes hiperconectadas en tiempo real, todo el sistema es responsable de lo que hacen cada una de sus partes en cada momento.

      • TORONJIL - 20 marzo 2018 - 14:14

        Pero piensa en los desarrollos de AlphaGo Zero… Se les alimenta con las reglas de juegos como, por ejemplo, el ajedrez o el Go y con un único objetivo: acabar con el rey contrario en el caso del ajedrez. O ganar más territorio que el oponente en el caso del Go.

        En el caso de algoritmos neuronales para coches autónomos, se les alimentaría con las reglas de circulación + los mapas + experiencia de las redes de vehículos (con y sin conductor) y con algunos objetivos:

        En este caso el objetivo principal sería proteger la vida de las personas.

        Otro objetivo, pero mucho menos importante sería, por supuesto, llevarte a tu destino, por el mejor camino posible. También procurar que tu vehículo y otros no sufran desperfectos.

        No es tan diferente de lo que hace AlphaGo Zero ya.

        Sí, ya sé que a diferencia de los dos juegos que he mencionado al principio, en los que no hay lugar al azar, en lo referente a la conducción autónoma SÍ que interviene el azar.

        Pero es que el azar, en forma de probabilidades, también se puede incorporar a la teoría de juegos. Como se ha demostrado con máquinas que ganan a los mejores humanos al Póker.

        De todas formas, sí, parece que el objetivo no se pueden implementar a día de hoy completamente todavía.

        Pero seguro que ya hay visionarios que, como Asimov, prefiguran los siguientes pasos que se tomarán.

  • #040
    marcelo - 20 marzo 2018 - 12:56

    Es que eso de obligar al «conductor» a sentarse delante del volante es de una estupidez dificilmente descriptible: o estás conduciendo o no estás conduciendo, lo que no se puede pretender es que un coche se conduzca solito y a la vez un humano esté monitorizando y corrigiendo esa actividad en décimas de segundo cuando algo salga mal, porque tienes el caos garantizado. En el desgraciado caso que nos ocupa, se supone que la «conductora» del Volvo debía estar atenta a todo lo que hace el coche y pasa a su alrededor y actuar si ve algo raro? No se suponía que los sensores eran mejores que las personas en estos menesteres? Cuándo actuar y cuándo no? Porque igual si el humano actúa por su cuenta pasando de lo que le dice el coche, es cuando provoca un accidente…

    • Gorki - 20 marzo 2018 - 13:52

      Estoy contigo. Lo razonable es que el conductor lleve el vehículo de forma normal y con con todas las consecuencias de sus actos y que cuando el equipo autónomo «disintiera» de las medidas tomadas por el conductor, se estudie cuales son las medidas más adecuadas y si las adecuadas, son las humanas. se corrigiera el software. Hasta conseguir que el software tome las medidas adecuadas en un 98% de los casos.

      Llegado este punto o el que se considere oportuno, permitir ir al coche sólo saltandose el nivel 4 que me parece peligrosisimo, en ninguno de los dos casos de muerte ha valido para nada.

      Pretende que un señor, cada 1000 km recorridos, esté atento para de repente, se ponga al frente de los mandos, es decir una vez cada tres días, es absolutamente tonto.

      Imaginaté si estas en casa y de repente, llaman a la puerta de tu casa, ¿cuanto tardas en reaccionar?, pes lo mismo tardara el «conductor» de guardia-

    • Krigan - 20 marzo 2018 - 22:44

      Coño, que es una conductora de seguridad. Su trabajo consiste precisamente en tomar los mandos si observa cualquier comportamiento inadecuado del coche autónomo en pruebas.

  • #043
    Matt - 20 marzo 2018 - 14:25

    Que una compañía que ya ha demostrado ser capaz de cualquier cosa y la más firme practicante del «todo vale» (ayer mismo tambien leíamos como fuerza con clausulas a las mujeres que denuncian violaciones de sus conductores a resolverlo con acuerdos confidenciales en vez de acudir a los tribunales, por lo que tu conductor de Uber puede perfectamente ser un violador ya que está por ver lo que hacen con estos tipos) como Uber esté tan interesada en acelerar el desarrollo de la conducción autónoma me parece una noticia muy preocupante para los habitantes de las ciudades por las que paseen sus coches.

    Y es cierto que en todo este tiempo que ha pasado sin victimas mortales en la conducción autónoma habrá muerto mucha más gente en accidentes de vehículos conducidos por un conductor humano … pero no olvidemos que coches autónomos hay infinitamente menos que conducidos por humanos.

  • #044
    marcelo - 20 marzo 2018 - 15:46

    No puedo dejar de comentar la ironía que supone utilizar ese monstruoso Volvo (a gasolina, no? oleeeeeé über, mirando al futuro) para mover a una sola persona. No se suponía que esto de los robotaxis sería algo más eficiente que el desastre actual? Por qué no utilizarán Toyotas Yaris adaptados o vehículos nuevos de 2 plazas en vez de esas grotescas máquinas de 2000 kilos semivacías que ocupan más, contaminan más y meten más ruido?

  • #045
    JJ - 20 marzo 2018 - 20:16

    Este accidente ha sido portada en muchos periódicos.

    Pero me comentan que, al parecer, la noticia ha sido ignorada completamente en los principales telediarios (por lo menos en los españoles).

    Sabemos que se paga por la publicidad. Quizás en ciertos casos ocurra lo mismo con el silencio.

    • Carlos Quintero - 20 marzo 2018 - 22:04

      Yo no estoy ahora en España ni veo telediarios, pero mi padre me escribió un correo a las pocas horas del offtopic de Gorki porque lo había visto en el telediario de la noche de Antena 3.

      Respecto al resto, lo prudente es esperar a las conclusiones de una investigación independiente.

      • JJ - 20 marzo 2018 - 23:33

        No me refiero a los telediarios de anoche sino a los de hoy. Los de las 14 y 15 hrs. y los de las 20 y 21 hrs.

        Me parece que los de A3, La1, Telecinco y LaSexta no han dicho nada del tema. Quizás habría que investigarlo pues es un tema de portada para cualquier telediario.

        Coincido en que es prudente esperar a una investigación independiente (si es que esto es posible).

        • JJ - 20 marzo 2018 - 23:46

          He dicho que es prudente esperar una investigación independiente, pero parece que no hará falta.

          La culpa es de la víctima.

          Hay grabación de los hechos.

          «…se puede afirmar que este primer accidente mortal documentado producido por un vehículo completamente autónomo no tuvo la culpa el vehículo sin conductor, sino la persona arrollada, y simplemente hubiera sido imposible evitar el resultado dadas las condiciones de la situación (la oscuridad y la repentina salida a la carretera)».

          ver enlace

          La verdad es que yo pensaba que los coches autónomos veían en la oscuridad, pero parece que en eso son como los humanos.

          • Carlos Quintero - 21 marzo 2018 - 00:32

            No es la declaración de Sylvia Moir, jefa de la policía de Tempe (que parece despacharlo como «inevitable»), la que hay que leerse, es el informe que emita la NTSB, de donde saldrán toda una serie de recomendaciones y/o obligaciones a los fabricantes para que ese tipo de accidente no vuelva a ocurrir.

            Aunque la «culpa» haya sido una imprudencia de la fallecida, no basta conformarse con la «inevitabilidad». Hay que plantearse qué se puede mejorar para que al menos el resultado no sea de muerte. ¿reducir la velocidad por debajo de lo permitido en zonas oscuras? (esto un humano no lo respetaría pero un coche autónomo sí)? ¿Más o mejores sensores para la oscuridad? ¿Emitir un sonido periódico? Ni idea, pero ya nos enteraremos.

          • Krigan - 21 marzo 2018 - 01:13

            Carlos Quintero:

            100% de acuerdo. Tan solo añadir un detalle, y es que el hecho de que la fallecida tenga su «culpa» no implica necesariamente que Uber esté exento totalmente de ella. Para la jefa Moir viendo un vídeo la peatona ha podido surgir de repente, pero esos coches llevan lídar, así que la oscuridad no debería ser un problema.

            Me inclino a pensar que no hubo tiempo a frenar, porque me resulta extraño que fallasen tanto el sistema autónomo como la conductora de seguridad. Pero tan solo se sabrán con exactitud y seguridad todos los detalles de lo ocurrido cuando concluya la investigación.

        • Carlos Quintero - 21 marzo 2018 - 00:12

          No te puedo decir más sobre los telediarios. Me parecería raro que no lo hubieran sacado en las noticias principales porque es algo muy mediático. Pero no soy muy dado a conspiraciones.

          Respecto a la investigación, se está haciendo cargo la NTSB (National Transportation Safety Board), la misma que investiga accidentes aéreos, de tren, marítimos, mercancías peligrosas, etc. en Estados Unidos. El rigor y la independencia los tienes garantizados.

          • JJ - 21 marzo 2018 - 00:29

            Hombre, si quieres ver una conspiración porque en los telediarios no hayan sacado hoy el tema no coincidimos. A mí me resulta un hecho curioso teniendo en cuenta el impacto de la noticia.

            Luego, habrá que ver porque el Volvo de Uber iba con exceso de velocidad. Error de programación?

            Y sobre la falta de visión nocturna que habría ocasionado el accidente, BMW ya había desarrollado un sistema…

            aquí

  • #053
    José Luis de J - 20 marzo 2018 - 22:59

    Independientemente de que estemos o no a favor o en contra de la tecnología capitaloide, la que antepone resultados a cualquier cosa, cualquier sensor de temperatura para una distancia de varios kilómetros, no cuesta más de 100€ si solo comprases uno.¿ va a resultar que la bicicleta estaba fría y la mujer muerta antes del atropello?…. ignorancia supina ja ja ja,! A nadie oigo hablar de controles¡, así, los jueces fallan a favor de las compañias, ignorancia supina…

  • #054
    Mauricio - 20 marzo 2018 - 23:11

    Los autos autónomos, tal como lo he expresado anteriormente, podrían contribuir a que baje la cantidad de accidentes ocasionados por el conductor, pero poco podrán hacer ante las situaciones en las cuales la culpa recaiga totalmente en el peatón.

    Todo vehículo necesita de un cierto número de metros para detenerse y si el peatón cruza la calle dentro de un rango de metros inferior al de la distancia mínima de frenado del vehículo que se le acerca, entonces el accidente puede resultar inevitable, independientemente de que el auto sea autónomo o no.

    Por otro lado, Krigan ha expuesto muchas veces las posibles ventajas de los taxis robóticos, entre las que estaría un precio muy económico para el usuario por kilómetro recorrido, pero lo que Uber estaría haciendo al utilizar los Volvo XC90 se parece más a lo que algunos hemos pensado que harían las empresas dueñas de dichos vehículos, es decir transformar los taxis autónomos en un servicio exclusivo.

    • Carlos Quintero - 20 marzo 2018 - 23:44

      Estamos muy lejos aún de saber los posibles modelos de negocio que se van a desarrollar en torno al coche autónomo y, en particular, de lo que va a haber donde vivimos cada uno (que es lo que realmente nos interesa) y de cuándo.

      Pero lo normal, cuando se produce una innovación, es que inicialmente no sea precisamente barata, porque hay que empezar a recuperar los costes de investigación y desarrollo y porque hay gente dispuesta a pagar un precio elevado (que para ellos no lo es). Con el tiempo, las economías de escala y la competencia, los precios bajan a niveles asumibles por todo el mundo, incluidos los gratuitos basados en publicidad. Aunque siempre se mantiene una propuesta de valor premium para los que pueden pagar más.

    • Krigan - 21 marzo 2018 - 00:01

      Uber no es el mejor exponente, por diversas razones, incluido el hecho de que quien lleva una clara delantera sobre los demás es Google, no Uber. Google ya ha dicho que va a lanzar su servicio de robotaxis este año. A partir de ahí, podremos ver si la tarifa es o no mucho más barata que un taxi o un Uber con conductor humano. Digamos la mitad, para empezar. Posteriormente, la tarifa bajará todavía más.

      A 36 Km/h un coche recorre 10 metros en un segundo. Tan solo conque un coche autónomo empiece a frenar una décima de segundo antes que un humano, ya supone una diferencia de un metro. Habrá casos en los que el peatón imprudente se libre del atropello gracias a ese metro. En otros casos, la velocidad en el impacto será menor, y el peatón tal vez salve la vida (aunque acabe en el hospital) gracias a esa décima de segundo adicional frenando antes del impacto.

      Sí, ya sé, no se van a evitar todas las muertes de peatones imprudentes (que a veces son niños). Posiblemente tampoco la mayoría.

Dejar un Comentario

Los comentarios están cerrados