Coches autónomos y papel del conductor

IMAGE: Cheskyw - 123RF

Un estudio llevado a cabo en Stanford afirma que el momento de la transición entre conducción autónoma y la llevada a cabo por una persona plantea numerosos problemas de adaptación y que, de hecho, no debería plantearse simplemente como una alerta al conductor para que tome la responsabilidad de una tarea que hasta ese momento se había desarrollado de manera autónoma. El llamado handover, cuestionado por su seguridad y por representar una peligrosa ventana durante la que podría incrementarse la probabilidad de accidentes.

El estudio viene a cuestionar la ruta emprendida por la gran mayoría de la industria de la automoción, incluida Tesla: la idea de ir introduciendo la tecnología de conducción autónoma planteada como ayudas o asistencia a la conducción únicamente cuando esta se produce bajo determinadas circunstancias, sea en autopista, en determinadas zonas o en función de otros parámetros – incluida la atención del conductor – que pudiesen afectar al desempeño de los sistemas autónomos.

Al otro lado, la ruta seguida por Google, cuya iniciativa de conducción autónoma podría estar cerca de la graduación de Alphabet y de un posible spin-off que le aportaría seguramente una agresividad competitiva mucho mayor: la introducción de la conducción autónoma no como asistencia, sino como planteamiento radical, como retirada total de la intervención humana desde el principio hasta el fin de la actividad. La idea de que la única manera de garantizar la seguridad del transporte es retirar de la ecuación a unos humanos torpes e imprevisibles, cuya intervención es responsable de la inmensa mayoría de los accidentes, y a los que es mejor relegar al papel exclusivo de pasajeros, sin posibilidad de tocar ningún control que pueda influir en la marcha del vehículo, ni siquiera los clásicos pedales o volante. Una noción de transporte completamente desligada de las connotaciones de atención que tiene actualmente, y que liberaría ese tiempo para otras tareas, influyendo seguramente de manera radical en el planteamiento del interior de los vehículos.

Durante un tiempo, ambas concepciones han convivido en la mentalidad de los distintos participantes en este incipiente mercado. El planteamiento de la asistencia a la conducción ha dominado de manera masiva, basándose en el hecho de que, por un lado, provenía de compañías con mayor tradición y experiencia, y por otro, suponía una aproximación incremental, con muchas más posibilidades de introducción gradual y de ser aceptada por los propios conductores. Que los estudios planteen que la idea de que un vehículo alterne entre conducción autónoma y conducción manual es insegura y una fuente potencial de problemas es algo que podría plantear problemas a la introducción de estos sistemas: Tesla, por ejemplo, ya los ha tenido en algunos mercados como Alemania, en los que se le exige que no presente su sistema bajo el nombre Autopilot, incluso aunque el sistema requiera cada vez de un nivel de intervención humana más bajo. El papel de otros fabricantes procedentes no de la industria automovilística, sino de la tecnológica, como Apple, es aún una incógnita, como suele ocurrir con los planes de la marca de la manzana, pero todo parece indicar que su interés se mantiene.

Una posible victoria de los planteamientos de Google, compañía que nunca se ha planteado la fabricación de vehículos sino la licencia de su tecnología, situaría a la compañía en un posible liderazgo tecnológico que podría, hipotéticamente, garantizarle unas buenas posibilidades a la hora de ofrecer su tecnología a otras empresas, lo que podría justificar un cierto nivel de optimismo en la transición desde la fase experimental a la comercial. Por otro lado, una caída en desgracia de los sistemas basados en el handover podría significar un retraso de los planes para muchas compañías de la industria de la automoción, lo que posiblemente redundaría en un un retraso global de los planes a nivel global y una fase de adopción sensiblemente más lenta.

Sin duda, el cálculo de escenarios en este tema resulta cada día más complejo. Pero lo que cada día parece más claro es que ya no hablamos del qué, sino simplemente del cuándo. Que sean cuatro, cinco o diez años es ya simplemente un matiz.

 

 

This article is also available in English in my Medium page, “Self-driving cars and the role of the driver»

 

39 comentarios

  • #001
    Jose Antonio Garcia - 8 diciembre 2016 - 12:02

    Un estudio llevado en mi casa dice que ya se están poniendo la venda antes de la herida. No hay coches autónomos circulando, salvo labs, y ahora resulta que si hay más accidentes va a ser culpa de las personas… panda de manipuladores… y aqui las ovejas…

    Beeeehhhhh !

  • #002
    Jose Luis - 8 diciembre 2016 - 12:14

    Buen articulo, pero una cuestión, Google quiere quitar el factor humano de la ecuación, pero tengo una duda, quien desarrolla el sistema, inteligencia artificial, big data, machine learning, etc. NO, al final son los humanos quienes desarrollan los sistemas, por lo que la posibilidad de error y fallo esta en el ADN del sistema. Los sistemas autónomos en la aviación o en el sector ferroviario, están mucho más avanzados que en la automoción y el factor humano hay que tenerlo en cuenta. Desde el sector de la seguridad informática, ya se ha dado la voz de alarma, pero como siempre pasa, esas advertencias no se tendrán en cuenta hasta que, por otro lado, pase lo inevitable.

    • Carlos Quintero - 8 diciembre 2016 - 15:05

      No es lo mismo el fallo humano por descuido al conducir o tomar el control, que es difícil que tienda a ser menor, que el fallo humano en programación, ajuste de algoritmos, etc. que cada vez tiende a ser menor. Un ejemplo claro se ha dado en el reciente campeonato del mundo de ajedrez: la computadora oficial del campeonato podía «fallar» al evaluar las posibilidades de victoria en la fase media de una partida, pero no fallaba ni una posición ganadora. En cambio, tanto el campeón como el aspirante humanos fallaron posiciones claras «por descuido», al no ver la jugada clave.

      • Jose Luis - 8 diciembre 2016 - 15:45

        En una partida de ajedrez, las variables a controlar son un numero pequeño, las piezas de ajedrez. Y estas a su vez están limitadas a una zona muy pequeña, el tablero. Las variables que entran en juego en la conducción autónoma son infinitas, y el campo de acción no digamos. Cualquier, pequeño error de codificación puede llegar a tener consecuencias fatales. No es lo mismo un fallo, por ejemplo y hablando de la misma empresa, en el desarrollo de Android, que un fallo en un sistema donde puede causar daños físicos a personas. La conducción como la plantea Google, no creo que sea factible. Los trenes, que es un escenario más controlado, solo pueden ir por las vías y punto, o en el caso de la conducción del metro, que es muy difícil que se encuentren obstáculos no controlados, están completamente supervisados por una persona in situ.

        • Carlos Quintero - 8 diciembre 2016 - 19:48

          No estoy comparando conducir con jugar al ajedrez (donde, por cierto, las variantes son de facto infinitas para la computación actual). Me estoy refiriendo a que aunque los fallos no intencionados de programación existen (y los provocados por crackers también), los fallos de los conductores son mucho más frecuentes, y los vemos todos los días en las carreteras, tanto por imprudencias como por despistes. Y es discutible que los conductores humanos reaccionen siempre acertadamente (o mejor de lo que lo puedan llegar a hacer los coches autónomos) a los imprevistos que puedan surgir en la carretera.

          Lo de los trenes y el metro ya se ha comentado otras veces en el foro, creo que Gorki, y se debe a una legislación que obliga a que haya un conductor, no tanto a la imposibilidad técnica de conducción autónoma.

          Yo creo que la conducción autónoma está aún en pañales, pero que es cuestión de tiempo (años) que sea «igual de buena o mejor» que la conducción manual. Tema aparte es que no consintamos ni un fallo a los coches autónomos y exijamos 100% de fiabilidad, cosa que sí hacemos a los conductores humanos.

          • Gorki - 8 diciembre 2016 - 20:55

            Lo de los trenes y el metro ya se ha comentado otras veces en el foro, creo que Gorki, y se debe a una legislación que obliga a que haya un conductor,

            No fui yo, lo desconozco, pero se de algunos metros que van sin conductor, creo recordar por ejemplo que el trenecito que une la T1 y la T4 en Barajas va sin conductor y no se si en Barcelona hay otro. En estos casos considero mas seguro el sistema automático que un conductor, que pudiera marearse o darlo un infarto. De hecho se que tiene que ir pisando un pedal para asegurarse precisamente que están conscientes, pero como es una pesadez, mucho ponen un peso sobre el pedal..

            Lo que si es posible que los sindicatos no lo permitan. Los trenes en Inglaterra estaban todos electrificados por los años 60 y seguían llevando un fogonero. por exigencias de los sindicatos y así continuaron hasta que los mismos sindicatos exigieron que los sacaran, porque como no tenían nada que hacer aprovechaban para leer o dormir en la cabina y distraían y daban envidia a los maquinistas.

    • Lucio M - 12 diciembre 2016 - 17:46

      NO, al final son los humanos quienes desarrollan los sistemas, por lo que la posibilidad de error y fallo esta en el ADN del sistema.

      Es correcto, pero a diferencia de la conduccion humana, un sistema de conduccion automatizada ya no vuelve a cometer el mismo error dos veces. Se hacen ajustes al algoritmo, y todos los autos ya estan preparados ante tal eventualidad. Tesla ya ha estado en esos escenarios. Intenta eso con conducción humana ;-)

  • #008
    Gorki - 8 diciembre 2016 - 15:31

    Hay dos caminos para introducir el coche autónomo 100%: Uno es utilizar la conducción automática cuando las condiciones lo permitan, y en el resto la conduccion manual y otra es permitir la conduccion automática 100%, pero sólo en los trayectos que lo permitan, El primer ejemplo es elque sigue Tesla y el segundo el de Google,

    De ambos modelos temos ya aparatos desde hace años, sin que nos hayamos dado mucha cuenta, Los ascensores y las vagonetas de lqs Montañas Rusas circulan sin conductor, asi como tenemos miles de aviones funcionando con piloto automático.

    Unos y otro sistema presentan sus problemas, en la conducción 100% es el preparar las carreteras adecuadamente para que circulen esos vehiculos y no se introduzca en ellos un elemento extraño, lo caul es muy caro, Aun de vez en cuando se produce una accidente porque un jabalí o una vaca cruzan una carretera. Y en el segundo, es cierto que resulta problemático el traspaso de poderes entre el piloto automático y el piloto físico, pues supongo que un piloto, medio dormido en la ruta de España a Australia, que lleva hora sin tener nada que hacer, debe necesitar un cierto tiempo para hacerse cargo de la situación ante una incidencia, inesperada. Pero lo cierto es que los aviones vuelan con piloto automático y pese a los accidentes, siguen siendo, (salvo en lo relativo a la puntualidad),.el más seguro medio de transporte, Así que este problema también tiene algún tipo de solución.

    Pienso yo que, así sera como, poco a poco, penetrará la conducción automática. Ya hemos empezado con el cambiio automático, el abs, y el aparcamiento automático, Avances que como los de Tesla, entran por la gama alta y poco a poco llegan a todos los vehiculos, por que no primero el automatismo de la conduccion en autopistas, (ya casi cinseguido ) y luego siguiendo un coche con conductor, (como ya hacen los camiones). Es el camino que veo más fácil y con menos inversión, pese a todos los rtiesgos que pueda suponer. También es arriesgado conducir manualmente.

    El otro le veo constreñido a transportes publicos por ciudades o como autobuses de cercanias, y solo por rutas especialmente preaparadas para ellos, ( que puede que no sean exclusivas como las del tre sno compartidas con otro vehículos).

    • Jose Antonio Garcia - 8 diciembre 2016 - 15:43

      voto porque entre… pero poco a poco…
      ya hay bastantes elefeantes humanos en la cacharreria…

      Lo de que las carreteras o los conductores no estemos preparados, es para hacérselo mirar, si entra un robot a conducir será con los mismos problemas que nos enfentramos los humanos, tócate los coj… ahora tenemos que conducir de acuerdo a lo que un programa chapucero es capaz de hacer…

    • Jose Luis - 8 diciembre 2016 - 15:51

      Una conducción asistida puede ser factible. Pero una completamente autónoma no creo. Los ejemplos que has puesto son en un escenario controlado, un circuito cerrado, si posibles alteraciones de este. En la vía publica hay muchas cosas que controlar,. La película Yo robot, muestra muchos de estos problemas

      • Gorki - 8 diciembre 2016 - 20:35

        Podia haber tomado otros ejemplos mas afortunados, de conducción automática, Yo he visto en un banco un sistema robotizado de cambio de «tarteras» de memoria de los mainframes, En la sala donde actuaban no se podía entrar porque ellos se movían a razón de 30 Km por hora tomando y dejando las «tarteras». Esto era por los 90, supongo que ya todo aquello no debe existir, porque toda la información cabe hoy en unos cuantos discos duros y se tiene permanentemente en linea para los procesos On-line

        También en el almacén de Cortefiel que hay en Fuencarral (pueblo) había unos carritos para el picking de ropa que iban solos tomando y dejando las «borriquetas» llenas de ropa. Entonces (años 90) esos carritos se «programaban» a mano poniendo en I/O un tablero de switch. Supongo que tampoco existe ese sistema, al menos yo hoy, utilizando Arduino soy capaz de programarlos directamente por wifi desde la aplicación de almacén.

        Como ves, son vehiculos que circulan ·»ibremente» pero siempre por lugares mas o menos amplios, pero previstos para que circulen por ellos.

        Por eso lo que si veo posible, en un futuro mas o menos próximo, es prepararlos para que circulen por zonas especiales peatonizadas , donde el único riesgo externo sea un señor o un obstáculo que esta en su ruta, porque los otros vehículos se controlan entre si.

  • #012
    marcelo - 8 diciembre 2016 - 17:06

    El gran problema (grandísimo) del modelo Google que yo veo es que para que funcione de verdad el ser humano debe ser eliminado de la conducción activa, y esto provocará una RADICAL oposición de una parte importante de la población americana, unos por motivos relativos a su tan querida «libertad individual», otros por desconfianza, otros por motivos económicos y muchos por el enorme apego emocional que tienen por sus coches y la conducción de los mismos, amén de ser una parte importantísima de la cultura e industria yankis. Intenten quitarle su pick up a Randy de Texas, o su Corvette a Billy de Georgia o su Harley a Mike para meterlos en un huevo autónomo de google y te pegarán un tiro sin dudarlo. Y esta resistencia durará décadas hasta que se extinga la pasión por la gasolina y el volante.

    En Europa no creo que la situación fuese tan grave ni la resistencia tan salvaje, pero sin duda también costaría lo suyo y llevaría años y años. Así que supongo que lo mejor sería que se centrasen en sistemas donde humanos y máquinas compartan el asfalto porque me parece que la conducción 100% autónoma no es factible.

  • #013
    Pepe Perez - 8 diciembre 2016 - 19:05

    Pienso que el modelo a seguir es el de Singapur.

    Aprovechando la moda de peatonalizar el centro de las ciudades se pueden introducir taxis completamente autónomos en una zona bien acotada y mapeada. A partir de ahí según los resultados obtenidos se podrá ir creciendo poco a poco.

    Lo de la conducción asistida de Tesla lo veo muy peligroso. El conductor vigilante terminará confiándose excesivamente, dejará de prestar atención y en un momento dado puede suceder algo gordo.

    Y la convivencia entre hombres y máquinas me produce importantes escalofríos.

    • Carlos Quintero - 8 diciembre 2016 - 20:07

      Yo veo tres modelos:

      1. Conducción autónoma 100%, sin posibilidad de conducción humana: el modelo de Google.

      2. Conducción autónoma «a ratos»: el modelo de Tesla. Efectivamente yo lo veo el más peligroso si requiere estar siempre alerta por si hay que «tomar el control», como los pilotos de avión con el piloto automático puesto. Tema distinto es si hay tramos de un trayecto (ej: autovías) en las que el coche autónomo garantiza que el conductor humano no va a tener que tomar el control.

      3. Conducción asistida: el conductor humano siempre conduce, pero está asistido en todo momento por el ordenador, que le indica posibles peligros, velocidad adecuada, ángulos muertos, peatones, etc. y en caso necesario reduce velocidad, frena por él, etc.

      Yo prefiero el 1, pero si la gente no quiere dejar de conducir prefiero el 3, pero nunca el 2.

  • #015
    Krigan - 8 diciembre 2016 - 22:34

    Los coches de Google ya han conducido 2 millones de millas (3,2 millones de Km), con tan solo 14 pequeñas colisiones (una cada 230.000 Km), y tan solo una de esas colisiones fue culpa del coche de Google. Muchos seres humanos no pueden presumir de una estadística así.

    Ahora Google, en lugar de cancelar el proyecto dándolo por imposible, está creando una filial, con aumento de personal, preparándose para la comercialización. Pero eso sí, sigue habiendo gente que nos dice que esto es imposible y además no puede ser.

    Curioso caso sicológico de negacionismo extremo, digno de estudio.

    • Pepe Perez - 9 diciembre 2016 - 00:02

      http://blogs.elpais.com/la-doctora-shora/2011/09/cuando-los-medicos-temieron-al-ferrocarril.html

      • Krigan - 9 diciembre 2016 - 00:36

        Jejeje. Todo un clásico. Pero la gente no escarmienta.

    • Jose Antonio Garcia - 9 diciembre 2016 - 10:43

      Je, je, je

      Ni muchos de pasar el test de Turing. Humanos y Máquinas.

      A propósito os habeis dado cuenta en que en el artículo de la tienda ( articulo pasado de Amazon) hay que pasar por un torno con un móvil. ¿Para que necesitan eso si hay tanta AI con detección basada en visión artificial?

      ¿Timo publicitario?

      Sin embargo la detección RFID ha demostrado ser más barata y eficaz
      ¿Cuando algún artículo sobre startups españolas que usan esa tecnologia?

      Ok seguir creyendo en la publicidad.

      Por cierto Enrique la charla de TED talk de Sam Harris ( que no «comulgo» con él)
      Can we build AI without losing control over it? me resultó interesante, desde el punto de vista «escéptico», No sé si considerarias abrir tu blog a temas sobre la deontología de la AI, normalmente cuando salen temas como «dilema del tranvía» salen de forma superficial y como puras patrañas, pero mi crítica viene a que os parece maravillosa la AI (puede que lo sea) pero creo que no habeis tratado su performance de una forma científica, como algo que en esencia es prueba y error, tiene un porcentaje de error (por definición)
      Si por ejemplo un conductor humano tiene un accidente, es porque hay una tasa de fiabilidad quizás cercana a los 5 nueves (99,999%) pero la tiene. Sin embargo hasta ahora la estadística pura de vehiculos autónomos en situaciones reales no existen. No digo que puedan superar al humano, Digo que no existen estadisticas comparables, por más que nos gustaría. De los 12 millones de caminones circulando por USA en condiciones no lab, existe una estadistica. ¿Cuantos camiones autónomos hay en esas mismas condiciones? hoy por hoy
      ¿uno o ninguno?.

      Que nos falta: estadística descriptiva del caso Vehiculo Autónomo. Y dejemos las charlas de crecepelo a los profesionales.

      • Krigan - 9 diciembre 2016 - 15:39

        ¿Un solo choque provocado por un Google Car tras 3,2 millones de Km no te parece una estadística suficientemente descriptiva?

        • Jose Antonio Garcia - 9 diciembre 2016 - 16:28

          Krigan

          Deja de repetir el markketing de Google y piensa con tu almendrita

          GOOGLE:
          3.2 mill Km recorridos: 1 choque dicen ellos, yo había leido 11, pero da igual.
          con supervisión humana.

          ESPAÑA DGT:
          Tablas independientes de una marca
          En todas las circunstancias de tráfico real con personas

          * http://www.dgt.es/es/seguridad-vial/estadisticas-e-indicadores/accidentes-30dias/tablas-estadisticas/
          * http://www.dgt.es/es/seguridad-vial/estadisticas-e-indicadores/parque-vehiculos/tablas-estadisticas/
          * http://www.heraldo.es/noticias/economia/2014/07/06/los_espanoles_reducen_uso_del_coche_hacen_menos_000_ano_297970_309.html

          Num. vehiculos = 31 mill
          Promedio km/año = 31E10
          Accidentes con victimas = 35000
          Siniestralidad :Un accidente cada 8.9 Mill. de Km.

          PS: Perdón por el Zasca

          • Krigan - 9 diciembre 2016 - 18:48

            No, no es un accidente cada 8,9 Mill. de Km, es un «accidente con víctimas» (muertos o heridos que han recibido asistencia sanitaria). El único choque causado por un coche de Google fue sin víctimas (un simple roce). A día de hoy, el número de accidentes con víctimas de Google es exactamente cero.

            En efecto, llevan conductor de seguridad, precisamente porque siguen en pruebas. ¿Y? Sigue siendo cierto que esos coches han conducido 3,2 millones de Km. Google monta a periodistas de diversos medios en sus coches, y el trayecto se completa sin que intervenga el conductor de seguridad. ¿Los periodistas mienten?

            Pero oye, puedes seguir pensando que todo es publicidad. Amazon Go no va a abrir a comienzos del próximo año. Lo de los periodistas yendo en los coches de Google es solo un montaje. El hombre no llegó a la Luna.

          • Jose Antonio Garcia - 9 diciembre 2016 - 20:09

            Krigan

            La ley de los grandes números no miente. Google tampoco, solo está utilizando los números a su favor. Un estadístico te diría que la muestra de google no es ni siquiera por asomo significativa para demosrar nada.

            Puedes creer lo que quieras o lo que puedas
            El libro siguiente explica bastante de manipulación ….

            http://www.casadellibro.com/libro-el-hombre-anumerico-analfabetismo-matematico-y-sus-consecuencias/9788472231498/320095

          • Krigan - 9 diciembre 2016 - 21:57

            Jose Antonio García:

            Hombre, tiene gracia que me acuses de nada menos que analfabetismo matemático cuando el que confundió los conceptos de «accidente» y «accidente con víctimas» fuiste tú. Si estás contando peras, lo más básico es no incluir en la cuenta a las uvas, ¿no crees?

            Y eso de decir que 3,2 millones de Km no es una muestra significativa… hace 7 años ni siquiera se atrevían (ni Google ni nadie) a sacar un coche autónomo a la calle, por mucho conductor de seguridad que llevase. Posteriormente seguro que fue una proeza el conseguir recorrer un solo Km seguido en las calles sin que interviniera el conductor. Ahora están sumando un millón de Km tras otro.

            ¿Necesitan más millones de Km? Sí, hombre, sí, y por eso siguen con las pruebas. Pero esto no es «charlas de crecepelo». Lo están consiguiendo, y al negarlo eres tú, y no Google, quien falsea la realidad.

    • acerswap - 9 diciembre 2016 - 13:32

      ¿Cuantos millones de millas han conducido los conductores humanos en ese tiempo? ¿Que porcentaje de colisiones ha habido en ese tiempo?

  • #025
    Jose Luis - 9 diciembre 2016 - 10:38

    Los vehículos autónomos existen desde hace mucho tiempo, no es un invento de Google. En fabricas de automóviles el reparto de piezas en muchas ellas están realizadas por este tipo de vehículos, y en muchas otras fabricas también, hay muchos ejemplos. Pero el factor común de todos ellos, es que son escenarios controlados. El problema viene cuando eliminamos el escenario controlado.
    Si, Google ha hecho muchas pruebas, desde hace muchos años. Y me pregunto, si ya esta tan desarrollado, ¿por que no esta disponible para los usuarios normales?. Tesla lleva menos tiempo con ello y ya hay vehículos en producción con los sistemas.
    Otro factor que no se tiene en cuenta, es la seguridad, pero no la de la integridad, Esos sistemas están seguros de que nadie externo al coche puede modificar el software de control de vehículo? Ya hay estudios de expertos en seguridad informática que han hackeado esos sistemas, teniendo el control total del vehículos. Un vehículo 100% autónomo en el contexto actual es muy difícil que prospere. Como comenta Carlos Quintero, tendrías que eliminar todos los demás vehículos, y dejar solo los autónomos, que estos a su vez se comuniquen entre se para saber lo que van hacer, y ademas eliminar todos los peatones, y demás usuarios de esas vías.
    Comenta alguien que el tren o autobús, no se exactamente lo que es, de la t1 – t4 de Barajas, volvemos a lo mismo es un escenario controlado. En una universidad de Catar o Dubai, no se algún sitio de por hay. Los estudiantes se mueven de facultad en facultad en un sistema de coche pero sobre unos raíles, y son autónomos, pero volvemos a lo mismo son escenarios controlados.
    No es negar el progreso, llevo tanto tiempo trabajando en tecnología como saber que todo con tiempo es posible. Pero en el escenario actual es muy improbable que pueda implementarse.

    • Krigan - 9 diciembre 2016 - 15:24

      Cuando Google empezó, hace 7 años, partía de cero. No tenía experiencia previa ni en diseño de coches, ni en conducción autónoma, y ni tan siquiera en conducción asistida. También fuera de Google el estado de la tecnología daba pena. Solo algunas pruebas primitivas en condiciones controladas, nada de circular por la calle, y hasta un niño de 8 años era capaz de conducir su coche de juguete radiodirigido mucho mejor que los sistemas autónomos más avanzados de entonces.

      7 años después, se ha producido un salto de gigante. No es solo Google, pero esta va en cabeza, y ya es capaz de invitar a periodistas, circulando por las calles, y sin que el conductor de seguridad tenga que intervenir ni una sola vez.

      Infórmate, mira cuál es el estado actual, porque lo que estás haciendo es negar la realidad. Google no se va a pasar otros 7 años haciendo pruebas, lo tiene ya muy maduro, con sus coches circulando rutinariamente en 4 ciudades distintas. El lanzamiento comercial probablemente no tarde ni 3 años.

      https://youtu.be/cjNVy2zzSZs

      • Jose Luis - 9 diciembre 2016 - 15:56

        Para que veas mi nivel de información respecto a ese tema. Google quiere «comercializar» el sistema autónomo como lo esta haciendo con el android, a base de licenciarlo. Ninguna marca automovilística sea ofrecido a ello. Porque? desde mi punto de visto, el placer por conducir de muchos de los clientes actuales, alguien lo comentaba en un comentario, mucha gente les da igual que sean diésel, de gasolina, de hidrógeno, eléctrico, le da igual quieren sentir la libertad de conducir. y mientras exista esta variable abra mucha gente que no quiera coches autónomos. El problema no es tecnológico, como en otros muchos otros medios, aeroespacial, ferroviario, naval, etc.
        Luego vuelvo a lo mismo, dato que nunca se tiene en cuenta, la seguridad de los sistemas.

        El vídeo esta bien, pero y esto
        https://www.youtube.com/results?search_query=hack+audi

        y como esta marca, otras muchas, Tesla entre ellas, han llegado a controlarlo remotamente, y no desde el coche de al lado, desde muchos kilómetros de distancia, tenia el vídeo pero no lo encuentro.. Google todavía no, y digo todavía, por que el vehículo no esta accesible a la comunidad de ciberseguridad. En cuanto este, caerá. Google se niega a que se le haga una auditoria independiente. Por otro lado es compresible para proteger sus investigaciones y no se filtren. Hay en juego mucha pasta.

        • Krigan - 9 diciembre 2016 - 18:14

          ¿En qué quedamos? ¿En que va a ser cosa imposible, o en que van a ocurrir el resto de las cosas que dices?

          Para que el público lo rechace «por el placer de conducir borracho» (o quedarse sin beber cuando sale de fiesta), para que ninguna marca quiera comercializarlo (a pesar de que varias están invirtiendo en conducción autónoma), para que sea hackeado (he perdido mi tiempo viendo un vídeo de un tío que usa un truco barato para que el climatizador siga funcionando cuando él no está en el coche), y en definitiva, para que «haya en juego mucha pasta», para todo ello es necesario primero que el sistema funcione, cosa imposible según tú.

          Por tanto, aclárate. ¿Va a funcionar o no? ¿Conseguirán Google, Uber, Tesla, Ford, Mercedes, y otras desarrollar un coche autónomo o no?

  • #029
    acerswap - 9 diciembre 2016 - 13:47

    Hay una tendencia en este tema a basarse en una falsa premisa de «las IA nunca fallan». Por lo general en un entorno controlado y limitado el numero de fallos es escaso pero existe. Ademas, ahora se quiere meter en un escenario sin limitaciones. Por si fuera poco, esas limitaciones tienen muchos detractores, desde esa gente a la que «le gusta conducir» al tipico padre o madre que recoge a los niños al colegio obstaculizando el paso, cosa que un coche autonomo no le permitiria hacer.

    Todo esto sin mencionar las incompatibilidades que puedan darse y las modificaciones humanas «no previstas» sobre el software de esa IA. ¿Vas a decirme que Apple, Volkswagen y Tesla van a usar el mismo software? ¿Quien lo desarrollará? ¿Qué ocurrirá con las versiones antiguas y la fragmentacion? ¿Intentas que me crea que no va a haber quien modifique el software de su vehiculo para, por ejemplo, adelantar a una velocidad mas rapida de lo preprogramado o guardar una distancia menor de seguridad al conducir o adelantar? Si es asi no conoces al ser humano.

    • Krigan - 9 diciembre 2016 - 15:32

      El que quiere conducir por encima del límite, actualmente le basta con pisar más fuerte cierto pedal. Apuesto a que ni el 1% de esos irresponsables sabe cómo modificar el soft de su coche.

      De los borrachos al volante, mejor no hablamos.

      • Jose Antonio Garcia - 9 diciembre 2016 - 20:51

        Krigan,

        De verdad que estoy deseando ver estos bichos en la calle, comprobar como van, etc… pero para eso no hace manipularnos

        Cuando un hacker desbloquea un SW y lo pone en internet, los analfabetos en programación avanzada (yo por ejemplo) lo podremos bajar y reventar el sistema (claro que no lo haré, porque no me fiaria)

        La probabilidad de que nos toque el gordo a cualquiera de los que ha escrito un comentario aquí es de una entre cienmil. Si 100 personas compramos un décimo, lo normal es que no nos toque, nunca sucederá el accidente de que nos toque,…
        ¿quiere decir eso que el vehiculo autonomo es infalible? pues no simplemente que aún no han comprado suficientes décimos… y aún así el de Tesla kaputt,…

        Y te voy a dar una pequeña nota a tu favor, yo soy de los que cree lo mismo que tu, que el vehículo autónomo puede estar muy bien, pero no soy tan iluso de creerme la propaganda. Habrá muertos y al princpio de su comercialización más. Cualquiera sabe que al principio de un desarrollo hay vicios ocultos, premisas no tenidas en cuenta, desacoplamientos,….

        • Krigan - 9 diciembre 2016 - 22:14

          Cada vez que un coche de Google comete un error, todos los coches de Google aprenden de la experiencia. No van a lanzarlo hasta que las estadísticas sean claramente mejores que las de los humanos, y después de lanzarlo seguirá mejorando.

          Un ordenador no bebe alcohol, no tiene sueño, los niños del asiento de atrás no le distraen, respeta las normas de tráfico (salvo que el imbécil de su dueño lo hackee), sus reflejos son mucho mejores, y sus sensores cubren 360 grados.

          Asúmelo. Los ordenadores ya te ganan al ajedrez, y pronto conducirán mejor que tú.

          • Jose Antonio Garcia - 10 diciembre 2016 - 00:33

            Eres capaz de saber la probabilidad de cuanto va a fallar un coche sin llegar a tener una estadistica ni de un fallo… Y luego fanfarroneas con lo que van a ser capaces de hacer google cuando lo cometa…. Sigue que te estás luciendo, para que luego digan, deep pero muy deep

          • Krigan - 10 diciembre 2016 - 02:22

            Jose Antonio García:

            A día de hoy, tras 3,2 millones de Km, de los 14 choques que han tenido los coches de Google, solo uno (sin muertos ni heridos) ha sido culpa suya, y varios han sido que al coche de Google le dieron por detrás (un caso claro de no guardar la distancia de seguridad).

            ¿De verdad estas cifras no te dicen nada?

            No puedes decir que no hay cifras, las hay. Y no solo las publicadas, Google tiene muchas cifras más. Por ejemplo, la distancia media recorrida entre intervenciones del conductor de seguridad. ¿Cuánto es esta distancia actualmente? ¿Está aumentando mes tras mes? ¿Es ya superior a la distancia media entre accidentes de los humanos?

            Yo solo puedo decirte que al menos 2 periodistas completaron sus respectivos trayectos en el coche de Google sin que el conductor interviniera. Este dato, aunque es significativo, no es una estadística. Pero estadísticas las hay a porrillo, las tiene Google, y como ya he dicho, no va a lanzar su coche hasta que las cifras sean mucho mejores que las de los humanos.

            Pero como tú estás obsesionado conque esto es solo «crecepelo», te crees que Google está operando en el vacío, sin estadísticas. Por eso confundes la capacidad que YO pueda tener de hacer un cálculo con la capacidad que tiene Google.

            Google ha llegado hasta donde está en solo 7 años, partiendo de cero. Me parece bastante razonable suponer que ya no quedan muchos años más de desarrollo, porque es evidente que lo tiene ya bastante maduro.

            Cuando llegue ese momento, cuando las abundantes estadísticas que sí tiene Google muestren un resultado claramente mejor que los humanos, Google lo lanzará. Ya sé que el concepto te resulta difícil de entender, pero Google no es una vendedora de Power Balance, es una de las empresas tecnológicamente más punteras del planeta.

      • acerswap - 9 diciembre 2016 - 20:58

        El 1% de esos irresponsables no sabe modificar el soft, pero es muy facil localizar a quien lo haga o incluso un kit sencillo para hacerlo.

        Modificar un coche autonomo puede causar un accidente, ya que puede anular sistemas de seguridad, ignorar datos de los sensores o de la comunicacion entre vehiculos, alterar la misma para hacer creer que el coche esta cumpliendo las normas mientras realmente no lo está haciendo…

        • Krigan - 9 diciembre 2016 - 22:28

          Nah, cualquier tarado sabe pisar el acelerador, pero las instrucciones para flashear un aparato no son para todo el mundo.

          Además, puede parecer un contrasentido, pero la misma gente que va borracha al volante jamás se les ocurriría flashear su coche, por un (sano) miedo a las consecuencias. El ser humano es así. Quiero beber alcohol yendo de fiesta, y no quiero pagar un taxi yendo de vuelta, pero si mi coche es capaz de conducir solo, que conduzca él. El humano cumple con sus deseos (beber alcohol y no pagar taxi), y con eso le basta.

  • #037
    Esteban - 13 diciembre 2016 - 19:03

    Lo de decir que el cálculo de éstos escenarios es cada vez más complejo es un eufemismo.

    Más correcto es admitir que se peca de optimismo tecnológico, o que el voluntarismo de unas empresas, que es más bien una huida hacia adelante, tampoco es un medidor fiable del futuro. Hasta hace nada había que mentalizarse sobre que los coches autónomos estarían aquí en cinco años, pese a quién no quería darse por enterado, porque lo decía Elon Musk, pero ahora volvemos a fechas más conservadoras. Y todo porque nadie quiso caer en la cuenta de que, lógicamente, es peligroso pasar de la conducción automática a manual con el automóvil en marcha. ¿El elefante en la sala?

    De nuevo, nunca está de más una cierta precaución y poner las cosas un poco en entredicho. Me hace pensar en las pérdidas de puestos de trabajo por la robotización y la necesidad una renta universal: ¿está justificada la preocupación o bien nos estamos pasando de frenada?. ¿No es un escenario suficientemente complejo?

    • Krigan - 14 diciembre 2016 - 07:32

      No podías haber elegido un día más desafortunado para escribir tu mensaje. El mismo día que Google presenta en público a su nueva compañía (llamada Waymo) encargada de comercializar la tecnología de conducción autónoma:

      https://techcrunch.com/2016/12/13/googles-self-driving-car-unit-spins-out-as-waymo/

      En el evento, el CEO de la nueva empresa reveló que Google ya hizo el primer transporte de una persona (un ciego) sin conductor de seguridad, nada menos que el año pasado.

      Además, no hace tanto que pasaron la marca de 2 millones de millas de conducción autónoma, y ahora han hecho otro millón de millas más. Hay una clara aceleración del ritmo al que hacen las pruebas y acumulan experiencia.

  • #039
    seguro de autos - 30 diciembre 2016 - 08:51

    Sigue sin resolver un aspecto peliagudo que es el de la responsabilidad en caso de accidente. Las compañías de seguros siguen sin tenerlo claro, ya que como e n cualquier seguro la responsabilidad es del conductor y/o propietario, en este caso el «conductor» es un software que no tiene personalidad jurídica. Difícil asunto.

    Seguros

Dejar un Comentario

Los comentarios están cerrados