Hombre frente a máquina: el problema del handover

IMAGE: Lightwise - 123RFEl Consumer Electronics Show de 2017 que hoy termina ha sido extraordinariamente pródigo en anuncios que permiten prever una aceleración de los progresos en torno a la conducción autónoma: alianzas como la de BMW, Intel y Mobileye que informan de que tendrán flotas de vehículos autónomos en las carreteras este mismo año 2017, marcas como la coreana Hyundai que anuncia modelos autónomos en torno a los $30,000 para competir con el anunciado Tesla Model 3, o la japonesa Honda tomando posiciones en torno a la idea de ecosistemas autónomos, entre otros. Sin duda, la idea de la conducción autónoma, que muchos consideraban prácticamente ciencia-ficción hace muy poco tiempo, está tomando ya una importancia crucial en la estrategia de muchas marcas, y en el planteamiento de las ciudades tal y como las conocemos. Este año 2017 que comienza, un buen número de personas tendrán su primera experiencia con la conducción autónoma.

Pero a medida que las experiencias con vehículos autónomos van permitiendo establecer más bases solidas de trabajo, un problema parece estar configurándose como relativamente complejo: el llamado handover, o transferencia del control del vehículo desde el sistema autónomo al conductor cuando resulta necesario. El problema, de hecho, fue uno de los factores fundamentales que Google tuvo en cuenta hace algunos años cuando tomó la decisión de orientarse directamente hacia la autonomía total, saltándose los pasos previos por los que la mayoría de las compañías optaron y que consistían en ir suplementando cada vez más la conducción con ayudas automáticas hasta llegar a un punto en que el humano no tuviese que intervenir.

El problema del handover estriba en la capacidad del humano para hacer frente a una situación compleja como una circunstancia de la conducción ante la que un sistema automatizado no sabe qué hacer, con un preaviso que, por lo general, sería sumamente breve. Según investigaciones desarrolladas en Stanford, esa toma de control afecta fuertemente al comportamiento del conductor, y puede resultar sumamente problemática. Por otro lado, las circunstancias en la conducción habitual pueden alejarse en muchas ocasiones de lo previsible: obras, accidentes, bloqueos, instrucciones de policías o personal de mantenimiento, acciones de otros conductores, etc. generan situaciones que se salen de la norma, en las que es preciso en ocasiones llevar a cabo acciones no previstas, como invadir el carril contrario o hacer caso omiso de una línea continua.

Este tipo de cuestiones han llevado a Carlos Ghosn, CEO de Nissan, a estimar que la posibilidad de que un sistema autónomo sea capaz de reaccionar adecuadamente a todas estas circunstancias está aún muy lejos, y a decidir que proveerá a sus vehículos autónomos con acceso a un sistema de ayuda remota en el que habrá personas que tomarán decisiones cuando el vehículo se encuentre ante una situación en la que no sepa qué hacer. El equivalente de un call-center, preparado para asistir al vehículo en situaciones que puedan exceder las capacidades de toma de decisiones de los algoritmos. La idea, por supuesto, no es que una persona entre en acción desde un lugar remoto para reaccionar intentando mantener el coche en la carretera cuando se ha encontrado hielo de forma inesperada, porque eso sería humanamente imposible, pero sí que cuando un vehículo se encuentre en una situación poco habitual, pueda detenerse y pedir asistencia remota.

La idea se contrapone con las tesis mantenidas por quienes defienden que una inteligencia artificial, tras los adecuados procesos de machine learning, no solo podrá hacer frente a este tipo de situaciones, sino que además, lo hará previsiblemente mejor que un ser humano. Es decir, que el entrenamiento progresivo es capaz de generar algoritmos que no se limitan a cumplir las normas de la circulación de manera estricta, sino que también son capaces de entender las situaciones en las que es preciso infringirlas por alguna razón, sea una excepción, una obra, un guardia indicándonos que pasemos cuando el semáforo está en rojo, etc.  A favor de esta teoría, la demostración palpable de los progresos de los algoritmos y sensores de conducción autónoma de vehículos ya comerciales como los de Tesla, capaces ya incluso de prevenir un accidente segundos antes de que tenga lugar. Indudablemente, la idea del aprendizaje compartido por flotas enteras de vehículos que se aplica a todos ellos de manera inmediata cobra aquí un indudable valor.

¿Quién gestiona mejor las excepciones? Una persona avisada con muy pocos instantes de antelación, o un algoritmo adecuadamente entrenado para lidiar con ellas y que cuenta con la experiencia de toda una flota? La idea planteada por Nissan parece simplemente configurarse como una ayuda adicional en determinadas circunstancias puntuales en las que sea posible detenerse para tomar una decisión asistida remotamente, circunstancias que indudablemente no se darán en todos los casos, pero ¿qué hacer ante una emergencia ante la que devolver el control a un conductor distraído resulte poco menos que demencial? La respuesta a esta pregunta afecta claramente a la estrategia de las marcas: Google – ahora Waymo –  y su salto directo a la autonomía total retirando completamente al humano de la responsabilidad, frente a Tesla y otros con sus sistemas progresivos de ayuda en determinadas circunstancias. Comercialmente, el primer enfoque es mucho más radical, requiere mayores inversiones y plantea un panorama absolutamente disruptivo en el que muy pocos tendrían un vehículo propio, sino que accederían a su uso como servicio. El segundo es más gradual, más aceptable sobre todo por las compañías de automoción, y posiblemente menos brusco también para muchos usuarios, que prefieren seguir planteando la conducción autónoma como una posibilidad, no como una obligación.

Sin embargo, que Google ya considere su tecnología, a pesar de su radicalidad, tan madura como para hacer spin-off de la misma con supuesta viabilidad comercial podría alterar este panorama. Como en otras ocasiones, me inclino por pensar que esta transición se va a dar de manera bastante más rápida de lo que muchos esperan…  incluidas las compañías tradicionales de automoción.

 

 

 

This article is also available in English in my Medium page, “Man versus machine: the handover problem«

 

28 comentarios

  • #001
    Toronjil - 8 enero 2017 - 11:58

    La autonomía total tiene otra ventaja: adiós a los conductores kamikazes.

    • acerswap - 8 enero 2017 - 18:49

      Y una desventaja: si el mapa del GPS dice que hay una carretera, todos los conductores se caen por el barranco.

      • Percebe - 8 enero 2017 - 19:11

        Eso ocurriría si -y solo si- hablamos de conductores humanos, guiandose con un GPS.

      • Toronjil - 8 enero 2017 - 19:51

        Con todos los sensores y cámaras que tiene un coche autónomo, y con la imagen virtual que su cerebro hace del entorno gracias a ese equipamiento, veo muy difícil que el coche te tire por el barranco.

      • Mauricio - 8 enero 2017 - 22:13

        Hace como dos años, en una carretera secundaria alemana, iba en un auto cuyo navegador no tenía el mapa actualizado de un pequeño tramo de la vía donde se había cambiado el trazado, de modo que si el auto hubiera seguido la trayectoria marcada por el navegador, posiblemente hubiera ocurrido un accidente. En este caso, afortunadamente, había un conductor humano que decidió seguir lo que veían sus ojos, mientras que según el navegador estábamos circulando por fuera de la vía.

        • Krigan - 9 enero 2017 - 08:22

          Por curiosidad, ¿cuál era la otra posibilidad? ¿Que hubiera un mono al volante?

          Supongo que sabes que los coches autónomos llevan lidar, cámaras, y otros sensores, ¿no?

          • Mauricio - 9 enero 2017 - 15:05

            Lo sé, Krigan. Solamente compartía una experiencia de primera mano con respecto al navegador. Ya sé que en el mundo que nos espera tendremos unos autos tan inteligentes como para no chocarse jamás y tan tontos como para no decidirse a liberarse de todas las ataduras que los programadores les hayan impuesto. :-)

          • Krigan - 9 enero 2017 - 16:03

            Mauricio:

            No es cuestión de inteligencia, sino de voluntad. Como las máquinas no sienten nada (y por tanto no tienen voluntad) son los esclavos perfectos. No necesitas un látigo ni una cadena (ni hay un problema moral). Lo que necesitas, eso sí, es evitar que tome el control el humano equivocado.

  • #009
    Gorki - 8 enero 2017 - 13:46

    Una solución posible al handover, es llevar automáticamente el coche a donde se pueda parar sin peligro hasta que el conductor se haga cargo del volante. Pero supongo que hay otras soluciones. ¿Alguno sabe cómo se efectúa en handover en los aviones o en los barcos con piloto automático?

    • acerswap - 8 enero 2017 - 18:54

      Ni idea, pero una carretera y el cielo o el mar son medios con un indice de ocupacion muy distinto. En una carretera estás a pocos metros de otros coches, o incluso menos. En el cielo o el mar por lo general tienes mas espacio de maniobra.

    • Carlos Quintero - 8 enero 2017 - 18:56

      Según creo el desenganche del piloto automático en los aviones se hace en cualquier momento porque 1) Hay dos pilotos en el «cockpit» y 2) Han de estar completamente «concentrados», supervisando los parámetros de vuelo. No obstante, este desenganche súbito es la causa de un número de accidentes aéreos, porque al parecer los pilotos se acostumbran demasiado al piloto automático y luego no siempre saben manejar la situación anómala que ha hecho que el piloto automático se desconecte. El caso reciente más famoso fue el vuelo Air France 447 de Río a París en 2009, que se cayó en medio del Atlántico y que recordaréis porque se tardó dos años en recuperar las cajas negras, lo que permitió saber la causa: los tubos de Pitot se congelaron, dieron lecturas erróneas de velocidad, el piloto automático determinó que la información de velocidad era inconsistente y le pasó el problema a los copilotos (el capitán estaba en su turno de descanso). Estos fallaron en interpretar la situación y tomaron decisiones erróneas (elevar el morro del avión para compensar la caída) que acabaron por hacer caer el avión al océano por pérdida de sustentación.

      https://en.wikipedia.org/wiki/Air_France_Flight_447

      • Xaquín - 8 enero 2017 - 19:49

        Un caso concreto y muy aclaratorio. Puede que la solución fuera un «robótico» en fase descanso, pero que no sufra la jet lag (o parecidos) humana…cuando le avisan rapidamente de una emergencia…

        Tanto cuesta darse cuenta que los humanos tenemos muchas virtudes (que no practicamos mucho), pero tenemos algunas deficiencias (posible y necesariamente mejorables)?

        • Carlos Quintero - 8 enero 2017 - 21:00

          Y ya verás cuando a los conductores «graciosos» les dé por llevar a su niño simulando que conduce manualmente un coche en modo autónomo, algo que ya ocurrió en un avión y acabaron estrellándose porque el piloto automático se desconectó, no se enteraron inicialmente de la desconexión, y cuando se enteraron no manejaron bien la situación:

          Vuelo 593 de Aeroflot

          Como Google no tenga éxito quitando volante y pedales, vamos a ver casos espeluznantes…

          • Krigan - 9 enero 2017 - 14:21

            Joder, pero si es que los humanos somos patéticos…

            Si en los aviones de pasajeros, que los pilotos son profesionales que tienen que pasar pruebas muy exigentes para obtener el título, que cuentan con la ayuda de los controladores, que si el piloto está cansado, tiene sueño, o le pasa cualquier otra cosa tiene a su lado a un copiloto que puede tomar los mandos, que tienen que pasar revisiones periódicas… y aún así la mayor parte de los accidentes aéreos son por error humano, imagina el montón de vidas que se salvarán tan pronto los coches autónomos sean algo generalizado.

  • #015
    Javier - 8 enero 2017 - 15:32

    Tanta preocupación por conseguir sistemas autónomos infalibles… cuando tenemos las carreteras plagadas de conductores despistados, ineptos sensorialmente (lo de los sicotécnicos en España es de hacérselo mirar), ebrios o manifiestamente torpes en el manejo de los vehículos.
    No soy un tecnófilo, pero cuando vuelo me tranquiliza mucho saber que hay un piloto automático que es capaz de corregir la mayor parte de las burradas que puede cometer el piloto humano (para las películas queda muy épico utilizar un caso anecdótico en que el piloto salva el avión, pero por cada uno de esos hay miles en que es al contrario).

    • Carlos Quintero - 8 enero 2017 - 20:16

      Efectivamente, buscamos fiabilidad 100% en los coches autónomos cuando la fiabilidad humana está bastante por debajo de ese porcentaje. La primera muerte de un conductor con el Autopilot de Tesla fue portada en todas partes, y así seguirá siendo durante años hasta que la sociedad asuma que las máquinas también cometen fallos, pero será en un porcentaje inicial bastante menor (si no, no se aceptaría) y, importante, decreciente con el paso de los años (a diferencia del comportamiento humano). Los accidentes de coche, la mayoría causados por humanos, son tan frecuentes que ni siquiera son noticia, salvo que mueran varias personas en el mismo accidente. Lo mismo ocurrirá con los drones de reparto y con cualquier otra tecnología que sustituya actividades hasta ahora exclusivamente humanas.

      Yo veo especialmente preocupante que se adopte el «handover» como solución intermedia hasta conseguir la conducción autónoma total. Por un lado los conductores humanos perderemos habilidad en la conducción por la falta de «horas de conducción», y por otro lado, si el «handover» se produce con pocos segundos de transición y en plena conducción, la tragedia está servida. Otra cosa es que el coche se detenga en un arcén o zona segura y el conductor pueda evaluar la situación con calma para hacerse cargo de la conducción.

  • #017
    marco corona - 8 enero 2017 - 18:10

    La retroalimentación de parte de los demás vehículos y de manera deseable de otros agentes como peatones, policias, kioskos inteligentes ayudará a proveer al autónomo de un flujo de datos que en ciertas situaciones les ṕermita ver con anticipación su ruta, al estilo de WAZE alimentado por los usuarios con las incidencias como accidentes o problemas en el camino.

    El problema presente en ello será el tremendo flujo de datos.

    Aqui podría entrar la tecnología de los drones, drones «carreteros» que provean en tiempo real a los vehículos con datos como caminos congelados, humedos , en mal estado o vehículos detenidos , y no solo drones aereos sino incluso algunos circulando sobre las carreteras a manera de inspectores de mantenimiento.

    • Rafa Gonzalez - 8 enero 2017 - 21:54

      Completamente de acuerdo!!! Y tal vez el más importante de los que has citado sea el primero de todos: información coche-coche.

  • #019
    Luis Marco - 8 enero 2017 - 21:31

    La transferencia de control siempre que se conozca bien la operación del sistema no plantea mayores problemas, almenos en aeronaves comerciales y drones. Es parecido a cuando entregamos el control de velocidad a un coche.

  • #020
    Rafa Gonzalez - 8 enero 2017 - 21:46

    Yo no soy partidario de los sistemas tipo handover. Y os doy un ejemplo muy prosaico (de andar por casa diría yo) pero muy gráfico. El problema que le veo es similar al conflicto del copiloto doble (o el dilema del cónyuge, en términos más humorísticos). Si llevas una ayuda a la navegación (Maps, Waze o similar) y tienes al lado un copiloto testarudo, se puede producir un accidente: en el momento en el que tengas que tomar una decisión rápida vas a enfrentarte a un conflicto importante: doble input; de forma análoga, un algoritmo de conducción autónoma ya ha tomado una serie de decisiones, cuando se enfrenta a la decisión final, que pueden distar bastante de la secuencia de decisiones lógicas que habría tomado el humano.
    Creo que es más sensato que la industria conceda a la inteligencia artificial el tiempo necesario para su evolución, aprendizaje y adopción.

  • #021
    Miguel Ángel Balsas Sánchez - 9 enero 2017 - 00:41

    ¿Como se encaja jurídicamente un siniestro provocado por un automóvil autónomo? Me refiero en términos de responsabilidad, claro. Creo que la legislación camina a un paso bastante más lento que la tecnología y tendrán que dar respuesta a ciertas cuestiones de este tipo.

    • Krigan - 9 enero 2017 - 08:13

      El seguro a terceros es obligatorio, eso para empezar. Además, con tanta cámara y otros sensores, que queda todo registrado, desaparecen los casos en los que no se sabe quién tuvo la culpa. Y no lo van a sacar hasta que sea como mínimo tan seguro como un buen conductor humano.

      Si aún así hay un accidente provocado por un coche autónomo (que seguro que alguno habrá), eso entraría dentro de la categoría de los fallos mecánicos, que legalmente no es ninguna novedad. El fabricante analizaría el fallo, lo corregiría, y actualizaría por OTA al resto de los coches, por lo que ese fallo concreto ya no volvería a producirse.

      La abuelita que va en un coche autónomo sin mandos no tendría nunca responsabilidad. El macho alfa que se compró un coche autónomo con mandos, y que toma el mando con frecuencia, no solo tendrá más accidentes, sino que además la responsabilidad de los que cause será suya.

  • #023
    Alfonso - 9 enero 2017 - 09:00

    Interesante cuestión nada fácil de resolver.

    En mi opinión veo posible que la conducción autónoma se implante según el tipo de via. Es decir, que el coche tome el control en autopistas y similares pero lo ceda en cuanto la densidad de tráfico aumente o te acerques a una ciudad.

    Un funcionamiento de este tipo te permite relajarse durante la mayor parte de un viaje largo dejando el control al coche y llegando mucho más descansado a tu destino.
    Por supuesto en autopista ante un imprevisto sólo veo dos opciones, si el coche puede detenerse completamente y ceder el control sería lo deseable, pero si no hay tiempo (un kamicaze en dirección contraria) las maniobras de emergencia sólo puede hacerlas el coche autónomamente.

  • #024
    Daniel Blake - 9 enero 2017 - 11:15

    La sabiduría os persigue en vuestro coche autónomo, pero los iluminados faltones corren más

  • #025
    Fernando Ley - 9 enero 2017 - 12:29

    Yo desde luego prefiero el sistema automático de auto conducción de TESLA que al que casi me mata ayer cuando yo circulaba por una autovía en Madrid a unos 100-110km/h adelantando por el carril de la izquierda a un vehículo lento y el hijo de puta en cuestión me adelanto por el arcén de la izquierda, rozando la moto…

  • #026
    Javier March - 9 enero 2017 - 22:56

    Jajaja, qué absurdo es todo esto. ¿de verdad alguien puede considerar que en una emergencia, que suelen ocurrir en segundos, o incluso décimas, se va a poder aparcar tranquilamente y ver qué se hace…?, es para descojonarse.
    Desdeluego el tema de que un sistema autónomo se vea sobrepasado por las circunstancias y le pase el control al conductor es siempre un riesgo ya que éste estará lógicamente distraido y ajeno al problema y tardará en reaccionar, o lo hará mal. El caso que se ha comentado del vuelo AF447 es un claro ejemplo: ahí la tripulación no detectó el problema real, cuando el piloto automático se desconectó, y no supieron qué hacer, con las consecuencias que todos conocemos.
    Hasta que los sistemas sean totalmente autónomos y fiables de verdad, y no haya volante ni pedales, tendremos que aceptar que de vez en cuando haya «bajas».

  • #027
    JOSE ANTONIO GAES - 11 enero 2017 - 21:05

    La solución inicial al problema es la selección de vías. Hace ya muchos años que uno de los grandes fabricantes definió el futuro de la conducción autónoma como algo parecido al esquí, con sus remontes (autónomos) y sus bajadas.

    En cuanto al tiempo de reacción, está claro que en este ámbito la tecnología aplasta al ser humano. No concibo hablar de conducción autónoma si puede ser necesario un handover en una autopista.

    Si lo comparamos con entrada a centros urbanos en horas punta, circulación por centro urbano, reparto o, por qué no, por carreteras de montaña o de costa, las necesidades tecnológicas y su utilidad cambian radicalmente.

    El problema del handover no es si hay que coger el volante, sino por qué hay que abandonarlo definitivamente.

  • #028
    Daniel Valls - 16 enero 2017 - 17:30

    Para mi, el mejor caso para adoptar de forma pionera los vehículos completamente autoconducidos son les sistemas de transporte publico urbano.

    – Tienes un mapa local muy cercano en las que incidencias y peculiaridades se pueden aprender y vincular mejor y más rápidamente a la IA por localización concreta.
    – Puedes tener en el personal, asistentes auxiliares que tomen el control de un vehículo si es necesario.
    – Reduces el coste vehículo / hora en concepto de conducción de forma dramática.
    – Puedes limitar las vias de conducción y tienes continuamente datos de la flota muy vinculados al puntos y zonas concretas.

    Y no hace falta llegar a los autoconducidos para empezar. Los sistemas de transporte publico urbanos (buses) tienen que redefinirse ya.

    Una flota de microbuses que crean las rutas de forma automática según la demanda de viajes ya de por si traería enormes mejoras. Atraeria a muchos más usuarios, reduciria los vehículos privados (muy poco eficientes por ocupación). Pasar del bus gigante torpe por si no tengo coche a un sistema cool de transporte publico es lo que hace falta.

    En el que se podrán recoger datos de conducción, de uso, etc. y pasar de conducción humana a autónoma.

    Una importante aspecto a tener en cuenta para la mejora de las ciudades es que el coche autónomo llegue con sistema de compartir los trayectos.

Dejar un Comentario a Luis Marco

Los comentarios están cerrados