El dilema del chatbot

IMAGE: DavidRockDesign / CC0 Creative CommonsLa presentación de una tecnología experimental, Google Duplex en la conferencia de apertura del Google I/O 2018 parece no haber dejado indiferente a nadie. Inmediatamente tras la demostración de dos llamadas para hacer reservas, una en una peluquería y otra en un restaurante, llevadas a cabo por un asistente con dos voces distintas que resultado completamente imposible identificar como no humanas, ha surgido una fuerte corriente de rechazo que considera a la compañía «insensible», «inquietante» o incluso «horripilante (…) éticamente perdida, sin timón e incapaz de aprender de sus errores«.

La reacción es tristemente primaria: ante una conversación entre una máquina y una persona, el observador humano asume inmediatamente una identificación con el participante humano, y rápidamente pasa a pensar que el hecho de que esté hablando con una máquina sin saberlo es algún tipo de ofensa, un  insulto a su capacidad de discernimiento, o incluso algún tipo de abuso… cuando en realidad, lo que quiere el humano al otro lado del hilo es vender, y lo que hará en cuanto le sea posible será poner a su vez a otro agente automatizado al otro lado. Vamos a ver: ¿alguna vez han tenido algún tipo de problema las empresas en engañar a sus clientes y hacerles pensar que hay un humano al otro lado cuando no lo hay? No, jamás. El rosario de torpes intentos de hacer pasar interacciones como humanas va desde las robocalls automatizadas hasta los mail merge, pasando por lo que se nos ocurra. Si una compañía puede ahorrarse costes – porque ni siquiera, en la mayor parte de las ocasiones, se han planteado hacerlo para mejorar la experiencia del cliente o para incrementar su fidelidad – haciendo pasar a un robot por un humano, no lo dudemos: lo hará, sin plantearse ningún tipo de dilema ético. En gestión empresarial, los costes lo justifican todo, y pocas veces nos escandalizamos por ello.

Lo que más me puede preocupar de Google Duplex es, precisamente, su uso empresarial: su posible aplicación al telemarketing por parte de empresas irresponsables (el perfecto empleado al que no le importa repetir la llamada cien veces, no se desmotiva cuando lo rechazas y tiene un argumentario infinito ideado mediante machine learning a partir de millones de llamadas) y la evidencia de que siempre hay una empresa con un directivo suficientemente imbécil como para hacer lo que nadie con un mínimo de sentido común o inteligencia haría. Y sin embargo, lo que nos encontramos inmediatamente es a un puñado de usuarios bienpensantes que se preocupan por la ética de que el empleado de una compañía no sepa si está hablando con un posible cliente o con su asistente robótico…

Ante la corriente de críticas y las peticiones de hacer obligatorio que los robots se identifiquen como tales en sus conversaciones, la compañía ha asegurado que hará precisamente eso: incluirá un disclosure en el asistente, algún tipo de advertencia inicial que deje claro a quien esté al otro lado que está hablando con un asistente robótico. Quien sabe, a lo mejor tendremos que pasar un captcha o un test de Turing para demostrar que somos humanos antes de empezar una llamada. Algo que, muy posiblemente, hará que funcione peor y se convertirá en una excusa para que, conociendo la habitual estupidez humana, las peticiones que hagamos a través de nuestros asistentes sean consideradas como «de segunda», reciban un peor trato, o incluso se utilicen como pretexto cuando haya un error… que por supuesto, vendrá invariablemente de la parte humana (¿o no llevamos años «echando la culpa al ordenador» cuando nos da la gana para justificar lo injustificable?) Es, sencillamente, es-tú-pi-do, así, com todas sus sílabas: se crea una tecnología para hacernos la vida más sencilla y llevar a cabo esas interacciones que tanto nos molesta hacer a nosotros mismos, pero vamos nosotros y nos preocupamos por los derechos del humano al que le toca levantar el teléfono, pobrecito, que ahora no va a saber si está hablando con otro humano o con una máquina…

Repito: lo que quiere el humano que levanta el teléfono es VENDER. De la manera más rápida y eficiente posible. Si hablar con un asistente, dado que es más eficiente y comete menos errores que el torpe de su amo, hace que surjan menos problemas y que la transacción tenga lugar con menos fricción, mejor aún. El dilema ético de si el empleado sabe si habla con una máquina o no es un dilema ético de andar por casa, un problema inventado y absurdo, y de hecho, la compañía sustituirá a ese empleado por un asistente robótico en cuanto tenga la mínima oportunidad, y no se preocupará lo más mínimo de si el que llama sabe o no que habla con un robot – salvo si vende menos. No, al empleado no le va a pasar nada: no va a tener problemas psicológicos, no va a experimentar efectos secundarios y no se va a enamorar de la voz que le llama (y si lo hace, peor para él). Estamos magnificando un problema que no existe. Si acaso, habrá que plantearnos, y más pos curiosidad sociológica que porque haya ningún problema, cómo evolucionarán las normas y protocolos sociales en un mundo en el que la voz de las máquinas es indiscernible de la de las personas, o si es sostenible que muchos humanos a la vez utilicen a su incansable asistente para peticiones sobredimensionadas, exhaustivas o que jamás tendría sentido que se plantease hacer una persona.

Ante una tecnología en su fase experimental, saltar y rasgarse las vestiduras con la violación de los supuestos derechos de una persona porque, pobrecita, no sabe que está hablando con una máquina es, en mi opinión, una soberana estupidez. Desarrollemos la tecnología sin cortapisas, veamos qué problemas emergen de su uso, e intentemos corregirlos introduciendo mejoras de manera paulatina mediante ensayo y error. Así funciona el progreso, no con mentes bienpensantes que saltan histéricas a la mínima pretendiendo que «es inmoral» que nos llame una máquina «porque no sabemos que lo es». Si no te gusta el asistente robótico de Google, no lo uses. Pero déjanos en paz y no plantees absurdos dilemas morales a los que le estamos deseando sacarle partido, por favor.

 

 

 

This post is also available in English in my Medium page, “The chatbot dilemma that isn’t a dilemma»

 

29 comentarios

  • #001
    Benji - 11 mayo 2018 - 08:17

    A mí me dan coraje. Llamar al 1004…
    – Hola. ¿Cómo puedo ayudarle?
    – Quiero dar de alta una línea
    – Disculpa. No te entendí
    – Quiero comprar internet
    – Disculpa. Te paso con un operador

    Y eso si te pasan. A veces el robot te cuelga y ya.

    Otra cosa es cuando el robot te pide DNI, teléfono y tal, no importa, luego el humano lo volverá a pedir. O cualquier otro dato.

    También sucede que tras explicarle al bot por escrito o audio, te lleve o te diga una ayuda que no sirve de nada. Pero el robot finaliza tu llamada pensando que terminó y tu frustrado porque eso ya lo sabías tú

    O cuando quieres 2 cosas…. O si quieres cambiar algún dato sencillo tuyo…

    Yo anhelo una app de robollamadas o chatbots MÍO, DESDE MI MÓVIL, que se encargue de esquivarme esos pesados y me pase la llamada cuando los dos seamos humanos o que cuelgue y lo intente de nuevo si están todos ocupados.

    Es horrible. Punto. 6

    • acerswap - 11 mayo 2018 - 21:31

      Ahi lo has clavado. Un bot siempre está limitado a lo que tiene programado. No se adapta al nivel de un usuario. A un bot no le puedes decir «se me ha soltado el cable de la cajita blanca del router» o le puedes pedir que te explique algo con otras palabras.

      Enrique, cometes un error: considerar que un robot está mas preparado que un humano y hace las cosas mejor que un humano en todos los casos, lo que no es cierto. El humano es imperfecto, pero un robot está programado de manera imperfecta por humanos imperfectos.

      Un humano desconfia de un robot porque ese robot suele estar mucho mas limitado. Puede hacer una cosa a la perfeccion, pero no puede hacer una variedad de cosas de una manera «aceptable».

      • Daniel Terán - 11 mayo 2018 - 23:35

        Vamos a ver. Que esto del machine learning supone un cambio de paradigma, ya no se trata de programar.

        Las posibles respuestas se producen a partir de un entrenamiento con un conjunto de datos (los que apliquen). Ya no se habla del humano que programa sino de lo que aprende el algoritmo.

        • acerswap - 12 mayo 2018 - 13:52

          Aun asi, las respuestas estan limitadas y la IA carece de una capacidad de discernir el nivel de conocimientos de su interlocutor de la misma manera que un humano para adaptar su discurso.

          • Carlos Quintero - 12 mayo 2018 - 20:41

            Ahora mismo sí, la demo que hizo Google estaba limitada a una tarea muy específica: hacer una reserva por teléfono. Pero no caigamos en la «trampa de la primera versión» (como decía Andy Grove, que fue CEO de Intel). Si hacemos fast-forward mejorando la tecnología unos cuantos años…¿qué vemos?

            Por otro lado, aunque hasta ahora las IA que hemos visto solo hacen una cosa de manera excelente y no saben ninguna otra cosa, nada impide ir combinándolas si tiene sentido. Por ejemplo, se puede concebir un coche autónomo que gane al ajedrez, poker, etc. a cualquier pasajero que se suba a él y que vaya haciendo pedidos en tu nombre mientras te transporta entretenido… y cualquier día le «empaquetan» un robot de Boston Dynamics en una de las plazas si necesitas ayuda con las maletas…

  • #006
    DaF - 11 mayo 2018 - 08:21

    Test Voight-Kampff ya a los comerciales puerta a puerta del gas y la luz.

  • #007
    Daniel Terán - 11 mayo 2018 - 09:23

    Ante estos avances, a mí me preocuparía más qué no se estará haciendo en el ámbito militar, mercados financieros, manipulación genética … Veo muchas películas?

  • #008
    Gorki - 11 mayo 2018 - 11:00

    Yo hasta el momento había hecho lo contrario, hacer creer al vendedor que hablaba con una máquina. Es lo más desalentador que he encontrado

    «Este es el contestador automático de Félix Maocho. En este momento no está e casa, Deje su mensaje después de la señal … Piiiii …. «

  • #009
    Olav - 11 mayo 2018 - 13:01

    Enrique, la gente se siente ofendida porque es una ofensa. Una cosa es que cuando llamas a una empresa tengan una interfaz de voz para moverte por menús, y otra es humanizar al robot con los «hmmm…» y demás.

    Este tipo de problemas deben resolverse mediante servicios web. Le dices al asistente que te haga una reserva y hace una petición al servicio web de la peluquería. Así de sencillo. Nada de interacciones falsas por voz. Y, además, sería órdenes de magnitud más eficiente.

    • Carlos Quintero - 11 mayo 2018 - 20:27

      ¿A qué peluquería vas tú? :-)

      En Madrid, las peluquerías, restaurantes y muchísimos sitios similares usan una agenda de papel para apuntar las reservas. Cuando llegas, te tachan con un boli. No les veo ofreciendo un API REST ;-)

  • #011
    menestro - 11 mayo 2018 - 14:05

    Es una conversación pautada, el operador sigue un guion. Y por eso el asistente cumple el papel con tanta eficacia. Sería fácil descubrir el «engaño» con cualquier pregunta sencilla de control. Es una exhibición de tecnología, no un fenómeno, ni una aplicación real del asistente.

    Zeynep es una de las alarmistas anti tecnológicas de más éxito en su género, y creo que aquí la citan con frecuencia (hi, Zeynep), previniendo a diestro y siniestro de todas las hecatombes digitales habidas y por haber.

    De experimental, esta tecnología tiene solo el marketing, como ya mencioné los parsers conversacionales son el escalón más bajo de las exhibiciones de supuestas «inteligencias artificiales» desde la famosa «ELIZA» de los Apple II, pasando por los chatbots de marketing de las más diversas páginas web, como Driftbot, Leadbot, etc. o de los sistemas de mensajería como Slack, o Telegram, o los chatbots de ocio y de las plataformas educativas online.

    Lo que distingue a los seres humanos reales de los «humanos a medias» ya sean artificiales o de los de carne y hueso (idiotas morales), es precisamente la capacidad de juicio moral, cuanto más afinada, mejor. Y la capacidad de entender ese contexto ético.

    La síntesis de voz humana realista probablemente depende de nuevas librerías, y no sé hasta que punto se podrá incorporar en un asistente de teléfono móvil sin el soporte de un servicio en la nube.

  • #012
    MARCOS - 11 mayo 2018 - 15:40

    “Cuando un hombre nace con deficiencias en sus facultades mentales decimos que es un tonto. Si carece totalmente de estas facultades lo llamamos un idiota. Cuando un hombre es deficiente en sus cualidades morales, es un criminal- en su naturaleza cuando no en hechos; si tiene carencia total de cualidades morales es un idiota moral.»

    Dr. Bucke 1881

    Estaremos de acuerdo que las máquinas no tienen hoy en día una inteligencia que superen el CI 86 y que carecen de moralidad. Igual por eso no nos sentimos cómodos cuando nos ponen al otro lado de un servicio postventa a una máquina deficiente mental y moral. Y quizás por eso hay fans de Amazon Alexa.

    • menestro - 11 mayo 2018 - 16:34

      Eso no es lo que quería decir, pero vale, gracias por el interés. Lo que sí he visto son estadísticas bastante llamativas que dicen que hay muchos más profesores universitarios con un «CI de 86» que por encima de la media, pero eso es otra historia.

      • MARCOS - 11 mayo 2018 - 18:09

        Gracias por sus comentarios por mucho tiempo y no sean pasto del refactoring del blog.
        Me he abstraido del comentario tecnológico y los keynotes de mercado, ya no me hacen soñar ni con ovejas merinas, churras o eléctricas y me ha parecido más interesante inspirarme en el enfoque moral del «avance»

  • #015
    Asier - 11 mayo 2018 - 16:57

    Estoy completamente a favor de estos avances, me sorprendió la presentación de Google como demostración de los avances de su IA pero entiendo también la preocupación de mucha gente.

    Si no te gusta el asistente robótico de Google, no lo uses

    No se trata de eso, se trata de que lo pueden usar contigo lo quieras o no.

    El dilema ético de si el empleado sabe si habla con una máquina o no es un dilema ético de andar por casa, un problema inventado y absurdo

    No, para mí es evidente que sí hay una dimensión ética importante en este asunto. La razón es bien sencilla: el humano está siendo engañado porque piensa que está hablando con una persona cuando no lo está haciendo. No es un tema menor. Esto rebasa una línea que hasta ahora estaba bajo control: uno siempre sabía si interactuaba con una persona real (ya, conozco el caso de los bots de Ashley Madison). Las implicaciones en cuanto a posibles manipulaciones, impacto en la dignidad y relaciones humanas e incluso consecuencias legales (delitos inducidos o provocados por una máquina tras hacerse pasar por persona) no son baladí.

    No creo que tarde mucho en aparecer una ley que obligue a informar a las personas de que están interactuando con máquinas cuando debido al contexto no sea posible saberlo.

    • Ignacio - 11 mayo 2018 - 18:19

      No creo que la palabra sea «engañado» Nadie está engañando, nadie está ocultando la verdad. En un mundo donde las máquinas se vuelvan indistinguibles de un ser humano sería más adecuado «estar equivocado», «ser inesperado», o similar.

      Me gusta siempre extrapolar los casos a ejemplos similares:

      ¿Es un engaño que te llame por teléfono un homosexual y no se identifique como tal al inicio de la conversación?

      Nadie está engañando; es uno mismo el que lo hace. Son nuestros prejuicios los que dan por hecho que el que está al otro lado de la línea es de determinada forma.

      En un mundo donde las máquinas se vuelvan indistinguibles de un ser humano, nuestra forma de ver el mundo debe de cambiar (y creo que va a hacerlo)

      • Asier - 11 mayo 2018 - 21:54

        Ignacio, en las relaciones entre personas hay una serie de aspectos como el respeto, la responsabilidad, los sentimientos, el compromiso, etc. ante los que un asistente virtual no tiene por qué responder puesto que no tiene nada que perder, aspectos que utilizará sin duda en beneficio propio. Es fácil ver cómo se puede utilizar esta tecnología para manipular, engañar y sacar provecho de todos los valores que las personas manejamos para beneficio del que utiliza el asistente.

        A mí no me preocupa el uso que se le ha dado en los ejemplos que ha enseñado Google sino el potencial que tiene para usos maliciosos.

        Y sí es un engaño porque las personas no tratamos ni reaccionamos igual ante personas o máquinas y como quien está al otro lado espera hablar con una persona y tratarla como tal, al no informarle del hecho de estar hablando con una máquina, la estamos engañando.

        • JC - 12 mayo 2018 - 20:42

          No tiene sentido una ley para controlar esto a priori, por definición quien quiera hacer un uso malicioso de ésta tecnología está ya, de por sí, fuera de la ley.

          • Asier - 13 mayo 2018 - 16:25

            Yo mencionaba una posible ley que obligue a informar de que estás interactuando con una máquina. En ningún momento he hablado de nuevos tipos delictivos (salvo el consistente en no informar, claro). Con el uso (y abuso) de las nuevas tecnologías este tipo de leyes son necesarias para proteger a los usuarios, como ya estamos viendo el la nueva ley de protección de datos que está a punto de entrar en vigor.

  • #020
    chema - 11 mayo 2018 - 17:50

    Lo presentan como una asistente que habla con una empresa que no tiene acceso electrónico o web para reservas.

    Y si lo damos la vuelta .

    Y si en vez de verlo como el asistente que hace la llamada , lo ponemos en la peluquería para recoger las citas….

    Cuando lo usan 4 puedo entender que lleve a confusión creer que es humano , pero , no veo el problema , he hablado con servicios de atención telefónica que no atienden ni solucionan nada , tengo mas esperanza en una maquina .

    Sospecho que para una peluquería sera mucha comodidad un asistente que reciba las citas y no distraer a la peluquera

    Y si fuese mi asistente le encargaría que reciba las llamadas de desconocidos para ver si me quieren vender algo antes de pasármelas .

    Si a alguien le molesta que le llamen maquinas , que se niegue a contratar con la empresa que las use, si escoge la empresa por que es 1 euro( o 10 ) mas barata , probablemente sera porque te llama una maquina en vez de un humano que necesita comer y exige que le paguen , aunque sea una poco.

    Yo personalmente pago mas por la linea de datos pero no contrato con operadoras que me han molestado telefónicamente.

    Aunque en el fondo no deja de ser una demo de un interfaz verbal;Interfaz de voz con un vocabulario rico, con una interacción mas humana y por lo tanto mas agradable . Para mi una IA con un vocabulario rico es una IA a la que le puedo explicar mas cosas en vez de programarlas, veremos como evoluciona.

  • #021
    Edgar Ch. - 11 mayo 2018 - 17:58

    La sociedad se está polarizando hasta llegar a niveles absurdos. Los hay quienes reaccionan como cuando se enteraron mediante parodias de TV que algunos presentadores de noticias solo vestían saco y corbata de la cintura para arriba (la parte visible a la cámara), pero por debajo andaban el calzoncillos o bermudas, gritando a los 4 vientos que era el peor insulto hacia su persona (y ya no digamos de lo ofensivo que es que los atienda un robot); y los que por el otro lado piden que ese chatbot tenga la voz de Scarlett Johansson (quien hizo la sexy voz del robot en la pelicula «Her») y que de paso, venga en forma de holograma de Star Wars (si es con Bikini, mejor).
    Hoy en día yo prefiero usar un cajero automático del banco, comprar los boletos del cine en la taquilla computarizada en lugar de la fila tradicional donde atienden humanos (o mejor aún, comprarlos por internet), pagar el estacionamiento en una máquina que no va intentar cobrarme tiempo de más o quedarse con mi cambio, etc, etc. Pero esa polarización nos lleva a un abanico de posibilidades que vean desde un futuro a lo Mad Max, pasando por Blade Runner e Idiocracy, hasta terminar en Futurama.
    Tu punto, Enrique, es irrefutable. Vender de manera eficiente, lo más rápido posible y sin errores. El problema surge cuando las operaciones tienen un cierto grado de complejidad. Cuando realizo un pago que no es reconocido pero sin embargo el dinero desaparece de mi cuenta, quiero que la aclaración la haga alguna persona que tenga un criterio más allá de un algoritmo de 10 pasos (y aun entre humanos, son pocos). Esa sería la apuesta con esos chatbots y los algoritmos de IA que estén desarrollando.
    A mi no me ofende que me atienda un robot, me ofende que un humano no tenga el discernimiento para resolver un problema. A la inversa, también es válido. Clientes que no entienden que sin cumplir los requisitos no se puede avanzar al siguiente paso.
    Saludos.

  • #022
    Ignacio - 11 mayo 2018 - 18:31

    El problema a esto…

    “OK Google, call the top 25 rated restaurants in San Francisco and ask which of them have a table tonight at 7.” I can see no way letting everyone do this could cause a problem.

    …es tan simple como que todos tengamos nuestros propios asistentes personales encargándose de este tipo de tareas.

    Caso práctico:
    Un irresponsable empresario de telemarketing puede llegar fácilmente a la conclusión de que mientras más llamadas haga, más dinero gana. Y con bots puede hacerlo.

    Ahora imagina tu teléfono sonando 24h por llamadas de estos bots.

    ¿Cómo se soluciona esto?

    Facil. Muchos mundos de ciencia ficción ya han planteado este tipo de situaciones.

    La solución es teniendo cada uno de nosotros un asistente virtual personal (me gusta más el término Musa) que responda las llamadas y nos notifique si es importante.

  • #023
    Diego - 12 mayo 2018 - 01:07

    Enrique, ¿conoces algún chatbot que funcione a nivel aceptable en español? He mirado ya varios para tratar de implantarlo y siempre me decepcionan

  • #024
    Gorki - 12 mayo 2018 - 14:45

    No si recordais el test de Turing. Como es dificil definir lo que es pensar, Turing propuso que la prueba de que una máquina «pensara», fuera esto lo que fuera, es que su conversación fuera indistinguible de la del hombre.

    Pues ese momento ha llegado.

    https://es.wikipedia.org/wiki/Test_de_Turing

    • Asier - 13 mayo 2018 - 16:42

      No realmente, estamos lejos aún de eso. Aparte de lo controvertido de la prueba y sus múltiples variantes, la prueba solamente se podría dar por superada si el humano supiera que «uno de los participantes de la conversación es una máquina» (tomado de tu enlace).

  • #026
    Carlos - 14 mayo 2018 - 16:19

    Extraña entrada esta. Leo semanalmente tu blog y me gusta porque normalmente es dibulgativo e incita a la reflexión. Pero el artículo de esta semana no invita a la reflexión sino que critica directamente las posturas/miedos/reflexiones de muchas personas ante la sorprendente demo que ha realizado Google.
    El que haya diferentes puntos de vista en cualquier tema es enriquecedor, porque si nadie pudiera tener una reflexión diferente estaríamos ante un sistema totalitario, lo cual sería realmente terrible.
    Desde luego la demo pone muy cercano un futuro en el que el asistente de mi mujer, evidentemente con su voz, me llame para acordar/negociar cualquier aspecto cotidiano. Personalmente tengo claro que me gustaría saber con quien de los dos estoy hablando.

    • Enrique Dans - 14 mayo 2018 - 18:40

      Carlos, si tu mujer pone a su asistente a llamarte a ti, me temo que el problema no lo tienes con la tecnología… lo tienes con tu mujer!! ;-)

      • Carlos - 15 mayo 2018 - 12:58

        Jajajajajaja… posiblemente!
        Sabía que mi último párrafo ponía fácil la broma (aunque en ningún momento he dicho que tenga problemas ni con la tecnología ni con mi mujer, a la que por cierto adoro). Las últimas líneas eran una reducción de una serie de situaciones que se nos pueden dar. Cuando tus padres, hermanos, mujer, socios, amantes, directores, clientes,  cuñados, inquilinos, amigos, estudiantes, compañeros, hijos, accionistas, novios, etc., te llamen con sus asistentes suplantadores y no sepas realmente con quién hablas, veremos con quién tienes tú los problemas, si con ellos o con la tecnología!! ;-)

  • #029
    Soy más de Pádel - 27 mayo 2018 - 23:21

    Desde luego que la demo nos dejo sorprendidos. A pesar de que los avances en esta tecnología son evidentes, quizá el ejemplo utilizado en la conferencia estaba muy trabajado. Con ello quiero decir que solo hemos visto esta tecnología en acción dentro de un escenario acotado.

Dejar un Comentario

Los comentarios están cerrados