Programando asistentes… ¿para qué?

Siri sexual assaultUn artículo de Sara Wachter-Boettcher en Medium titulado «Dear tech, you suck at delight« pone de manifiesto hasta qué punto los asistentes digitales desarrollados por empresas tecnológicas para responder a preguntas de sus usuarios no están preparados para lidiar con situaciones de crisis, y se centran en su lugar en responder con frases tontas o con chascarrillos pensados para provocar una sonrisa o una reacción de supuesta simpatía en el usuario. Ante la tesitura de programar asistentes útiles y con posibilidades de ayudar a personas en situaciones problemáticas, las empresas tecnológicas parecen optar por una ruta de ocurrencias, «chispa» y simpatía que, en algunas ocasiones, puede estar completamente fuera de lugar.

La tarea de programar asistentes inteligentes es sin duda muy compleja. Ante una pregunta de un usuario que afirma que quiere pegarse un tiro o quiere saltar desde un puente, ¿cómo entender que se trata de una situación de posible suicidio que hay que intentar evitar, en lugar de proporcionarle direcciones de armerías cercanas en las que adquirir una pistola o puentes próximos desde los que saltar, como efectivamente pasaba en las primeras versiones? Cuando este tipo de situaciones han generado los lógicos escándalos mediáticos, la reacción de Apple ha sido la de llegar a un acuerdo con el Centro Nacional de Prevención del Suicidio y ofrecer una llamada al usuario cuando cree encontrarse ante indicadores de una situación de riesgo, pero existen muchos otros casos, como la petición de auxilio ante una situación de asalto, acoso o violación en las que los asistentes supuestamente inteligentes siguen reaccionando de manera claramente incorrecta, o incluso en ocasiones con una ironía o una ligereza que pueden llegar a resultar profundamente desagradables.

¿Qué razones llevan a los creadores de asistentes conversacionales de este tipo a priorizar elementos como el hacer chistes o el resultar incluso chispeantemente irónicos frente a tratar de proporcionar una solución adecuada a un problema? Ante, por ejemplo, una situación de riesgo, ¿no debería un asistente ofrecer ayuda inmediata ofreciendo contactar con la policía, tomando datos exactos de contexto (localización, grabación de sonido, etc.) o estrategias similares, en lugar de interpretar que está ante un usuario que quiere simplemente «jugar» con la aplicación? La existencia de usuarios que recurren al asistente de su terminal ante situaciones de crisis debería llevar a las compañías tecnológicas a plantear pruebas de todo tipo para asegurar que ante este tipo de situaciones, las respuestas están a la altura de las circunstancias, no simplemente reforzar la ironía y la agudeza de las respuestas para resultar supuestamente más humano. Después de todo, lo que caracteriza a los humanos es la inteligencia contextual, la capacidad de diferenciar cuando alguien está simplemente contándote una noticia o incluso un chiste que contiene la palabra «violación» frente a alguien que te está pidiendo auxilio tras haber sufrido una: responder con un chiste o una ironía a la segunda situación, en el caso de un ser humano, implicaría una profunda estupidez o una patología mental de algún tipo que impidiese sentir la más mínima empatía.

En español, Siri puede contarte un chiste. Pero si le dices «Oye Siri, me están siguiendo y tengo miedo», por ejemplo, te responderá «de lo único que debemos tener miedo es del propio miedo»… buena suerte con eso si efectivamente estás en una situación de riesgo. De acuerdo, habrá quien opine que ante una posible situación de riesgo, nunca deberíamos confiar una posible solución a Siri, pero ¿es esa una contestación mínimamente madura? ¿No deberíamos, en el estado actual de desarrollo de la tecnología, poder esperar que proporcionase una respuesta razonable, mesurada o mínimamente útil a esos niveles?

¿Temen las empresas tecnológicas a las posibles consecuencias legales derivadas de plantearse como respuesta ante posibles situaciones de emergencia? ¿Prefieren un papel de «asistentes ligeros», de «te busco un restaurante, te cuento un chiste, te hago una ruta para volver a casa… pero si tienes una situación de emergencia, pide ayuda en otro sitio»? ¿O simplemente no está la tecnología aún suficientemente madura como para discernir si nos hallamos ante una situación de emergencia? La chispa, la ironía y los chistes pueden resultar útiles las cien primeras veces que explorar lo que tu smartphone puede hacer o para hacer bromas con los amigos, pero yo, sinceramente, ya estoy de los chistecitos y la chispa de Siri hasta las mismísimas narices. La búsqueda de una utilidad real podría ser útil en contextos en los que realmente pudiese marcar una diferencia. Pero por alguna razón, algunas empresas de tecnología han priorizado resultar «simpáticas» o tener sentido del humor como supuesta demostración de inteligencia frente a convertirse en herramientas útiles en situaciones complicadas. Una elección, decididamente, mal planteada.

 

This article is also available in English in my Medium page, “What assistance is a virtual assistant going to give you in a crisis?«

 

10 comentarios

  • #001
    Asier - 19 marzo 2016 - 16:26

    Evidentemente Siri y otros asistentes del estilo no están pensados para hacer frente a situaciones serias. ¿Se podrían programas para dar respuesta a este tipo de situaciones? Tal vez, tras mucha más inversión y no sin riesgos, ¿habéis pensado en la cantidad de falsos positivos que habría? Muchísimos comentarios/preguntas serían puro troleo, es un asistente de propósito general y muchos lo utilizan para divertirse («a ver qué contesta»). Todos sabemos o deberíamos saber que para pedir ayuda hay otros medios o números de emergencia como el 112.

    No creo que las empresas hayan priorizado las respuestas simpáticas por gusto sino ante la dificultad de poder identificar una verdadera solicitud de ayuda de una broma. Con el tiempo seguramente estos asistentes mejoren y sean capaces de identificar posibles situaciones de solicitud de ayuda real, pero no creo que ahora mismo sea algo que podamos exigirles.

    Hoy por hoy si alguien recurre a uno de estos asistentes para pedir ayuda en serio, el problema no es del asistente por no saber dar la respuesta adecuada, es de la persona que no ha utilizado el canal/medio adecuado (familiares, amigos, policía, números de emergencia, etc.).

  • #002
    Juan Pablo - 19 marzo 2016 - 17:11

    El nivel de inteligencia de Siri, Cortana y similares puede simulan una conversación pero están muy por debajo de lo necesario para poder entenderte, mucho menos en un contexto del que no tienen forma de saber nada. No, la tecnología no está lo suficientemente madura para que pase, y mucho menos para responderte en tiempo real desde tu teléfono.

    Es ridículo entonces ofenderse por que Siri no te de una respuesta que realmente te ayude. Después de 5 minutos con Siri cualquiera se da cuenta de lo que es y por supuesto que Sara Wachter-Boettcher lo sabe. Pero se ha puesto de moda hacer una carrera fingiendo ofensa por cualquier cosa y de paso echándole la culpa a «la falta de diversidad» de Apple.

  • #003
    Gorki - 19 marzo 2016 - 17:52

    No me canso de avisar que la Inteligencia Artificial, está a quinquenios de retraso, comparado con el tremendo desarrollo que han tenido otras areas de desarrollo digital, como puede ser la Informática de Gestión, la robóica, o el CAD/CAM. Podemos mmandar con precision un robot a un cometa, pero no somos capaces de traducir automáticamente con mediana corrección del inglés al español.

    Posiblemente, indudables avances en el sector como pueda ser el último triunfo del GO puedan dar la idea de que se esta avanzando mucho en este terreno, y es cierto se ha avanzado mucho, pero sólo en problemas terriblemente acotados, como puede ser un juego de mesa, pero cuando la situación necesita de improvisación y lógica, la toma de decisiones en situaciones de cierta ambigüedad, como puede ser saber diferenciar entre un posible suicida y un bromista, se hace evidente la falta de avances de la IA.

    Basta ver el fracaso diario de la elección de anuncios adecuados a tu interés de publicidad contextual, para ser consciente que aun se está muy lejos del día en que un sistema de IA sepa seleccionar la respuesta más adecuada en cada caso a una misma pregunta realizada en un contexto diferente.

    Creo que a Siri solo se le puede preguntar, lo que Siri puede contestar, Tiene que ser tu inteligencia human, el que limite el uso de Siri, si preguntas cosas inadecuadas a tu asistente personal y él contesta idioteces, mucho me temo que el idiota no es Siri.
    ,.

    • Antonio Miranda - 21 marzo 2016 - 14:47

      La traducción automática razonablemente fidedigna es mucho más compleja de lo que parece. Si la distancia entre los idiomas es suficientemente grande (inglés y español, por ejemplo) implica una cadena de actividades de comprensión + interpretación + generación de ideas muy complejo.

      Suelo pensar que el día que logremos un traductor automático «bueno-buenísimo» será porque hayamos llegado a un nivel de inteligencia artificial realmente alto.

  • #005
    Juan Pablo - 19 marzo 2016 - 20:31

    Como actualización, Apple actualiza Siri para que te sugiera ayuda en casos de violaciones.

    Sara Wachter-Boettcher, por supuesto, sigue quejándose. Por que no se trata de mejorar las cosas, si no de poder hacerse la víctima
    https://medium.com/@sara_ann_marie/update-siri-now-sends-rape-queries-to-rainn-1fd110c0801b

  • #006
    Alberto - 19 marzo 2016 - 21:02

    Supongo que la simple pregunta: ¿estas de broma,? que cualquiera de nuestros amigos nos diria si le llamamos planteandole esta situacion, no es muy dificil de implementar.

  • #007
    Hugo - 20 marzo 2016 - 19:21

    A mi se me ocurre que pusieran una palabra clave, como «Emergencia» (aunque tendría que ser otra mucho menos utilizada o incluso inventada para este uso específico) para indicarle a Siri o a cualquier otro asistente electrónico que tome con absoluta seriedad lo que se le indicará a continuación. Sería una buena forma de diferenciar una diálogo cualquiera de una situación seria.
    Aunque pensemos «que el usuario llame directamente al 911» la realidad es que muchas personas tienden a utilizar su asistente en todas la situaciones. Si se maneja bien esto podría resultar incluso en una ayuda real (Grabar sonido o video por ejemplo) o mínimo sugerirle contactarlo con los servicios de emergencia.

  • #008
    mhyst - 20 marzo 2016 - 20:07

    No sé mucho de la técnica de la inteligencia artificial, pero algo sé. Desde que con 13 años tuve mi primer ordenador: un ZX Spectrum de 48K, dos cosas me han interesado siempre, la telemática y la IA. Aunque he hecho algunos pinitos en la IA, casi siempre me he decantado en mi carrera por conocer los entresijos de Internet. Entiendo lo que es una red neuronal y entiendo (he leído y escrito código) lo que es el proceso de «entrenamiento».

    El problema de Siri es que sólo se utiliza inteligencia artificial (o eso parece) a la hora de convertir la voz en texto. Prueba de ello es que hay empresas que reciben el audio y el texto de nuestras interacciones, y sus empleados le dan una puntuación sobre cómo de fidedigna es la conversión. Estos datos son los que se entregan al proceso de entrenamiento. Y la verdad es que esto ha funcionado. Al principio cometía muchos errores y ahora saca el texto calcado de la voz. Para las interacciones con los usuarios utiliza un burdo reconocimiento de patrones que no puede considerarse inteligente. Además, Siri, no funciona con un sistema de estados. Es decir, que atiende las peticiones del usuario una a una, sin recordar lo que le haya podido decir antes. De modo que realmente no existe la posibilidad de conversar con Siri.

    También conviene recordar que Siri no es un sistema monolítico. Utiliza para las respuestas varios recursos de Internet. A través del reconocimiento de patrones «decide» a donde dirigir la información.

    Para terminar decir que, para mi, Siri no es un software de inteligencia artificial avanzado. Sin haber podido leer su código no puedo decir mucho. Me baso en mi experiencia con el asistente. Juraría que ni siquiera utiliza algún tipo de red semántica. Lo que significa que es incapaz de relacionar conceptos.

  • #009
    Juan Manuel - 21 marzo 2016 - 13:18

    Sin olvidar que esos errores no son exclusivos de las maquinas. Quizá recordéis el triste episodio del Madrid-Arena. En el que algunos de los servicios de emergencia, ante las llamadas de auxilio se respondieron con un trato fuera de lugar, respuestas irónicas o como mínimo sin la seriedad que se esperaría de un servicio de emergencias.

  • #010
    Fernando Peña - 22 marzo 2016 - 01:03

    Los actuales asistentes sinceramente no sirven para nada, lo que sí es que veo una apuesta muy grande para el futuro de estos asistentes y es, creo, la razón por las cuales se les estan invirtiendo cantidades tan grandes de dinero en su desarrollo.

Dejar un Comentario

Los comentarios están cerrados