Deja que seleccione el algoritmo…

IMAGE: VIN JD - Pixabay (CC0)

Cada vez son más las compañías que recurren a algoritmos en sus procesos de selección, particularmente en una época marcada por la pandemia en la que buena parte de las etapas del recruiting – o la totalidad del mismo – tienen que llevarse a cabo en modo remoto, a través de la red.

Desde el filtrado inicial a partir de versiones estandarizadas del curriculum vitae o de pruebas diagnósticas de diversos tipos que determinan actitudes y aptitudes de los candidatos, al procesamiento de entrevistas llevadas a cabo en modo asíncrono (one-way interviews), cada vez más etapas en los procesos de selección son encargadas a diversos tipos de algoritmos capaces de llevar a cabo cribados en función de diversos criterios, con la idea de que los encargados de la tarea de reclutamiento puedan concentrarse más en las personas y menos en las tareas administrativas necesarias para filtrarlas. En muchos casos, cuestiones como el ofrecer feedback a los candidatos sobre su situación, que puede ser fácilmente automatizada mediante los algoritmos adecuados, se convierten en una tarea prácticamente imposible para el departamento que lleva a cabo la selección, lo que tiende a generar una mala imagen entre los potenciales candidatos.

¿Qué ocurre a medida que esas tareas son absorbidas por algoritmos? En primer lugar, que las compañías son capaces de gestionar procesos que, en muchas ocasiones, resultaban simplemente apabullantes por la gran cantidad de candidaturas recibidas. Para determinadas compañías, la posibilidad de anunciar un puesto en abierto en su página web o en una web de empleo se convierte en un auténtico aluvión de candidatos, que anteriormente eran objeto de un primer cribado manual que no solía ser especialmente metódico o cuidadoso. Si esa primera selección se lleva a cabo de manera automatizada, es posible que algunos candidatos que eran descartados al principio por motivos no necesariamente objetivos puedan avanzar a las siguientes fases. Lógicamente, este tipo de aplicaciones demandan transparencia en el funcionamiento de los algoritmos. Son conocidos casos como el de Amazon, que tras más de cuatro años utilizando un algoritmo en sus procesos de selección, decidió eliminarlo al comprobar que contenía implícito un sesgo que tendía a penalizar a candidatos de sexo femenino.

Otra consecuencia sería la posibilidad de introducir más pruebas en el proceso de selección sin temor a que su procesamiento se convirtiese en una tarea que demandase demasiados recursos. Así, una primera entrevista automatizada puede generar un primer cribado muy interesante de candidatos, de nuevo, siempre que el uso de algoritmos no conlleve, por ejemplo, una penalización de candidatos en función de su raza o de otros factores, como su acento. De hecho, podríamos incluso plantearnos utilizar algoritmos para detectar ese tipo de sesgos en nuestros procesos de selección, dado que podrían encontrarse también en las personas de la compañía que la llevan a cabo.

También es posible pensar en dar la vuelta al proceso de selección, y poner a un algoritmo a buscar perfiles en redes como LinkedIn u otras en busca de candidatos adecuados, con el fin de llevar a cabo ese primer cribado no en función de quiénes se presentan a la búsqueda, sino de quiénes pueden ser más adecuados en función de la experiencia que declaran tener o de otras características, a modo casi de head-hunter automatizado.

De una u otra manera, todo indica que, a medida que los procesos de selección trasladan muchas de sus etapas a la red como resultado de las restricciones a la movilidad generadas por la pandemia, va a ser cada vez más habitual que algunas de esas primeras fases sean llevadas a cabo no por una persona, sino por una máquina, con todo lo que ello puede conllevar. Si además buscamos, como ocurre en la actualidad, candidatos capaces de interactuar de manera adecuada a través de un canal en remoto, muchos de los criterios evaluados de esta manera pueden incluso convertirse en más relevantes: si no te encuentras cómodo interaccionando o hablando con una pantalla, es posible que debas empezar a preocuparte. O, como mínimo, a practicar un poco más. Es posible que tu carrera profesional dependa de ello.


This article was also published in English on Forbes, «When it comes to vetting job candidates, let the algorithm do the work, at least initially«


20 comentarios

  • #001
    Juan T. - 14 febrero 2021 - 20:31

    Vamos que terminaremos siendo un paquete de datos andante.
    Lo podrían utilizar para seleccionar parejas en First Dates por que no dan una.

  • #002
    Carlos Jerez - 14 febrero 2021 - 20:54

    Esta es una práctica muy estandarizada. Los primeros filtros son muy automatizados. Para pasarlos el importe adaptar tu CV a ellos y usar palabras claves. Por ejemplo, miras lo que buscan y añades esas palabras a tu CV, por ejemplo, en la zona de competencias.

    Eso si, es más pesado para el trabajador que envía su candidatura, especialmente, respecto a las pruebas o incluso video entrevistas pregrabadas. Aún me acuerdo de hacer una para una aerolínea justo antes de la pandemia (menos mal que no conseguí ese trabajo) y para los que no tenemos ganas de convertirnos en actores es bastante difícil estar hablándole a una webcam. Así que sí, vamos a tener que practicar o buscar otra empresa que no lo requiera.

  • #003
    Gorki - 14 febrero 2021 - 21:13

    Entiendo que algoritmos con un sesgo, como eliminar a mujeres no vale, pero puedo asegurarte que cuando la seleccion es humana. los sesgos tambien existen, el que no discrimina por sexo, elimina a lxs fexs, a lxs gordxs y nada te digo lxs de otras razas,

    No creo que el algoritmo y mas si se corrige los sesgos que se observen no la haga mejor que los humanos, porque en principio son menos influenciables y solo se fijan en los datos.

    Desde luego yo, que he intervenido en la selección de bastantes programadores, con quien no empatizaba en la entrevista, no le seleccionaba, eso un algoritmo posiblemente no lo hiciera.

  • #004
    Chipiron - 14 febrero 2021 - 23:50

    Yo creo que hay dos etapas diferenciadas que se pueden automatizar fácilmente para descartar un buen número de candidatos si llueven los curriculums:

    La primera es de requerimientos mínimos. Por ejemplo, descartar cualquier candidato para un hotel si no sabe suficiente inglés. Fácilmente se pregunta o se le realiza un test on-line. Totalmente objetivo y poco objetable: no se puede dar un puesto de conductor de autobús a una persona con un impedimento físico que se lo impida.

    La segunda, fácilmente implementable pero más polémica y menos objetiva, sería una basada en correlaciones, estadísticas o deducciones por algoritmos de machine learning cruzando y relacionando las respuestas a un banco de preguntas. Y es que el problema radica en la estadística y la correlación, muchas veces pilares fundamentales de los algoritmos de inteligencia artificial:

    a) Correlación: Lo primero que aprende un estadista es que “correlación no implica causalidad”. Puede haber una tercera variable subyacente que implique la correlación entre dos más superficiales. Por ejemplo, ser proactivo, muy trabajador y resolutivo pueden ser características correlacionadas por una variable inferior que es la verdadera causa: El BMI (Body Mass Index). Dicho de otra manera, el algoritmo puede discriminar a los gordos para un puesto de programador.

    b) Estadística: Directamente implica generalizar comportamientos más probables por origen, cultura, edad, género… En media, seguro que un latino es menos productivo que un bávaro. Es justo que la estadística o comportamiento predominante de tu raza diga automáticamente que probablemente serás más vago? Obviamente no. Es una discriminación racial de libro.

    Resumiendo: si a la primera parte automatizada de la selección, pero rotundamente no a la segunda.

    • Carlos Jerez - 15 febrero 2021 - 10:47

      Totalmente de acuerdo en que el sistema automatizado es más propio para los primeros filtros y eso es algo normal, pero la IA es también útil en análisis posteriores.

      Lo que nos falta darnos cuenta es que somos bastante peores en la selección de personal de lo que creemos y normalmente eligímos por razones superficiales. Aún recuerdo un artículo que explicaba eso, y como ejemplo daba la selección de contables en una gran empresa, casi todos guapos.

      Yo estoy muy a favor de hacer los procesos de selección más cortos, ya es común procesos con 5 etapas, y luego tener un periodo de prueba donde en realidad se ve quién vale para el trabajo. Del mismo modo, me gusta el sistema de Netflix que permite reemplazar a un trabajador poco valorado por sus compañeros.

      https://lhra.io/blog/10-reasons-humans-terrible-hiring-ai-can-help/

      • sin censura - 15 febrero 2021 - 11:01

        Eso que llamas reemplazar a un trabajador hay empresas que se lo plantean muy en serio con cuestionarios 360. Y a veces es el mando que va fuera… En algunas empresas punteras, la tasa de reemplazo se fijaba en un 10% de la plantilla. Y los que se iban fuera eran sistemáticamente quien era peor valorado por sus compañeros (sean subordinados o mandos)

        Una IA podría arrasar con tanto dinosaurio si evaluara desde el CEO hasta la última contrata…

        ¿Pero quien va a pagar una consultora externa para que le digan que es un inútil?

        • Carlos Jerez - 15 febrero 2021 - 19:58

          Uff, lo de que evaluaran también a los CEOs, algo tan necesario, pero tan difícil hoy en día (por su poder, porque su rendimiento se traslada fácilmente en datos).

          Yo veo bien ese tipo de políticas. Siempre hay gente que pierde interés por su trabajo y baja el rendimiento o que no cumple con las expectativas que se tenía de esa persona.

          También tienes que tener la empresa en un país cuya legislación lo permita. He visto, en carnes propias, empresas que cerraban una oficina en un país porque era más fácil legalmente, a pesar de tener un rendimiento, para el mismo mercado, mucho mayor que el de otras oficinas en el mismo continente.

          Ahora imaginaos esto en la Función Pública…

    • XAQUIN FANBOY - 15 febrero 2021 - 15:01

      En una entrevista de trabajo:
      -¿Habla usted inglés?
      -Oui
      -Eso es francés…
      -Ah! Pues apunte que también hablo francés.

  • #009
    sin censura - 15 febrero 2021 - 10:46

    ¿Cómo se controla el error o la calidad en la selección efectuada por un algoritmo?

    • Gorki - 15 febrero 2021 - 11:13

      Buena pregunta. ¿Y por un humano?.

      • sin censura - 15 febrero 2021 - 12:21

        Tu pregunta para el humano cuando ED abra un artículo la tratamos.

        Ahora bien, se propone un sistema de AI para una determinada actividad, relacionada con facilitar a personas demandantes de empleo el acceso a una vacante,

        Asumamos que tenemos una BD con determinados skills y una cierta AI puede filtrar nuestra petición (Eso lo veo, igual que diferencia un perrito de un gatito por ejemplo con un 90% de eficacia y lo puedo chequear).

        Así que la pregunta es pertinente

        ¿En que si diferencia ese filtro a realizar una sentencia SQL un recruiter humano que filtra 1000 candidatos a aquellos que cumplen por ejemplo 10 variables (educación, formación específica, experiencia previa, idiomas, etc etc) ?

        De otro modo que valor añadido me da esa AI a que ese recruiter, que de todas formas necesito en un proceso de selección, que en 2 minutos haga un comando SELECT en su BD… adecuado a lo que pide un determinado departamento de una empresa que solicita por ejemplo cubrir una vacante?

        Por eso, ahora amplio mi pregunta

        ¿Cuál es la medida de error o calidad que nos aporta una determinada AI a un filtro de un recruiter? ¿Hay valor añadido en esa AI?

        Yo veo que cada petición la debe realizar un recruiter para las posiciones que tenga que cubrir, si tiene en una empresa 10 vacantes x mes, son 10 consultas que de sobra hace en una hora, el resto de tareas relacionadas con la tramitación de una selección, se seguirán tramitando como hasta ahora.

  • #012
    Juan I. - 15 febrero 2021 - 10:51

    Personalmente el uso de filtros automáticos es algo en lo que estoy inclinado a pensar que no ayuda. No es porque no tenga fe en la validez de los algoritmos, etc..
    Sino porque los filtro ya existentes creo que no funcionan, filtros como que no residas en la provincia, en base a titulación…

    En mi opinión el problema reside en el departamento de «recursos humanos» y que tiene poco de eso. Creo que el problema es la cultura imperante y me temo que el empleo de herramientas basadas en machine learning puede desembocar en tremendos fracasos, o en hacer lo mismo pero más cool.

    Mi experiencia con recursos humanos, que teniendo 27 años y llevar varias búsquedas de empleo no es pequeña, es de que están muy alejados de la realidad de la empresa y de qué hacen los perfiles que trabajan en ella. Si a eso le sumas que la mayoría no sabrá explicar cómo el algoritmo ha decidido filtrar al candidato, aunque sea una simple regresión multilineal e interpretar sus coeficientes… pues es que apaga y vámonos. Mi estrategia pasó al final en pasar ese filtro, diciendo lo que quieren escuchar, que ya habría que explicar mejor mis fortalezas y debilidades en la entrevista técnica, con la gente con la que trabajaría.

  • #013
    Felix - 15 febrero 2021 - 10:51

    Un algoritmo que busca la automatización de una tarea. Dicha faena tiene que poder ser automatizable, o por lo menos una parte de ella, pero los beneficios de algo así son indudables, el primero y más obvio para mi, es el de evitar errores, despistes o sesgos: No obstante, cuenta también con sus perjuicios, como cualquier otra cosa.

    Sin embargo, parece imparable que todo lo que pueda ser automatizable, lo será. Existirán etapas, idas, venidas y puede que abandonos, pero el tratamiento de datos ofrece unas posibilidades de gestión que no son desdeñables.

  • #014
    Javier Lux - 15 febrero 2021 - 14:17

    Lo de automatizar la selección en Linkedin a mi me da miedo.

    Más de una vez he imaginado la distopia de reportar nuestro trabajo a linkedin (por ejemplo conectar las ventas que he hecho en salesforce.com a mi perfil o que los software de RRHH envíen las valoraciones anuales de rendimiento también al perfil de linkedin, accesible a los demás DRH, previo pago claro.

    Que horror, ¿verdad?

    • sin censura - 15 febrero 2021 - 15:20

      Al comercial que vende AIs sería su sueño húmedo.

      Como nos dijó quiso decir Campoamor, nada es verdad ni mentira todo es del color del billete del objetivo con que se mida…

      ¿Verdad queridos promocionadores de AIs inservibles…?

      Un día tendremos que hablar de MACHINE LEARNING… sin «influencias», igual en otro blog

      https://www.iflexion.com/blog/machine-learning-challenges

    • Carlos Jerez - 15 febrero 2021 - 20:01

      Más de uno hemos pensado lo mismo. Por un lado podrían ver de verdad quien es bueno trabajando y quien no. Por otro lado, un horror contra tu privacidad.

      Por mi parte, preferiría tener mucha más transperencia sobre los empleadores. Pero vivimos en un mundo en que la mayoría de empleos no anuncian el salario, así el mercado laboral no va a funcionar correctamente (en este caso, favoreciendo a las empresas).

      • Javier Lux - 15 febrero 2021 - 22:14

        Gracias Carlos.

        A veces me suelo preguntar si soy demasiado paranoico. Aliviado al saber que habéis pensado lo mismo que yo.

        También me he imaginado muchas veces redes sociales semi-secretas de directores de RRHH o recruiters compartiendo información sobre directivos y trabajadores. Ha habido escándalos de pactos de precios ¿Por que no pactos para compartir información privada?

        • Carlos Jerez - 16 febrero 2021 - 09:55

          Compartir información privada, legalmente mas costoso y ceguera ante el beneficio potencial. Las empresas centran su colaboración en una cosa, en pagar menos al trabajador, por ejemplo, con cláusulas non-compete.

          Se nota especialmente en empresas americanas, que cuando vas a enviar tu candidatura te preguntan si tienes alguna cláusula non-compete aunque sea para un impuesto intermedio o incluso bajo en la escala. Allí las tienen hasta los trabajadores de las hamburgueserías.

  • #019
    sin censura - 15 febrero 2021 - 16:56

    OFFTOPIC

    Ante esto solo hay 2 opciones

    https://www.youtube.com/watch?v=c8o3_tp3ums

    Pensar:

    a) ZASCA de INTEL
    b) Pero el mac me da de comer…

    Y no es tan offtopic, INTEL era una compañía que hacía limpias del 10% en su staff en los 90´s… y no le hacía falta AI para hacerlo…

  • #020
    LEON - 15 febrero 2021 - 20:16

    Renunciar a un algoritmo de selección, porque presenta sesgos basados en su aprendizaje es un error garrafal, si el sesgo existe es por alguna razón, sustituirlo por una persona que con toda seguridad tiene muchos mas sesgos es abundar en el mismo error.

    Actualmente ya hay empresas que se encargan de elaborar curriculums, poco falta para que los demandantes de empleo empleen también los servicios de IAs en los procesos de selección.

    Estamos perdiendo el control.

Dejar un Comentario

Los comentarios están cerrados