Tendencias

IA analiza emociones de empleados potenciales

IA analiza emociones de empleados potenciales

IA analiza emociones de empleados potenciales

La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear un teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos. La llamada tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar el reclutamiento. Sus algoritmos, según dicen, pueden descifrar cuán entusiasta, honesto o dinámico puede ser un solicitante de empleo, y ayudar a los empleadores a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología. Human es una compañía "startup" con sede en Londres, fundada en 2016, que analiza aplicaciones de trabajo basadas en vídeo. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas. Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican cuán "honesto" o "apasionado" es un solicitante. "Si el reclutador dice: 'Estamos buscando al candidato más curioso', pueden encontrar a esa persona comparando los puntajes de los candidatos", declaró Yi Xu, la fundadora y directora ejecutiva de Human. Los reclutadores aún pueden evaluar a los candidatos durante una entrevista de la manera convencional, pero existe un límite en cuanto a la cantidad de candidatos con la que pueden reunirse o en cuanto a la cantidad de aplicaciones en vídeo que pueden ver. La Sra. Xu ha comentado que la tecnología de reconocimiento de emociones de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado. "Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante", comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación. Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero ella ha dicho que: "Los nuevos sistemas conllevan nuevos problemas". El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una oficial legal en Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones — como los obtenidos durante las entrevistas de trabajo basadas en vídeo — cuentan como "personales" y si se aplica la legislación de privacidad de datos. En la década de 1970, los psicólogos estadounidenses Paul Ekman y Wallace V. Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, por sus siglas en inglés). Usando el sistema, un especialista en el FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar. El Sr. Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. Pero él agregó: "Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos". El Sr. Ekman declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados. "El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto", comentó. Las personas difieren en su capacidad para manipular sus emociones con el fin de ‘engañar’ al sistema, y el Sr. Ekman apuntó: "Si las personas saben que las están observando, cambian su comportamiento". Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben. Según HireVue, Unilever ha ahorrado 50,000 horas de trabajo durante 18 meses desde que puso gran parte de su proceso de contratación en línea y comenzó a usar la plataforma de entrevistas basada en vídeo. HireVue integró la tecnología de reconocimiento de emociones a su servicio hace aproximadamente dos años y le vendió su servicio a Unilever. Unilever no respondió preguntas. "Los reclutadores tienen la oportunidad de dedicar su tiempo a las mejores personas en lugar de a quienes lograron pasar por la revisión del currículum", comentó Loren Larsen, el director de tecnología de HireVue, con sede en Salt Lake City. "Tú no eliminas a la persona adecuada porque fue a la escuela equivocada". Human primero entrenó sus algoritmos con imágenes y vídeos disponibles públicamente antes de pasar a lo que la Sra. Xu llama sus "datos protegidos", los vídeos que sus clientes le envían. HireVue no ha desarrollado algoritmos de inteligencia artificial, pero aprovecha la base de datos de emociones de Affectiva, una empresa líder en reconocimiento de emociones que trabaja en investigación de mercado y en publicidad. Gabi Zijderveld, la directora de marketing de Affectiva, ha opinado que los empleadores pudieran usar la inteligencia emocional artificial de varias maneras. Un ejemplo es la capacitación para los empleados que quieren dar mejores presentaciones o presentar mejores argumentos de venta. Otro pudiera ser rastrear el bienestar de los trabajadores para detectar agotamiento o depresión, algo que la Sra. Zijderveld considera un caso de uso válido para la tecnología de la compañía. Pero "el rastreo del estado de ánimo es alarmante", ella agregó. Todas estas compañías de IA han dicho que depende de los empleadores ser transparentes acerca de cómo usan su tecnología y los datos que recopilan. Pero ninguna verifica si lo son. "Esa decisión no depende de nosotros", expuso la Sra. Zijderveld. "Nosotros creamos la tecnología". La Sra. Xu dijo: "Tú no piensas 'cómo va la gente a hacer mal uso de mi producto'", comentó ella, "pero no somos lo suficientemente ingenuos como para pensar que esta tecnología sólo puede hacer el bien". Copyright The Financial Times Limited 2018 © 2018 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web.

Lee también

Comentarios

X

Suscríbete a nuestros boletines y actualiza tus preferencias

Mensaje de response para boletines