[LARPSICO] Sistemas de IA y vigilancia de la salud emocional: ¿Lo contempla la nueva Guía sobre información laboral algorítmica?

Andalucía, 14/06/2022

Políticas de cultura emocional

A raíz de la crisis pandémica, las empresas y organizaciones son cada más conscientes de la importancia de disponer de políticas de promoción de la “cultura emocional” en su seno, esto es, de gestión inteligente de las emociones de las personas empleadas (incluso de terceras relacionadas con ella -clientela, personas usuarias de servicios públicos-), tanto por su impacto favorable en la salud laboral y bienestar como en la eficacia y eficiencia de las actividades que constituyen su negocio y/u objeto social. Naturalmente, las empresas y organizaciones tienen a disposición diferentes estrategias y medidas para llevar a cabo estas políticas de mejora de la salud emocional de sus personas empleadas, que incluyen tanto la gestión inteligente individual de emociones como la gestión de emociones colectivas en los equipos de trabajo. Justamente, entre las medidas más innovadoras para ayudar en la gestión de la salud emocional estarían las que utilizan sistemas de gestión de inteligencia artificial y sus correspondientes procedimientos de análisis automatizado, incluso predictivo, a través del uso de algoritmos.

En este sentido, como reconocería el Ministerio de Trabajo y Economía Social en la Guía que acaba de presentar (Guía práctica y herramientas relativa a la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral), la utilización de sistemas de gestión algorítmica pueda afectar a la seguridad y salud de las personas trabajadoras (p. 21). Y ello en sentido positivo, a fin de hacer una asignación de tareas óptima tanto en el plano de la ergonomía como de los equilibrios psicosociales, pero también puede tener impactos negativos, si no se tienen en cuenta debidamente esos impactos en la salud, atendiéndose tan solo a los imperativos de mejora de la productividad. ¿Y la salud emocional de las personas empleadas, puede gestionarse (vigilarse ex art. 22 LPRL) mediante sistemas de inteligencia artificial?

Hoy no contamos con una pauta, ni normativa (ley), ni ético-social (consenso de valor en la conciencia social de nuestro tiempo) ni científico-técnica (normalización) suficientemente clara. Pero las experiencias concretas existen, si bien más con un sentido productivo que en una dirección de vigilancia de la salud laboral ex art. 22 LPRL. Pongamos un ejemplo recientemente conocido y que ha sido objeto de una difusión muy notable. Aunque no se vincula directamente a las políticas de vigilancia de la salud emocional, sí que tiene que ver con el “reconocimiento de emociones” tanto de las personas empleadas como de las personas clientes de una entidad, en el caso bancaria. En efecto, la Agencia de Protección de Datos húngara ha dictado una resolución sancionadora por el uso hecho por una entidad bancaria sobre la gestión automatizada o analítica de las emociones de las personas, sea de sus clientes sea de sus personas empleadas. Más particularmente, se trataba de una práctica temporal (45 días) consistente en la utilización de un software especial de procesamiento de señales de voz basado en la gestión propia de inteligencia artificial (IA). Con él se evaluaban los estados emocionales de las personas clientes a través de sus llamadas y las palabras utilizadas principalmente en ellas. La finalidad perseguida con esta tecnología era, se decía, la mejora de la gestión de las reclamaciones o quejas, mediante la una mayor calidad de la atención a estas llamadas, aumentando así también el rendimiento de las personas empleadas (a mayor calidad de la atención, una mayor eficiencia del trabajo). Aunque la APD húngara no consideró ilegal, en sí, la práctica, si entendió que, en el caso, fue ilegítima, condenando al banco a una multa de 670.000€, porque no respetó las garantías derivadas de la normativa de protección de datos.

Otras experiencias conocidas en este ámbito serían:

  1. Prácticas de monitorización de la actividad cerebral y las emociones de las personas empleadas en ciertas empresas chinas (monitorización de las ondas cerebrales del personal mediante una tecnología más propia de la organización militar o de la organización de un futuro “feliz”). Mediante la implantación de sensores inalámbricos en los gorros que usan las personas empleadas, cuyos datos son procesos por algoritmos e inteligencia artificial, es posible identificar emociones como ansiedad, tristeza, ira, etc. Esta "tecnología de vigilancia de la salud emocional" (TVSE) ayudaría a la dirección a identificar cambios en estados de ánimo facilitando una intervención anticipada o precoz, a fin, por ejemplo, de modificar sus cargas, sus períodos de descanso, tareas concretas, incluso otorgar permisos específicos que les liberen del trabajo en un momento dado para que se recuperen [si el sistema manda una alerta, la dirección pide a la persona empleada que se tome el día libre o que realice alguna tarea menos estresante
  2. Las gafas inteligentes de Google que encuadran el rostro y superponen unas barras con indicadores de las diversas emociones a través de una aplicación (APP. SHORE)
  3. Creación de App. para móviles [llamada PROSIT] que diagnostica la salud mental de los usuarios monitorizando sus emociones, cuando hablan y escriben en sus dispositivos (tonos de voz, lenguaje usado)

Propuestas sobre la mejora de las condiciones laborales

Por su parte, la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) define los «sistema de reconocimiento de emociones» se entiende todo como todo sistema de IA [software que se desarrolla utilizando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información, predicciones, decisiones que influyen en los entornos con los que interactúan] destinado a detectar o deducir las emociones o las intenciones de personas físicas a partir de sus datos biométricos” (artículo 3, 34 “Ley de Inteligencia Artificial”). Pero ¿están permitidos o prohibidos? La respuesta es depende, como tantas veces. ¿Y de qué depende? De su nivel de riesgo que cada sistema, en su diseño y puesta en práctica, cree para los derechos fundamentales de las personas, en especial de las personas trabajadoras, por lo que aquí interesa.

Así, por ejemplo, el artículo 6.5 de la Propuesta de Directiva europea sobre la mejora de las condiciones laborales en el trabajo en plataformas de 9 de diciembre de 2021 prohíbe de forma expresa procesar cualquier dato personal sobre el estado emocional o psicológico del trabajador de la plataforma (art. 6. 5, letra a) Propuesta de Directiva). En cambio, el art. 6.2, punto 4 de la “Ley de Inteligencia Artificial” los permitiría, si bien los califica de alto riesgo, por lo que precisa rodearse de un sistema de garantías especiales, reforzadas, para evitar que se lesionen, como recuerda la Guía referida del Ministerio de Trabajo, los derechos fundamentales como la privacidad, la protección de datos e incluso el derecho a la integridad y salud ex arts. 15 y 40 CE. Por tanto, no queda claro en el actual sistema normativo la calificación. Para ayudar a esta distinción tan importante, se promueven normas de certificación técnica para garantizar una conducta ética ante sistemas tecnológicos con altas implicaciones sociales. Por ejemplo, el proyecto: P7014 Standard for Ethical considerations in Emulated Empathy in Autonomous and Intelligent Systems (IEEE S.A Standards Association).

Información de autoría
Correo electrónico
Teléfono
955 049 078
Información adicional

Horario de atención telefónica: de 09:00 a 14:30 horas

Compartir en

Índice