Por Ramiro Blazquez, director diplomado innovación en gestión de personas y People Analytics – UNAB.
Participo en una comunidad de People Analytics en Latam con foco en compartir conocimiento y en los últimos días tuvimos un fuerte debate sobre la ética en el uso de los datos de las personas. Fue tan rica, que vale la pena compartir estas reflexiones aquí, para ampliar su consideración en toda la comunidad de HR.
El eje central de esta discusión pareciera pasar por, si podemos o no, usar datos que permitan individualizar a la persona, entonces pregunto: ¿Podemos? ¿Qué ganamos y que perdemos?
Partamos por las aristas legales, hoy en Latinoamérica hay un vacío legal. La legislación sobre datos personales se enfoca más en reglamentar el uso público de los datos que podrían violar la privacidad, pero nada dice respecto de la posibilidad del usarlos en el ámbito privado, como podría ser una empresa.
Entonces, de nuevo ¿podemos usarlos?, técnica y legalmente no hay nada que lo impida, entonces la respuesta es “sí podemos”, pero más que reflexionar sobre la posibilidad, invito a preguntarnos: ¿Debemos?
El uso de datos que permita identificar individualmente a las personas es una fuente potencial de riqueza en uso de los datos. Permite desarrollar alertas tempranas que nos ayuden a mejorar la experiencia de una persona con la intención de que elija quedarse más tiempo trabajando en la compañía, entregar las herramientas adecuadas en el momento adecuado para mejorar el desempeño de los colaboradores y hasta identificar cuando un colaborador está asumiendo un riesgo de accidente innecesario para disparar un protocolo anticipado que permita cuidar su integridad.
Pero a pesar de su valor potencial la preocupación por el uso de los datos, que hacen individualizable a una persona, pasa por la posibilidad de que alguien les de un mal uso y en lugar de aprovecharlos para crear una mejor experiencia de empleado, los utilice para perseguir, amenazar y desarrollar inequidad, entre otras malas alternativas.
En este punto, seguramente muchos de Uds. ya se están anticipando a la respuesta y están pensando “!no debemos!” y claro, también estarán pensando que perdemos riqueza de análisis a cambio de ganar privacidad.
La buena noticia que les traigo es que no se pierde riqueza de análisis por eliminar datos que identifiquen al colaborador, en algún aspecto se limita, pero no se pierde. Cuando aplicamos People Analytics buscamos entender patrones de comportamiento dominantes que influyen en determinados eventos.
Para hacerlo no necesitamos saber qué hace “Ramiro”, lo que buscamos es entender que hacen muchos “Ramiros” para identificar en ellos comportamientos comunes y, estadísticamente hablando, para lograrlo resulta indiferente usar los datos que identifiquen a “Ramiro” o un código ciego (XB41) que me permita analizar su comportamiento sin por ello conocer su identidad.
Estamos de acuerdo entonces hasta aquí que, podemos, pero podríamos evitarlo ¿cierto?
Avancemos un paso más en el análisis y ahora reflexionemos si esto es suficiente para hablar de la ética en el uso de los datos y la necesidad de un ámbito regulatorio más claro.
¿Un marco regulatorio más claro podría evitar la individualización de personas si una empresa quisiera aún continuar haciéndolo? Desde mi humilde punto de vista, respondería a esta pregunta con un no. Rara vez las leyes tienen el poder de impedir la voluntad humana cuando estamos decididos a trascenderlas.
¿Por qué traigo este punto? Porque la relación empleado y empleador siempre es asimétrica, y a la hora de aceptar un trabajo (especialmente en roles operativos donde People Analytics encuentra su amplio campo de acción), las personas tendrían un fuerte incentivo en firmar autorizaciones de uso de sus datos personales a cambio de conseguir un empleo, más aún si estas autorizaciones estuvieran en letra chica y formando parte de una montaña de papeles que se firman al inicio de la relación laboral. ¿Y esto le pasaría solo a los roles operativos? Lamento desilusionarlos con un no. Nos pasaría a todos, o casi a todos. ¿Cuántos de ustedes leyeron todos los detalles del contrato de servicios bancarios que ya firmaron, o todas las cláusulas impresas en “arial 8” de su póliza de seguro del auto, o los términos y condiciones de su app favorita para pedir comida? No se dieron cuenta, pero ya les pasó. ¡Ya nos pasó a todos! y dimos autorizaciones que ni siquiera conocemos.
Entonces… ¿Quién cuida como se usan los datos?
Nosotros, los que somos protagonistas en el mundo de People Analytics, los líderes de RR.HH., los Data Scientist y todos aquellos que tengan el interés de profundizar su conocimiento o desarrollo de esta práctica, que agrega un inmenso valor a las personas y a los negocios. Tenemos la responsabilidad de hacerla sustentable y realmente orientada cuidar a las personas.
Los invito a que tomemos conciencia que, desde nuestros roles podemos evitar darle un mal uso a la tecnología, impidiendo que se puedan responder preguntas sobre las cuales no queremos conocer la respuesta o sobre las cuales éticamente no podría tomar decisiones:
- ¿Qué utilidad tiene saber que genero tiene mejor desempeño?
- ¿Qué valor ofrece conocer si tener más hijos aumenta el riesgo de ausentismo en un colaborador?
Tener respuestas a estas preguntas solo nos expondría a prácticas de discriminación que incluso podrían tener un costo mayor que le beneficio que obtuvimos al conocer la respuesta.
Un alto directivo de RR.HH. en Chile, cuando hacíamos un proyecto tuvo la sabiduría de decirme “Ramiro, no quiero conocer ninguna respuesta a preguntas que luego no pueda gestionar”, su determinación fue un gran hito de responsabilidad que me marcó profundamente. Todos podemos tomar la misma decisión que él.
Si el marco regulatorio (cuando exista) difícilmente sea garantía de buen uso de los datos, la última frontera de protección de la ética somos nosotros, nuestros valores y los valores organizacionales. Nosotros somos el resguardo final que garantizara usar los datos con la intención de “mejorar la experiencia de las personas” e “impactar favorablemente el negocio”.