Quienes deleguen la construcción de sus algoritmos se exponen a riesgos, como sesgos, falta de transparencia, responsabilidad, pérdida de confianza y violaciones de privacidad.
Por Revista Summa
La Inteligencia Artificial (IA) está transformando el mundo empresarial y laboral, permitiendo una mayor eficiencia y productividad en diversas áreas. Sin embargo, a medida que la IA se integra a los procesos de negocio y en la gestión de los recursos humanos, surgen una serie de preocupaciones éticas y legales.
En un panorama en el que la IA carece de regulaciones específicas en muchos países, incluido Costa Rica, se plantea un debate ético en torno a su uso, especialmente en lo que respecta a la privacidad y la seguridad de los datos personales.
“La Inteligencia Artificial puede afectar los derechos de los trabajadores, por ejemplo, el derecho a la privacidad y el derecho a un ambiente laboral seguro. Las empresas pueden sumarse al análisis legal y moral de esta tecnología a través de la implementación de un marco ético, que incluya principios básicos como la transparencia, la privacidad, la responsabilidad y la seguridad. Este debe construirse en colaboración con expertos en ética, abogados y otros stakeholders relevantes”, comentó Luis Diego Loaiciga, experto en IA amplicada en Recursos Humanos y CEO de American Talent Jobs.
Además de los principios mencionados anteriormente, es esencial considerar aspectos como la transparencia en el uso de los algoritmos, la equidad y la responsabilidad y no discriminación en la toma de decisiones, la privacidad y protección de los datos personales, la seguridad y fiabilidad de la tecnología, y la colaboración con la sociedad en el desarrollo y uso. Esto sin dejar por fuera las normas legales, regulaciones y los valores organizacionales que apliquen en cada caso específico.
En la práctica, se recomienda que las organizaciones no deleguen la construcción de los algoritmos en terceros, sino que mantengan un control efectivo sobre ellos y sobre las aplicaciones de IA que implementan con sus colaboradores.
“Es importante que las empresas sean conscientes de cómo funciona el algoritmo y cómo se toman las decisiones para que puedan asegurarse que este no tenga sesgos o prejuicios. El tener control sobre el algoritmo permite también personalizar las aplicaciones de Inteligencia Artificial para que se adapten mejor a las necesidades específicas de cada compañía y sean más efectivas en la gestión de su capital humano”, agregó Loaiciga.
Las empresas que no tienen control sobre los algoritmos en sus plataformas de IA se exponen a riesgos significativos, como sesgos, falta de transparencia, responsabilidad, pérdida de confianza y violaciones de privacidad. Estos riesgos dificultan la toma justa y equitativa de decisiones, así como la protección de los datos personales de sus colaboradores.
Hasta la fecha, no se ha conocido ningún país que haya prohibido el uso general de la inteligencia artificial. No obstante, algunos países han establecido regulaciones específicas para limitar o prohibir ciertas aplicaciones, como el reconocimiento facial o la toma de decisiones automatizadas en ciertos campos, como el sector financiero o la atención médica.