Empresas dejan fuera la ética en el reclutamiento de personal para IA

(GERARDO HERNÁNDEZ. EL ECONOMISTA)

Aunque las vacantes laborales relacionadas con uso de inteligencia artificial han crecido notoriamente en los últimos años, solo una de cada 10 ofertas de empleo en esta área considera aspectos éticos en los perfiles profesionales requeridos.

En los últimos tres años la oferta de empleo vinculada con inteligencia artificial (IA) creció 33%, sin embargo, menos del 1% de las vacantes menciona la “ética” o “desarrollo de responsable” entre las habilidades requeridas, de acuerdo con una investigación de la Organización para la Cooperación y Desarrollo Económicos (OCDE).

“Todos los sistemas tienen el potencial de respaldar y mejorar la toma de decisiones y realizar tareas analíticas complejas, pero al mismo tiempo plantean desafíos éticos únicos”, el organismo en su informe Perspectivas de habilidades 2023.

De acuerdo con la investigación de la OCDE, las habilidades más demandadas por las empresas en las ofertas de empleo en este campo se concentran en siete grupos:

  1. Inteligencia artificial
  2. Conducción autónoma
  3. Aprendizaje automático
  4. Procesamiento de lenguaje natural
  5. Redes neuronales
  6. Robótica
  7. Reconocimiento de imagen

Aunque en tres años las vacantes que solicitan “IA ética” o “IA responsable” creció drásticamente, la proporción no supera al 1% de todos los empleos que se ofrecen a nivel global. En Nueva Zelanda, economía que lidera en la contratación de talento con estas habilidades, la proporción apenas llega al 1.6% de las vacantes con énfasis en la ética en los perfiles para desarrollar e implementar esta tecnología.

La ética es una de las asignaturas pendientes en el desarrollo y uso de la inteligencia artificial. Casos como las canciones hechas con voces prácticamente idénticas de los artistas, los sesgos en la programación de los sistemas que pueden acentuar las brechas con grupos vulnerables o la propuesta de estudios de cine en Hollywood para escanear el rostro de artistas a cambio de un pago único, han expuesto los dilemas éticos en torno a esta tecnología.

“A pesar de los fuertes compromisos por parte de los países y las intenciones declaradas por las empresas de desarrollo de IA, la ética en IA todavía no tiene prioridad en las decisiones de contratación. Estas consideraciones deben priorizarse junto con otros temas como la falta de diversidad de la fuerza laboral de IA y las implicaciones que esto tiene para los sistemas que se están desarrollando”, señala la OCDE.

En 2019, el Consejo de la OCDE adoptó la Recomendación sobre Inteligencia Artificial, el primer estándar intergubernamental sobre IA y el cual se basa en cinco principios:

  1. Crecimiento inclusivo, desarrollo sostenible y con bienestar
  2. Valores y justicia centrados en el ser humano
  3. Transparencia y explicabilidad
  4. Solidez, seguridad y protección
  5. Rendición de cuentas

“Además de marcos regulatorios sólidos, garantizar la implementación de los principios de IA de la OCDE requiere que los desarrolladores y usuarios incorporen consideraciones éticas en el diseño, desarrollo, adaptación y uso final de los sistema de inteligencia artificial”, reconoce el organismo.

Al interior de la OCDE, cerca del 70% de las personas percibe más riesgos que oportunidades en torno a la inteligencia artificial. En economías como México, Colombia, España y Costa Rica, esta proporción supera al 80% de la población.

Herramienta útil, pero con ética

La inteligencia artificial ya está incorporada en diversos procesos, uno de ellos, es el reclutamiento de personal. De acuerdo con una encuesta de Indeed, el 81% de los directivos de Recursos Humanos opina que estas herramientas facilitarán la contratación sin discriminación, siempre que la programación no se desarrolle con datos con sesgos.

Para los próximos dos años, según una encuesta de ManpowerGroup, tres áreas en las que las empresas aprovecharán mejor esta tecnología son la capacitación, el compromiso laboral y el reentrenamiento de los empleados.

Desde la perspectiva de Annee Bayeux, directora de Estrategia de Aprendizaje de Degreed, para garantizar que la IA trabaje por el bien de todos y cree una sociedad inclusiva, los líderes empresariales deben debatir la gobernanza necesaria para proteger los derechos individuales y los datos. Especialmente en los lugares de trabajo, donde las aplicaciones de IA pueden afectar a la contratación de determinadas personas y a las evaluaciones profesionales.

“Estamos en una carrera para proteger el uso de la IA, sin ahogar la innovación y los beneficios para la sociedad. Es una tarea difícil, pero que las futuras generaciones de trabajadores nos agradecerán si lo hacemos bien”, opina Annee Bayeux.