Sat. Nov 16th, 2024

Read this story in English

Los reguladores de California están tomando medidas para restringir la forma en que los empleadores pueden usar la inteligencia artificial para evaluar a los trabajadores y solicitantes de empleo, advirtiendo que el uso de la IA para medir el tono de voz, las expresiones faciales y los tiempos de reacción puede ir en contra de la ley.

El borrador de las regulaciones dice que si las empresas utilizan sistemas automatizados para limitar o priorizar a los solicitantes según el embarazo, el origen nacional, la religión o los antecedentes penales, eso es discriminación.

El público tiene hasta el 18 de julio para comentar sobre las reglas propuestas. Después de eso, los reguladores del Departamento de Derechos Civiles de California pueden modificarlos y eventualmente aprobarlos, sujetos a una revisión final por parte de un juez de derecho administrativo, culminando un proceso que comenzó hace tres años.

Las reglas rigen los llamados “sistemas de decisión automatizados”: inteligencia artificial y otros procesos computarizados, incluidos cuestionarios, juegos, selección de currículums e incluso colocación de publicidad. Las regulaciones dicen que el uso de tales sistemas para analizar características físicas o tiempos de reacción puede constituir una discriminación ilegal. Los sistemas no se pueden utilizar en absoluto, dicen las nuevas reglas, si tienen un “impacto adverso” en los candidatos en función de ciertas características protegidas.

El borrador de las reglas también requiere que las empresas que venden servicios predictivos a los empleadores mantengan registros durante cuatro años para responder a las demandas por discriminación.

Es necesaria una ofensiva en parte porque, si bien las empresas quieren automatizar partes del proceso de contratación, “esta nueva tecnología puede oscurecer la responsabilidad y hacer más difícil discernir quién es responsable cuando una persona es sometida a una toma de decisiones discriminatoria”, dijo Ken Wang, un asociado de políticas de la Asociación de Abogados Laborales de California.

El proyecto de reglamento deja claro que los proveedores de servicios externos son agentes del empleador y responsabilizan a los empleadores.

El Departamento de Derechos Civiles de California comenzó a explorar cómo los algoritmos, un tipo de sistema de decisión automatizado, pueden afectar las oportunidades laborales y automatizar la discriminación en el lugar de trabajo en abril de 2021. En aquel entonces, Lydia XZ Brown, fundadora del Autistic People of Color Fund, advirtió a la agencia sobre el daño que los algoritmos de contratación pueden infligir a las personas con discapacidades. Brown dijo a CalMatters que si el nuevo borrador de reglas ofrecerá una protección significativa depende de cómo se implementen y se hagan cumplir.

Investigadores, defensores y periodistas han acumulado un conjunto de pruebas de que los modelos de IA pueden automatizar la discriminación, incluso en el lugar de trabajo. El mes pasado, la Unión Americana de Libertades Civiles presentó una queja ante la Comisión Federal de Comercio alegando que el software de selección de currículums creado por la empresa Aon discrimina a las personas por motivos de raza y discapacidad a pesar de la afirmación de la empresa de que su IA está “libre de prejuicios”. Una evaluación de la tecnología GPT-3.5 de la firma líder en inteligencia artificial OpenAI encontró que el modelo de lenguaje grande puede exhibir prejuicios raciales cuando se usa para examinar automáticamente los currículums de los solicitantes de empleo. Aunque la empresa utiliza filtros para evitar que el modelo de lenguaje produzca lenguaje tóxico, las pruebas internas de GPT-3 también revelaron prejuicios raciales, de género y religiosos.

“Esta nueva tecnología puede oscurecer la responsabilidad”.

KEN WANG, ASOCIADO DE POLÍTICAS DE LA ASOCIACIÓN DE ABOGADOS LABORALES DE CALIFORNIA

Es comprensible que proteger a las personas del sesgo automatizado atraiga mucha atención, pero a veces contratar software que se comercializa como inteligente toma decisiones tontas. Llevar gafas, un pañuelo en la cabeza o tener una estantería en el fondo de una entrevista de trabajo en vídeo puede distorsionar las predicciones de personalidad, según un informe de investigación de la emisora ​​pública alemana Bayerischer Rundfunk. También puede hacerlo la fuente que elige un solicitante de empleo al enviar un currículum, según investigadores de la Universidad de Nueva York.

Las regulaciones propuestas por California son las últimas de una serie de iniciativas destinadas a proteger a los trabajadores contra las empresas que utilizan formas nocivas de IA.

En 2021, los legisladores de la ciudad de Nueva York aprobaron una ley para proteger a los solicitantes de empleo de la discriminación algorítmica en la contratación, aunque investigadores de la Universidad de Cornell y Consumer Reports concluyeron recientemente que la ley ha sido ineficaz. Y en 2022, la Comisión de Igualdad de Oportunidades en el Empleo y el Departamento de Justicia de EE. UU. aclararon que los empleadores deben cumplir con la Ley de Estadounidenses con Discapacidades al utilizar la automatización durante la contratación.

Mientras tanto, la Agencia de Protección de la Privacidad de California está considerando un proyecto de reglas que, entre otras cosas, definen qué información pueden recopilar los empleadores sobre contratistas, solicitantes de empleo y trabajadores, permitiéndoles ver qué datos recopilan los empleadores y optar por no participar en dicha recopilación o solicitar revisión humana.

La legislación pendiente facultaría aún más a la fuente de las revisiones preliminares, el Departamento de Derechos Civiles de California. El Proyecto de Ley 2930 de la Asamblea permitiría al departamento exigir evaluaciones de impacto a las empresas y agencias estatales que utilizan IA para protegerse contra la discriminación automatizada.

Fuera del gobierno, los líderes sindicales argumentan cada vez más que los trabajadores de base deberían poder opinar sobre la eficacia y los daños de la IA para proteger al público. Los representantes laborales han mantenido conversaciones con funcionarios de California sobre proyectos específicos mientras experimentan con el uso de la IA.

By