Silver Taube: Los peligros de la IA en el lugar de trabajo
Miembros de SAG-AFTRA hacen un piquete en Netflix en Los Gatos. La huelga está alimentada por el temor a la pérdida de empleos relacionados con la IA. Foto cortesía del Consejo Laboral de South Bay.

La inteligencia artificial tiene el potencial de transformar nuestras vidas. Ahora se utiliza para leer rayos X con mayor precisión que los radiólogos y detectar crecimientos de cáncer que ningún médico humano puede detectar. En un ensayo clínico, La IA ayudó a detectar un 20% más de casos de cáncer de mama que los radiólogos.

Pero la IA también tiene riesgos, particularmente en el empleo, donde la búsqueda de ganancias de una empresa y la ausencia de regulación pueden afectar negativamente a los trabajadores.

La creciente desigualdad socioeconómica provocada por la pérdida de empleos provocada por la IA es motivo de preocupación. El Huelga SAG-AFTRA está alimentado por el temor a la pérdida de empleo provocada por la IA. Para 2030, las tareas que representan hasta el 30% de las horas trabajadas actualmente en la economía estadounidense podrían ser realizadas por IA, dejando a los empleados negros y morenos vulnerables. según McKinsey.

Goldman Sachs afirma que 300 millones de Los empleos de tiempo completo podrían perderse debido a la IA, y informe de Bloomberg informa que, según una encuesta de IBM, más de 120 millones de trabajadores en todo el mundo necesitarán volver a capacitarse en los próximos tres años debido al impacto de la IA en los empleos. Los trabajadores no tendrán las habilidades necesarias para los nuevos empleos que crea la IA y podrían quedarse atrás.

El uso de inteligencia artificial para la contratación está muy extendido. De hecho, el 88% de las empresas a nivel mundial utilizan alguna forma de IA en recursos humanos, según un Informe Mercer. En algunos casos, los candidatos no sólo son preseleccionados, sino que también son entrevistados por una máquina inteligente antes de que una persona real decida, basándose en un informe detallado elaborado por una máquina.

Los sesgos inherentes están integrados en los algoritmos de IA. "Los investigadores de IA son principalmente personas masculinas, que provienen de ciertos grupos demográficos raciales, que crecieron en áreas socioeconómicas altas, principalmente personas sin discapacidades", Olga Russakovsky, profesora de informática en Princeton. dijo.

Investigadores de la Universidad del Sur de California encontraron hasta el 38.6% de los “hechos” utilizados por los sistemas de IA en su estudio estaban parcializados. Según el estudio, las mujeres fueron asociadas con la palabra "B", los musulmanes con palabras como terrorismo y los mexicanos con pobreza.

Los investigadores también tienen encontrado que el 76% de las empresas de más de 100 empleados utilizan tests de personalidad y que los algoritmos administran y analizan los tests. Las herramientas de minería de currículum consideran actividades extracurriculares y experiencia laboral, pero la discapacidad del solicitante puede haberlo excluido de esas actividades o experiencias. El currículum del candidato puede describir cómo desarrolló las mismas habilidades de diferentes maneras, pero la herramienta de extracción de currículums puede descartar al solicitante sin considerar sus habilidades.

Más de 100 empleadores utilizan la herramienta de reconocimiento facial de un solo proveedor y ha analizado a más de 1 millón de solicitantes de empleo. Una prueba pide a los solicitantes que relacionen imágenes de rostros con emociones. Las personas autistas generalmente no obtienen tan buenos resultados en esta prueba como las personas no autistas. Si la capacidad de identificar emociones específicas no es necesaria para el puesto de trabajo, la prueba violaría las leyes contra la discriminación.

Es probable que los estereotipos incorporados provoquen decisiones gerenciales discriminatorias cuando una máquina entrevista a inmigrantes que hablan con acento.

Si el sistema nota que los reclutadores interactúan con más frecuencia con hombres blancos, puede encontrar sustitutos de esas características y replicar el patrón. Después de una auditoría de su algoritmo, una empresa de selección de currículums encontrado El algoritmo determinó que los dos factores que son más indicativos de un desempeño laboral superior son el nombre Jared y jugar lacrosse en la escuela secundaria. Un reciente estudio de la Universidad Northeastern y la USC descubrieron que los anuncios dirigidos en Facebook para puestos de cajera de supermercado se mostraban a una audiencia compuesta por un 85% de mujeres, mientras que los trabajos en empresas de taxis se dirigían a una audiencia de aproximadamente un 75% de personas negras.

La Comisión de Igualdad de Oportunidades de Empleo de EE. UU. colocado su primera demanda por discriminación de IA en la contratación con iTutorGroup Inc., una empresa que supuestamente programó su software de contratación para rechazar automáticamente a los solicitantes mayores. La empresa pagará 365,000 dólares a un grupo de solicitantes de empleo rechazados de 40 años o más, según un Decreto de consentimiento presentado ante el Tribunal de Distrito de los Estados Unidos para el Distrito Este de Nueva York.

La IA también puede tomar decisiones de personal que afecten negativamente a los trabajadores. Entre 2011 y 2015, los docentes de Houston tuvieron su desempeño laboral evaluado mediante un algoritmo de evaluación basado en datos llamado Sistema de Evaluación del Valor Agregado Educativo. El algoritmo permitió a la junta de educación automatizar decisiones que se traducían en qué profesores recibían bonificaciones, disciplinados por malas puntuaciones o despedidos. Los profesores no pudieron impugnar las decisiones ni recibir una explicación sobre las mismas porque el código fuente y otra información subyacente al algoritmo son secretos comerciales propiedad de SAS, un proveedor externo.

A mediados de 2017, un juez federal dictaminó que el uso del algoritmo secreto para evaluar el desempeño de los trabajadores sin una explicación adecuada negaba a los docentes sus derechos constitucionales.

La IA también ha llevado a la explotación laboral en el extranjero. Según un reciente Washington Post reporte, un ejército de trabajadores extranjeros en talleres clandestinos digitales está detrás del auge de la IA.

Casi la mitad del trabajo independiente en línea se realiza en India y Filipinas. Remotasks, propiedad de Scale AI, una empresa emergente de San Francisco con un valor de 7 mil millones de dólares, trabaja para firmas como Meta, Microsoft y compañías de inteligencia artificial generativa como Open AI, el creador de ChatGPT. Remotasks opera en Cagayan De Oro en Mindanao, Filipinas, un centro para la anotación de datos de IA. A los trabajadores de Remotasks se les han retrasado, reducido o cancelado sus pagos después de completar las tareas y, a menudo, ganan muy por debajo del salario mínimo local.

La ACLU y dos docenas de organizaciones asociadas están Llamando La administración Biden debe tomar medidas concretas para centrar los derechos civiles y la equidad en la IA y trabajar activamente para abordar sus daños sistémicos, porque la industria tecnológica carece de personas que comprendan y puedan trabajar para abordar estos daños. También ha habido llamadas Nacionalizar la IA mediante la creación de un organismo rector de la tecnología, como la Comisión de Energía Atómica de los Estados Unidos, para ejercer los poderes del gobierno para mitigar posibles daños.

Debemos tomar medidas para garantizar que esta tecnología no afecte negativamente a los trabajadores en los Estados Unidos y en todo el mundo.

La columnista de San José Spotlight, Ruth Silver Taube, es abogada supervisora ​​de la Clínica de Derechos de los Trabajadores en el Centro de Derecho Comunitario Katharine & George Alexander, abogada supervisora ​​de la Línea de Asesoramiento Legal de la Oficina de Cumplimiento de Normas Laborales del Condado de Santa Clara y miembro de Fair Workplace del Condado de Santa Clara Colaborativo. Sus columnas aparecen cada segundo jueves del mes. Contacta con ella en [email protected].

Política de comentarios (actualizada el 5/10/2023): los lectores deben iniciar sesión a través de una red social o plataforma de correo electrónico para confirmar la autenticidad. Nos reservamos el derecho de eliminar comentarios o prohibir a los usuarios que participen en ataques personales, incitación al odio, exceso de blasfemias o declaraciones falsas verificables. Los comentarios son moderados y aprobados por el administrador.

Deje un comentario