Silver Taube: Sự nguy hiểm của AI tại nơi làm việc
Các thành viên SAG-AFTRA biểu tình tại Netflix ở Los Gatos. Cuộc đình công được thúc đẩy bởi lo ngại mất việc làm liên quan đến AI. Hình ảnh lịch sự của Hội đồng Lao động South Bay.

Trí tuệ nhân tạo có tiềm năng thay đổi cuộc sống của chúng ta. Hiện nay nó được sử dụng để đọc tia X với độ chính xác cao hơn bác sĩ X quang và phát hiện sự phát triển của ung thư mà không bác sĩ con người nào có thể phát hiện được. Trong một thử nghiệm lâm sàng, AI giúp phát hiện thêm 20% trường hợp ung thư vú hơn bác sĩ X quang.

Nhưng AI cũng có những rủi ro, đặc biệt là trong lĩnh vực việc làm, nơi việc công ty tìm kiếm lợi nhuận và việc thiếu quy định có thể ảnh hưởng xấu đến người lao động.

Sự bất bình đẳng kinh tế xã hội ngày càng gia tăng do tình trạng mất việc làm do AI gây ra là một nguyên nhân gây lo ngại. Các đình công SAG-AFTRA được thúc đẩy bởi nỗi lo mất việc làm do AI gây ra. Đến năm 2030, các nhiệm vụ chiếm tới 30% số giờ làm việc hiện tại trong nền kinh tế Hoa Kỳ có thể được thực hiện bởi AI — khiến nhân viên Da đen và da nâu dễ bị tổn thương theo McKinsey.

Goldman Sachs tuyên bố rằng 300 triệu công việc toàn thời gian có thể bị mất vào tay AI, và Bloomberg báo cáo rằng, theo khảo sát của IBM, hơn 120 triệu công nhân trên toàn cầu sẽ cần được đào tạo lại trong ba năm tới do tác động của AI đến việc làm. Người lao động sẽ không có những kỹ năng cần thiết cho công việc mới mà AI tạo ra và có thể bị bỏ lại phía sau.

Việc sử dụng trí tuệ nhân tạo để tuyển dụng ngày càng phổ biến. Trên thực tế, 88% công ty trên toàn cầu sử dụng một số dạng AI trong nguồn nhân lực, theo một báo cáo. báo cáo của Mercer. Trong một số trường hợp, các ứng viên không chỉ được chọn trước mà còn được phỏng vấn bởi một cỗ máy thông minh trước khi người thật quyết định, dựa trên báo cáo chi tiết do máy tạo ra.

Những thành kiến ​​cố hữu được đưa vào các thuật toán AI. Olga Russakovsky, giáo sư khoa học máy tính tại Princeton: “Các nhà nghiên cứu AI chủ yếu là nam giới, đến từ một số chủng tộc nhất định, lớn lên ở các khu vực kinh tế xã hội cao, chủ yếu là những người không khuyết tật”. nói.

Các nhà nghiên cứu từ Đại học Nam California đã tìm thấy tới 38.6% “sự thật” được hệ thống AI sử dụng trong nghiên cứu của họ đã thiên vị. Theo nghiên cứu, phụ nữ gắn liền với từ “B”, người Hồi giáo gắn liền với những từ như khủng bố và người Mexico gắn liền với nghèo đói.

Các nhà nghiên cứu cũng đã tìm thấy rằng 76% công ty có hơn 100 nhân viên sử dụng các bài kiểm tra tính cách và các thuật toán quản lý và phân tích các bài kiểm tra. Các công cụ khai thác tiếp tục xem xét các hoạt động ngoại khóa và kinh nghiệm làm việc, nhưng tình trạng khuyết tật của người nộp đơn có thể khiến họ bị loại khỏi các hoạt động hoặc trải nghiệm đó. Sơ yếu lý lịch của ứng viên có thể mô tả cách họ phát triển các kỹ năng giống nhau theo những cách khác nhau, nhưng công cụ khai thác sơ yếu lý lịch có thể sàng lọc ứng viên mà không xem xét các kỹ năng của ứng viên.

Công cụ nhận dạng khuôn mặt của một nhà cung cấp duy nhất đang được hơn 100 nhà tuyển dụng sử dụng và đã phân tích hơn 1 triệu người xin việc. Một bài kiểm tra yêu cầu người nộp đơn ghép hình ảnh khuôn mặt với cảm xúc. Người tự kỷ thường không thực hiện tốt như người không tự kỷ trong bài kiểm tra này. Nếu khả năng xác định cảm xúc cụ thể là không cần thiết đối với vị trí công việc, bài kiểm tra sẽ vi phạm luật chống phân biệt đối xử.

Những khuôn mẫu cố hữu có thể dẫn đến các quyết định quản lý mang tính phân biệt đối xử khi những người nhập cư nói giọng đặc biệt được phỏng vấn bằng máy.

Nếu hệ thống nhận thấy rằng các nhà tuyển dụng tương tác thường xuyên hơn với đàn ông da trắng, nó có thể tìm thấy các đại diện cho những đặc điểm đó và sao chép mô hình đó. Sau khi kiểm tra thuật toán của nó, một công ty sàng lọc sơ yếu lý lịch tìm thấy thuật toán đã xác định hai yếu tố biểu hiện rõ nhất về hiệu suất công việc vượt trội là cái tên Jared và việc chơi bóng vợt ở trường trung học. Mới đây nghiên cứu từ Đại học Northeastern và USC nhận thấy rằng các quảng cáo được nhắm mục tiêu trên Facebook cho vị trí nhân viên thu ngân ở siêu thị đã được hiển thị cho 85% đối tượng là phụ nữ, trong khi việc làm ở các công ty taxi hướng đến đối tượng có khoảng 75% là người da đen.

Ủy ban Cơ hội Việc làm Bình đẳng của Hoa Kỳ định cư sự phân biệt đối xử AI đầu tiên của họ trong vụ kiện tuyển dụng với iTutorGroup Inc., một công ty bị cáo buộc đã lập trình phần mềm tuyển dụng của mình để tự động từ chối những ứng viên lớn tuổi hơn. Công ty sẽ trả 365,000 USD cho một nhóm người tìm việc bị từ chối từ 40 tuổi trở lên. Nghị định có sự đồng ý đã nộp đơn lên Tòa án Quận Hoa Kỳ cho Quận phía Đông của New York.

AI cũng có thể đưa ra những quyết định nhân sự gây ảnh hưởng xấu đến người lao động. Từ năm 2011 đến năm 2015, giáo viên ở Houston đã có đánh giá hiệu quả công việc bằng thuật toán đánh giá dựa trên dữ liệu được gọi là Hệ thống đánh giá giá trị gia tăng giáo dục. Thuật toán cho phép hội đồng giáo dục tự động hóa các quyết định chuyển thành thưởng, kỷ luật vì điểm kém hoặc sa thải giáo viên. Các giáo viên không thể phản đối các quyết định hoặc nhận được lời giải thích về chúng vì mã nguồn và thông tin khác làm cơ sở cho thuật toán là bí mật thương mại độc quyền thuộc sở hữu của SAS, một nhà cung cấp bên thứ ba.

Vào giữa năm 2017, một thẩm phán liên bang cai trị rằng việc sử dụng thuật toán bí mật để đánh giá hiệu suất của nhân viên mà không có lời giải thích hợp lý đã tước bỏ quyền hiến định của giáo viên.

AI cũng đã dẫn đến việc bóc lột lao động ở nước ngoài. Theo tờ Washington Post mới đây báo cáo, đội quân công nhân nước ngoài làm việc trong các xưởng kỹ thuật số đứng đằng sau sự bùng nổ AI.

Gần một nửa số công việc tự do trực tuyến được thực hiện ở Ấn Độ và Philippines. Remotasks, thuộc sở hữu của công ty khởi nghiệp Scal AI trị giá 7 tỷ USD ở San Francisco, hoạt động cho các công ty như Meta, Microsoft và các công ty AI có tính sáng tạo như Open AI, người tạo ra ChatGPT. Remotasks hoạt động tại Cagayan De Oro ở Mindanao, Philippines, một trung tâm chú thích dữ liệu AI. Những người thực hiện nhiệm vụ Remotasks đã bị chậm thanh toán, giảm hoặc hủy bỏ các khoản thanh toán sau khi hoàn thành nhiệm vụ và thường kiếm được mức lương thấp hơn nhiều so với mức lương tối thiểu tại địa phương.

ACLU và hai chục tổ chức đối tác đang gọi tới Chính quyền Biden thực hiện các bước cụ thể để tập trung vào quyền dân sự và công bằng trong AI, đồng thời tích cực làm việc để giải quyết các tác hại mang tính hệ thống của nó — vì ngành công nghệ thiếu những người hiểu và có thể làm việc để giải quyết những tác hại này. Cũng đã có cuộc gọi quốc hữu hóa AI bằng cách thành lập một cơ quan quản lý công nghệ như Ủy ban Năng lượng Nguyên tử Hoa Kỳ để sử dụng quyền lực của chính phủ nhằm giảm thiểu những tác hại có thể xảy ra.

Chúng ta phải thực hiện các bước để đảm bảo công nghệ này không ảnh hưởng xấu đến người lao động ở Hoa Kỳ và trên toàn thế giới.

Nhà báo Ruth Silver Taube của chuyên mục Tiêu điểm San José đang giám sát luật sư của Phòng khám Quyền của Người lao động tại Trung tâm Luật Cộng đồng Katharine & George Alexander, giám sát luật sư của Văn phòng Luật sư Thực thi Tiêu chuẩn Lao động của Hạt Santa Clara và một thành viên của Nơi làm việc Công bằng của Hạt Santa Clara Hợp tác. Các cột của cô ấy xuất hiện vào thứ Năm thứ hai của tháng. Liên hệ với cô ấy tại [email được bảo vệ].

Chính sách bình luận (cập nhật ngày 5/10/2023): Người đọc được yêu cầu đăng nhập thông qua mạng xã hội hoặc nền tảng email để xác nhận tính xác thực. Chúng tôi có quyền xóa nhận xét hoặc cấm những người dùng tham gia vào các cuộc tấn công cá nhân, ngôn từ kích động thù địch, tục tĩu quá mức hoặc đưa ra những tuyên bố sai có thể kiểm chứng được. Nhận xét được kiểm duyệt và phê duyệt bởi quản trị viên.

Bình luận