ექსპერტები ამტკიცებენ, რომ AI-ზე მომუშავე სამუშაოს დასაქმების ინსტრუმენტებმა შეიძლება არ გააუმჯობესოს დაქირავების მრავალფეროვნება

ზევით

სამუშაოს დასაქმების ინსტრუმენტები, რომლებიც აცხადებენ, რომ იყენებენ ხელოვნურ ინტელექტს გენდერული და რასობრივი მიკერძოების თავიდან ასაცილებლად, შესაძლოა არ გააუმჯობესონ დაქირავების მრავალფეროვნება და რეალურად გააძლიერონ ეს ცრურწმენები, ამტკიცებენ კვირას კემბრიჯის უნივერსიტეტის მკვლევარები, რომლებიც ამტკიცებენ პროგრამებს, რომლებიც წარსულში კრიტიკას იწვევდა. როგორც ტექნოლოგიის გამოყენების საშუალება უფრო ღრმა პრობლემის სწრაფი გამოსწორების მიზნით.

საკვანძო ფაქტები

მიერ გამოქვეყნებულ ნაშრომში ფილოსოფია და ტექნოლოგიამკვლევარებმა დაათვალიერეს პრეტენზიები რამდენიმე კომპანიისგან, რომლებიც გვთავაზობენ AI-ზე მომუშავე რეკრუტირების ინსტრუმენტებს, რომელთაგან ბევრი აცხადებს, რომ აღმოფხვრის მიკერძოებას და ხელს უწყობს მრავალფეროვნებას კანდიდატების სახელების, სქესის და სხვა იდენტიფიკატორების დამალვით, და ზოგიერთი მათგანი ხარისხის კანდიდატები რეზიუმეს სკანირების, ონლაინ შეფასებებისა და განმცხადებლების მეტყველებისა და სახის გამომეტყველების ანალიზზე დაყრდნობით.

მკვლევარები - კემბრიჯის უნივერსიტეტის გენდერული კვლევების ცენტრის ორი პროფესორი - ამტკიცებდნენ, რომ ამ ინსტრუმენტებმა შეიძლება ხელი შეუწყოს ერთგვაროვნებას დაქირავებაში, რადგან ისინი ასახავს "იდეალური კანდიდატის" კულტურულ მიკერძოებას, რომელიც ისტორიულად თეთრკანიანი ან ევროპელი მამაკაცი იყო.

ინსტრუმენტებმა შესაძლოა არ გააუმჯობესოს მრავალფეროვნება, რადგან ისინი ეფუძნება წარსულის კომპანიის მონაცემებს და ამით შეიძლება ხელი შეუწყონ კანდიდატებს, რომლებიც ყველაზე მეტად ჰგვანან ამჟამინდელ თანამშრომლებს.

„მცირე პასუხისმგებლობაა იმის შესახებ, თუ როგორ ხდება ამ პროდუქტების აშენება ან ტესტირება“, - თქვა ელეონორ დრაგემ, კვლევის თანაავტორმა და კემბრიჯის უნივერსიტეტის გენდერული კვლევების ცენტრის განცხადებაში და დასძინა, რომ ტექნოლოგია შეიძლება გახდეს „საშიში“. „დეზინფორმაციის წყარო იმის შესახებ, თუ როგორ შეიძლება დასაქმება იყოს „მიკერძოებული“ და უფრო სამართლიანი“.

საკვანძო ციტატა

„იმით, რომ რასიზმი, სექსიზმი და დისკრიმინაციის სხვა ფორმები შეიძლება ჩამოერთვას ხელოვნური ინტელექტის გამოყენებით დაქირავების პროცესს, ეს კომპანიები ამცირებენ რასას და სქესს უმნიშვნელო მონაცემებამდე, ვიდრე ძალაუფლების სისტემებს, რომლებიც აყალიბებენ ჩვენს მოძრაობას მსოფლიოში. “- ნათქვამია დრაგეს განცხადებაში.

Tangent

ამაზონმა გამოაცხადა 2018 წელს შეჩერება ხელოვნური ინტელექტის დაქირავების ხელსაწყოს გამოყენებით სამუშაოს განმცხადებლების რეზიუმეების გადასახედად, მას შემდეგ რაც აღმოაჩინა, რომ სისტემა მკაცრად დისკრიმინაციული იყო ქალების მიმართ. ეს იმის გამო ხდება, რომ კომპიუტერული მოდელები, რომლებზეც მას ეყრდნობოდა, შემუშავდა კომპანიისთვის წარდგენილი რეზიუმეების საფუძველზე ბოლო 10 წლის განმავლობაში, რომელიც ძირითადად მამრობითი სქესის განმცხადებლებისგან იყო.

ძირითადი ფონი

ორგანიზაციები სულ უფრო ხშირად მიმართავენ AI-ს, რათა დაეხმარონ სამუშაოს დაქირავების პროცესების მართვას. Ერთში XXX გამოკითხვა 300-ზე მეტი ადამიანური რესურსების ლიდერიდან, რომლებიც ციტირებენ კვირას სტატიის ავტორებს, საკონსულტაციო ფირმა Gartner-მა აღმოაჩინა, რომ დამსაქმებელთა 86% იყენებს ვირტუალურ ტექნოლოგიას დაქირავების პრაქტიკაში, ტენდენცია, რომელიც დაჩქარდა მას შემდეგ, რაც Covid-19 პანდემიამ აიძულა ბევრი გადაეტანა სამუშაო ონლაინ რეჟიმში. მიუხედავად იმისა, რომ ზოგიერთი კომპანია ამტკიცებს, რომ AI-ს შეუძლია შესთავაზოს უფრო ძვირადღირებული და დროში ეფექტური დაქირავების პროცესი, ზოგიერთს ექსპერტები აქვს სისტემებს აქვთ ტენდენცია, რომ ხელი შეუწყონ - და არა აღმოფხვრას - რასობრივი და გენდერული მიკერძოებული დაქირავება რეალური სამყაროდან არსებული ცრურწმენების გამეორებით. რამდენიმე ამერიკელმა კანონმდებელმა მიიღო მიზნად ისახავდა ხელოვნური ინტელექტის სისტემებში მიკერძოების მოსაგვარებლად, რადგან ტექნოლოგია აგრძელებს სწრაფად განვითარებას და მის დასარეგულირებლად რამდენიმე კანონი არსებობს. თეთრმა სახლმა ამ კვირაში გამოაქვეყნა „ინტელექტის ხელოვნური ინტელექტის უფლებათა კანონპროექტის გეგმა“, რომელიც ამტკიცებს, რომ დაქირავებისას გამოყენებული ალგორითმები „ასახავს და ამრავლებს არსებულ არასასურველ უთანასწორობას“ ან ახალ „მიკერძოებასა და დისკრიმინაციას“. გეგმა, რომელიც არ არის იურიდიულად სავალდებულო ან ოფიციალური მთავრობის პოლიტიკა, მოუწოდებს კომპანიებს, უზრუნველყონ AI არ განასხვავონ ან არღვევენ მონაცემთა კონფიდენციალურობას და აცნობონ მომხმარებლებს, როდის გამოიყენება ტექნოლოგია.

რა უყურეთ?

სიაში რეკომენდაციები, ავტორები კვირას ფილოსოფია და ტექნოლოგია ქაღალდმა შესთავაზა კომპანიებს, რომლებიც ავითარებენ AI ტექნოლოგიებს, ფოკუსირება მოახდინონ უფრო ფართო, სისტემატურ უთანასწორობაზე, ვიდრე „მიკერძოების ინდივიდუალური შემთხვევები“. მაგალითად, ისინი სთავაზობენ პროგრამული უზრუნველყოფის შემქმნელებს, შეამოწმონ კატეგორიები, რომლებიც გამოიყენება კანდიდატების დასალაგებლად, დამუშავებისა და კატეგორიზაციისთვის და როგორ შეიძლება ამ კატეგორიებმა ხელი შეუწყონ დისკრიმინაციას გენდერისა და რასის შესახებ გარკვეულ დაშვებებზე დაყრდნობით. მკვლევარები ასევე ამტკიცებენ, რომ HR პროფესიონალები უნდა ცდილობდნენ გაიგონ, თუ როგორ მუშაობს AI დასაქმების ინსტრუმენტები და რა არის მათი ზოგიერთი პოტენციური შეზღუდვა.

გასაკვირი ფაქტი

ევროკავშირმა AI-ზე მომუშავე დაქირავების პროგრამული უზრუნველყოფა და შესრულების შეფასების ინსტრუმენტები კლასიფიცირდება, როგორც „მაღალი რისკი“ თავის ახალში. პროექტი საკანონმდებლო ბაზა ხელოვნური ინტელექტის შესახებ, რაც იმას ნიშნავს, რომ ინსტრუმენტები ექვემდებარება უფრო მეტ შემოწმებას და უნდა აკმაყოფილებდეს შესაბამისობის გარკვეულ მოთხოვნებს.

შემდგომი Reading

DC-ს სურს წარმართოს ბრძოლა ხელოვნური ინტელექტის მიკერძოების წინააღმდეგ (აქსიო)

წყარო: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/