3 მიზეზი, რის გამოც თქვენს ორგანიზაციას დასჭირდება გარე ალგორითმის შემფასებლები

სატა სარმაჰ-ჰაიტაუერის მიერ

ბიზნესის ლიდერები ხელოვნური ინტელექტის (AI) ყველა ფასეულობას ახდენენ. KPMG-ის 2021 წლის კვლევა აჩვენებს მთავრობის, სამრეწველო წარმოების, ფინანსური სერვისების, საცალო ვაჭრობის, სიცოცხლის მეცნიერების და ჯანდაცვის ბიზნეს ლიდერების უმრავლესობა ამბობს, რომ ხელოვნური ინტელექტი მინიმუმ ზომიერად ფუნქციონირებს მათ ორგანიზაციებში.. კვლევამ ასევე აჩვენა, რომ გამოკითხულთა ნახევარი ამბობს, რომ მათმა ორგანიზაციამ დააჩქარა ხელოვნური ინტელექტის მიღება Covid-19-ის პანდემიის საპასუხოდ. იმ ორგანიზაციებში, სადაც ხელოვნური ინტელექტი იქნა მიღებული, ნახევარი მაინც ამბობს, რომ ტექნოლოგიამ მოლოდინს გადააჭარბა.

ხელოვნური ინტელექტის ალგორითმები სულ უფრო მეტად პასუხისმგებელნი არიან დღევანდელ მრავალფეროვან ინტერაქციასა და ინოვაციებზე - პერსონალიზებულიდან რეკომენდაციები პროდუქტის შესახებ მდე მომსახურება გამოცდილება ბანკებში სესხის გაცემის გადაწყვეტილებები და კიდევ პოლიციის პასუხი.

მაგრამ ყველა იმ სარგებელის მიუხედავად, რასაც ისინი გვთავაზობენ, AI ალგორითმები მოჰყვება დიდ რისკებს, თუ ისინი არ იქნება ეფექტური მონიტორინგი და შეფასებული მდგრადობის, სამართლიანობის, ახსნისა და მთლიანობის თვალსაზრისით. ბიზნეს ლიდერების დასახმარებლად AI-ის მონიტორინგსა და შეფასებაში, ზემოთ მოყვანილი კვლევა აჩვენებს, რომ ა ბიზნეს ლიდერების მზარდ რაოდენობას სურს, რომ მთავრობამ დაარეგულიროს ხელოვნური ინტელექტი, რათა ორგანიზაციებს დაუშვან ინვესტიციები სწორ ტექნოლოგიასა და ბიზნეს პროცესებში. საჭირო მხარდაჭერისა და ზედამხედველობისთვის, მიზანშეწონილია განიხილოს გარე შეფასებები, რომლებსაც სთავაზობს სერვისის მიმწოდებელი, რომელსაც აქვს ასეთი სერვისების მიწოდების გამოცდილება. აქ არის სამი მიზეზი.

1. ალგორითმები არის „შავი ყუთები“

ხელოვნური ინტელექტის ალგორითმები - რომლებიც სწავლობენ მონაცემებიდან პრობლემების გადასაჭრელად და ამოცანების ოპტიმიზაციისთვის - სისტემებს უფრო ჭკვიანს ხდის, რაც მათ საშუალებას აძლევს შეაგროვონ და შექმნან შეხედულებები ბევრად უფრო სწრაფად, ვიდრე ოდესმე შეეძლოთ ადამიანებს.

თუმცა, ზოგიერთი დაინტერესებული მხარე ამ ალგორითმებს „შავ ყუთებად“ თვლის, განმარტავს დრიუ როზენი, KPMG-ის აუდიტის მმართველი დირექტორი, წამყვანი პროფესიული მომსახურების ფირმა. კონკრეტულად, გარკვეულ დაინტერესებულ მხარეებს შეიძლება არ ესმოდეთ, როგორ მივიდა ალგორითმი გარკვეულ გადაწყვეტილებამდე და, შესაბამისად, შეიძლება არ იყვნენ დარწმუნებული ამ გადაწყვეტილების სამართლიანობაში ან სიზუსტეში.

„ალგორითმიდან მიღებული შედეგები შეიძლება მიდრეკილი იყოს მიკერძოებულობისკენ და შედეგების არასწორი ინტერპრეტაციისკენ“, ამბობს როზენი. „ამან ასევე შეიძლება გამოიწვიოს გარკვეული რისკები სუბიექტისთვის, რადგან ისინი იყენებენ ამ შედეგებს და უზიარებენ [მათ] საზოგადოებას და მათ დაინტერესებულ მხარეებს“.

მაგალითად, ალგორითმი, რომელიც იყენებს გაუმართავ მონაცემებს, საუკეთესო შემთხვევაში არაეფექტურია და უარეს შემთხვევაში საზიანოა. როგორ შეიძლება გამოიყურებოდეს ეს პრაქტიკაში? განვიხილოთ AI-ზე დაფუძნებული ჩეთბოტი, რომელიც აწვდის მომხმარებლებს ანგარიშის არასწორ ინფორმაციას ან ავტომატური ენის თარგმნის ხელსაწყოს, რომელიც არაზუსტად თარგმნის ტექსტს. ორივე შემთხვევამ შეიძლება გამოიწვიოს სერიოზული შეცდომები ან არასწორი ინტერპრეტაცია სამთავრობო ერთეულებისთვის ან კომპანიებისთვის, ასევე იმ შემადგენლებისთვის და მომხმარებლებისთვის, რომლებიც ეყრდნობიან ამ ალგორითმების გადაწყვეტილებებს.

შავი ყუთის პრობლემაში კიდევ ერთი წვლილი შეაქვს, როდესაც თანდაყოლილი მიკერძოება იჭრება ხელოვნური ინტელექტის მოდელების განვითარებაში, რაც პოტენციურად იწვევს მიკერძოებულ გადაწყვეტილებებს. საკრედიტო გამსესხებლები, მაგალითად, სულ უფრო ხშირად იყენებენ AI-ს პოტენციური მსესხებლების საკრედიტო ღირსების პროგნოზირებისთვის, რათა მიიღონ სესხის აღების გადაწყვეტილებები. თუმცა, რისკი შეიძლება წარმოიშვას, როდესაც AI-ში ძირითადი შენატანები, როგორიცაა პოტენციური მსესხებლის საკრედიტო ქულა, აქვს მატერიალური შეცდომა, რაც იწვევს იმ პირებს, რომლებსაც უარი ეთქვათ სესხზე.

ეს ხაზს უსვამს გარე შემფასებლის აუცილებლობას, რომელიც შეიძლება იყოს მიუკერძოებელი შემფასებელი და უზრუნველყოს ფოკუსირებული შეფასება, მიღებულ კრიტერიუმებზე დაყრდნობით, ისტორიული მონაცემებისა და დაშვებების შესაბამისობისა და სანდოობის შესახებ, რომლებიც აძლიერებენ ალგორითმს.

2. დაინტერესებული მხარეები და მარეგულირებლები ითხოვენ გამჭვირვალობას

2022 წელს არ არსებობდა ამჟამინდელი ანგარიშგების მოთხოვნები პასუხისმგებელი AI-სთვის. თუმცა, როზენი ამბობს, „ისევე, როგორც მმართველმა ორგანოებმა შემოიღეს ESG [გარემოს, სოციალური და მმართველობის] რეგულაციები მოხსენება გარკვეული ESG მეტრიკის შესახებ, მხოლოდ დროის საკითხია, რომ დავინახოთ პასუხისმგებელი ხელოვნური ინტელექტის შესახებ მოხსენების დამატებითი რეგულირების მოთხოვნები.”

ფაქტობრივად, ძალაშია 1 წლის 2023 იანვრიდან, ნიუ-იორკში ადგილობრივი კანონი 144 მოითხოვს, რომ მიკერძოებული აუდიტი ჩატარდეს დასაქმების გადაწყვეტილების ავტომატიზებულ ინსტრუმენტზე, სანამ ის გამოიყენებოდა.

და ფედერალურ დონეზე, 2020 წლის ეროვნული ხელოვნური ინტელექტის საინიციატივო აქტი- რომელიც ეფუძნება ა 2019 წლის აღმასრულებელი ბრძანება- ყურადღებას ამახვილებს ხელოვნური ინტელექტის ტექნიკურ სტანდარტებზე და მითითებებზე. გარდა ამისა, ალგორითმული პასუხისმგებლობის აქტი შეიძლება მოითხოვოს გადაწყვეტილების ავტომატური სისტემების ზემოქმედების შეფასება და კრიტიკული გადაწყვეტილების გაძლიერებული პროცესები. და საზღვარგარეთ, ხელოვნური ინტელექტის აქტი შემოთავაზებულია, რომელიც გთავაზობთ ყოვლისმომცველ მარეგულირებელ ჩარჩოს სპეციფიკური მიზნებით ხელოვნური ინტელექტის უსაფრთხოების, შესაბამისობის, მმართველობისა და სანდოობის შესახებ.

ამ ცვლილებებით, ორგანიზაციები მმართველობის მიკროსკოპის ქვეშ არიან. ალგორითმის შემფასებელმა შეიძლება წარმოადგინოს ისეთი ანგარიშები, რომლებიც აკმაყოფილებენ მარეგულირებელ მოთხოვნებს და აძლიერებენ დაინტერესებულ მხარეთა გამჭვირვალობას, ამასთან, თავიდან აიცილებენ დაინტერესებულ მხარეებს არასწორ ინტერპრეტაციას ან შეცდომაში შეიყვანეს შეფასების შედეგებით.

3. კომპანიები სარგებლობენ რისკის გრძელვადიანი მენეჯმენტით

სტივ კამარა, KPMG-ის ტექნოლოგიური უზრუნველყოფის პრაქტიკის პარტნიორი, პროგნოზირებს, რომ AI ინვესტიციები გაგრძელდება, რადგან სუბიექტები განაგრძობენ პროცესების ავტომატიზაციას, ინოვაციების განვითარებას, რომლებიც აძლიერებენ მომხმარებლის გამოცდილებას და ანაწილებენ AI-ს განვითარებას ბიზნეს ფუნქციებში. იმისათვის, რომ დარჩეს კონკურენტუნარიანი და მომგებიანი, ორგანიზაციებს დასჭირდებათ ეფექტური კონტროლი, რომელიც არა მხოლოდ აგვარებს ხელოვნური ინტელექტის მყისიერ ნაკლოვანებებს, არამედ ამცირებს გრძელვადიან რისკებს, რომლებიც დაკავშირებულია ხელოვნური ინტელექტის გაძლიერებულ ბიზნეს ოპერაციებთან.

ეს არის სადაც გარე შემფასებლები მოქმედებენ, როგორც სანდო, საზრიანი რესურსი. რადგანაც ორგანიზაციები სულ უფრო მეტად ითვისებენ AI მთლიანობას, როგორც ბიზნესის გამაძლიერებელს, პარტნიორობა შეიძლება გახდეს ნაკლებად ad hoc სერვისი და უფრო თანმიმდევრული თანამშრომლობა, განმარტავს კამარა.

”ჩვენ ვხედავთ წინსვლის გზას, სადაც საჭირო იქნება მუდმივი ურთიერთობა ორგანიზაციებს შორის, რომლებიც ავითარებენ და ახორციელებენ ხელოვნურ ინტელექტს მუდმივ საფუძველზე და ობიექტურ გარე შემფასებელს შორის,” - ამბობს ის.

მზერა შემდეგში

სამომავლოდ, ორგანიზაციებმა შესაძლოა გამოიყენონ გარე შეფასებები უფრო ციკლურ საფუძველზე, რადგან ისინი შეიმუშავებენ ახალ მოდელებს, იღებენ მონაცემთა ახალ წყაროებს, აერთიანებენ მესამე მხარის მიმწოდებლის გადაწყვეტილებებს ან ნავიგაციას უკეთებენ შესაბამისობის ახალ მოთხოვნებს, მაგალითად.

როდესაც დამატებითი რეგულაციებისა და შესაბამისობის მოთხოვნებია მანდატი, გარე შემფასებლებს შეუძლიათ უზრუნველყონ სერვისები, რათა პირდაპირ შეაფასონ, რამდენად კარგად გამოიყენა ორგანიზაციამ ან გამოიყენა AI ამ მოთხოვნებთან მიმართებაში. ეს შემფასებლები მაშინ საუკეთესოდ იქნებიან პოზიციონირებულნი, რათა მკაფიოდ და თანმიმდევრულად გაუზიარონ შეფასების შედეგები.

იმისათვის, რომ გამოიყენოს ტექნოლოგია და ასევე დაიცვას მისი შეზღუდვები, ორგანიზაციამ უნდა მოიძიოს გარე შემფასებლები, რათა მიაწოდოს ანგარიშები, რომლებზეც მას შეუძლია დაეყრდნოს უფრო მეტი გამჭვირვალობის დემონსტრირებას ალგორითმების დანერგვისას. აქედან, ორგანიზაციასაც და დაინტერესებულ მხარეებსაც შეუძლიათ უკეთ გაიგონ ხელოვნური ინტელექტის ძალა და მისი შეზღუდვები.

წყარო: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/