ხელოვნური ინტელექტის ეთიკა რეკავს სიგნალიზაციას AI მიკერძოების მოახლოებული სპექტრის შესახებ მასიური გლობალური მასშტაბით, განსაკუთრებით მოწოდებული სრულად ავტონომიური სისტემების მეშვეობით

პლატონმა თქვა, რომ კარგი გადაწყვეტილება ეფუძნება ცოდნას და არა ციფრებს.

ეს მძაფრი შეხედულება საოცრად წინასწარმეტყველური ჩანს დღევანდელი ხელოვნური ინტელექტის შესახებ.

ხედავთ, მიუხედავად გაჟღენთილი სათაურებისა, რომლებიც აცხადებენ, რომ ხელოვნური ინტელექტი როგორღაც მიაღწია გრძნობას და განასახიერებს ადამიანის ცოდნასა და მსჯელობას, გთხოვთ გაითვალისწინოთ, რომ ეს გადაჭარბებული AI ჰიპერბოლა მზაკვრული პრევარიაციაა, რადგან ჩვენ კვლავ ვეყრდნობით რიცხვების შეკუმშვას დღევანდელ ალგორითმის გადაწყვეტილების მიღებისას (ADM ) AI სისტემების მიერ განხორციელებული. თვით ამაყი მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL) შედგება გამოთვლითი შაბლონების შესატყვისისაგან, რაც იმას ნიშნავს, რომ რიცხვები ჯერ კიდევ ML/DL-ის ამაღლებული გამოყენების ბირთვია.

ჩვენ არ ვიცით, შესაძლებელია თუ არა ხელოვნური ინტელექტის მიღწევა. შეიძლება იყოს, შეიძლება არ იყოს. დანამდვილებით ვერავინ იტყვის, როგორ შეიძლება ეს წარმოიშვას. ზოგიერთი თვლის, რომ ჩვენ თანდათან გავაუმჯობესებთ ჩვენს გამოთვლითი ხელოვნური ინტელექტის მცდელობებს ისე, რომ სენტიმენტის ფორმა სპონტანურად წარმოიქმნება. სხვები ფიქრობენ, რომ AI შეიძლება გადავიდეს ერთგვარ გამოთვლით სუპერნოვაში და მიაღწიოს გრძნობას საკმაოდ საკუთარი სურვილით (როგორც წესი, სინგულარობას უწოდებენ). დამატებითი ინფორმაციისთვის ამ თეორიების შესახებ AI-ს მომავლის შესახებ, იხილეთ ჩემი გაშუქება აქ ბმული აქ.

ასე რომ, ნუ მოვიტყუებთ თავს და ტყუილად დავიჯეროთ, რომ თანამედროვე AI-ს შეუძლია ადამიანებივით აზროვნება. ვფიქრობ, შემდეგ დგება კითხვა პლატონის შენიშვნასთან დაკავშირებით, შეგვიძლია თუ არა კარგი გადაწყვეტილებების მიღება გამოთვლითი ხელოვნური ინტელექტის საფუძველზე და არა მგრძნობიარე AI-ზე. შეიძლება გაგიკვირდეთ, რომ იცოდეთ, რომ მე ვიტყვი, რომ ჩვენ ნამდვილად შეგვიძლია კარგი გადაწყვეტილებების მიღება ყოველდღიური AI სისტემებით.

ამ მონეტის მეორე მხარე არის ის, რომ ჩვენ ასევე შეგვიძლია გვქონდეს ყოველდღიური AI სისტემები, რომლებიც იღებენ ცუდ გადაწყვეტილებებს. დამპალი გადაწყვეტილებები. გადაწყვეტილებები, რომლებიც სავსეა არასასურველი მიკერძოებითა და უთანასწორობით. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი ვრცელი გაშუქება შეგიძლიათ იხილოთ აქ ეს ბმული აქ მდე ეს ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ამ დისკუსიისთვის, მსურს გამოვყო განსაკუთრებით შემაშფოთებელი ასპექტი ხელოვნური ინტელექტის შესახებ, რომლის შესახებაც ხელოვნური ინტელექტის ეთიკის ასპარეზზე მყოფები სამართლიანად წუწუნებენ და ცდილობენ სათანადო ცნობიერების ამაღლებას. გამაფრთხილებელი და შემაშფოთებელი საკითხის აღნიშვნა საკმაოდ მარტივია.

Აქ არის: AI-ს აქვს რეალური პოტენციალი, რომ გაავრცელოს ხელოვნური ინტელექტის შემცველი მიკერძოებები საგანგაშო გლობალური მასშტაბით.

და როდესაც მე ვამბობ "მასშტაბზე", ეს აშკარად ნიშნავს მთელ მსოფლიოში მასიურ მასშტაბებს. ჰუმანური მასშტაბი. სასწორი, რომელიც სცილდება სასწორს.

სანამ ჩავუღრმავდები იმის გარკვევას, თუ როგორ მოხდება ხელოვნური ინტელექტის შემცველი მიკერძოებების ეს მასშტაბირება, მოდით დავრწმუნდეთ, რომ ჩვენ ყველას გვაქვს იმის გარეგნობა, თუ როგორ შეიძლება AI-ს ჩართვა გაუმართლებელი მიკერძოებები და უთანასწორობა. კიდევ ერთხელ გავიხსენოთ, რომ ეს არ არის მგრძნობიარე ჯიშის. ეს ყველაფერი არის გამოთვლითი კალიბრის.

თქვენ შეიძლება გაგიკვირდეთ, თუ როგორ შეუძლია ხელოვნური ინტელექტის გავრცელება ისეთივე უარყოფითი მიკერძოებისა და უთანასწორობის შესახებ, რასაც ადამიანები აკეთებენ. ჩვენ მიდრეკილნი ვართ ვიფიქროთ ხელოვნური ინტელექტის შესახებ, როგორც სრულიად ნეიტრალური, მიუკერძოებელი, უბრალოდ მანქანა, რომელსაც არ გააჩნია ისეთი ემოციური გავლენა და უხეში აზროვნება, როგორიც შეიძლება ჰქონდეთ ადამიანებს. ხელოვნური ინტელექტის ერთ-ერთი ყველაზე გავრცელებული საშუალება მიკერძოებულობისა და უთანასწორობის სიმტკიცეში ხდება მანქანათმცოდნეობის და ღრმა სწავლების გამოყენებისას, ნაწილობრივ შეგროვებულ მონაცემებზე დაყრდნობით იმის შესახებ, თუ როგორ იღებენ ადამიანები გადაწყვეტილებებს.

ნება მიბოძეთ ერთი წუთით დავაკონკრეტო.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლის გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. გადაწყვეტილების მიღების ალგორითმი ან AI-ის ADM აქსიომურად დატვირთულია უთანასწორობებით.

Არ არის კარგი.

ეს მიგვიყვანს ხელოვნური ინტელექტის შემცველი მიკერძოების საკითხამდე, როდესაც მასშტაბურია.

პირველი, მოდით შევხედოთ, თუ როგორ შეიძლება ადამიანთა მიკერძოებამ შექმნას უთანასწორობა. კომპანია, რომელიც გასცემს იპოთეკურ სესხებს, გადაწყვეტს დაიქირაოს იპოთეკური სესხის აგენტი. აგენტმა უნდა განიხილოს მომხმარებლების მოთხოვნები, რომლებსაც სურთ მიიღონ საცხოვრებლის სესხი. განაცხადის შეფასების შემდეგ, აგენტი იღებს გადაწყვეტილებას სესხის გაცემის ან სესხის უარყოფის შესახებ. ადვილად-პატარა.

განხილვის მიზნით, წარმოვიდგინოთ, რომ ადამიანური სესხის აგენტს შეუძლია დღეში 8 სესხის გაანალიზება, თითო განხილვაზე დაახლოებით ერთი საათი დასჭირდება. ხუთდღიან სამუშაო კვირაში აგენტი აკეთებს დაახლოებით 40 სესხის მიმოხილვას. ყოველწლიურად, აგენტი ჩვეულებრივ აკეთებს დაახლოებით 2,000 სესხის მიმოხილვას, აძლევს ან იღებს ცოტას.

კომპანიას სურს გაზარდოს სესხების განხილვის მოცულობა, რითაც ფირმა დაიქირავებს დამატებით 100 სასესხო აგენტს. დავუშვათ, რომ ყველა მათგანს დაახლოებით ერთი და იგივე პროდუქტიულობა აქვს და ეს ნიშნავს, რომ ჩვენ ახლა შეგვიძლია გავუმკლავდეთ დაახლოებით 200,000 2,000 სესხს წელიწადში (წლიურად XNUMX სესხის მიმოხილვა თითო აგენტზე). როგორც ჩანს, ჩვენ ნამდვილად გავაძლიერეთ სესხის განაცხადების დამუშავება.

გამოდის, რომ კომპანია შეიმუშავებს AI სისტემას, რომელსაც შეუძლია არსებითად გააკეთოს იგივე სესხის მიმოხილვა, როგორც ადამიანის აგენტები. AI მუშაობს კომპიუტერის სერვერებზე ღრუბელში. ღრუბლოვანი ინფრასტრუქტურის საშუალებით, კომპანიას შეუძლია ადვილად დაამატოს მეტი გამოთვლითი სიმძლავრე სესხის მიმოხილვის ნებისმიერი მოცულობის დასაკმაყოფილებლად, რომელიც შეიძლება საჭირო გახდეს.

არსებული ხელოვნური ინტელექტის კონფიგურაციით, მათ შეუძლიათ განახორციელონ 1,000 სესხის მიმოხილვა საათში. ეს ასევე შეიძლება მოხდეს 24×7. AI-სთვის არ არის საჭირო შვებულების დრო. ლანჩის შესვენება არ არის. ხელოვნური ინტელექტი მუშაობს მთელი საათის განმავლობაში, ზედმეტი სამუშაოს გამო არ ყვირილი. ჩვენ ვიტყვით, რომ ამ მიახლოებითი ტემპით, AI-ს შეუძლია წელიწადში დაახლოებით 9 მილიონი სესხის განაცხადის დამუშავება.

გაითვალისწინეთ, რომ ჩვენ გადავედით 100 ადამიანური აგენტიდან, რომლებსაც შეეძლოთ წელიწადში 200,000 სესხის გაცემა და მრავალჯერ გადავედით 9 მილიონი მიმოხილვის მატებამდე წელიწადში AI სისტემის საშუალებით. ჩვენ მკვეთრად გავაფართოვეთ ჩვენი სესხის მოთხოვნის დამუშავება. Ეჭვი არ მეპარება.

მოემზადეთ დარტყმისთვის, რომელიც შესაძლოა სკამიდან გადმოგცეთ.

დავუშვათ, რომ ზოგიერთი ჩვენი ადამიანური აგენტი იღებს თავის სესხის გადაწყვეტილებებს არასასურველი მიკერძოების საფუძველზე. შესაძლოა, ზოგი რასობრივ ფაქტორებს ანიჭებს მთავარ როლს სესხის გადაწყვეტილების მიღებაში. შესაძლოა ზოგიერთი იყენებს სქესს. სხვები იყენებენ ასაკს. Და ასე შემდეგ.

200,000 წლიური სესხის მიმოხილვიდან რამდენი კეთდება არასასურველი მიკერძოების და უთანასწორობის არასწორი მზერის ქვეშ? შესაძლოა 10%, რაც დაახლოებით 20,000 სესხის მოთხოვნაა. კიდევ უფრო უარესი, დავუშვათ, რომ ეს არის სესხის მოთხოვნების 50%, ამ შემთხვევაში არის საკმაოდ შემაშფოთებელი 100,000 წლიური შემთხვევა, როდესაც სესხის გადაწყვეტილებები არასწორად არის გადაწყვეტილი.

ეს ცუდია. მაგრამ ჩვენ ჯერ კიდევ არ უნდა განვიხილოთ კიდევ უფრო საშინელი შესაძლებლობა.

დავუშვათ, AI-ს აქვს ფარული მიკერძოება, რომელიც შედგება ისეთი ფაქტორებისგან, როგორიცაა რასა, სქესი, ასაკი და მსგავსი. თუ ყოველწლიური სესხის ანალიზის 10% ექვემდებარება ამ არასასურველს, გვაქვს 900,000 100 სესხის მოთხოვნა, რომლებიც არასწორად განიხილება. ეს ბევრად მეტია, ვიდრე ადამიანის აგენტებს შეუძლიათ გააკეთონ, უპირველეს ყოვლისა, მხოლოდ მოცულობის ასპექტების გამო. იმ 200,000 აგენტს, თუ ყველა მთლიანად აკეთებდა არათანაბარ განხილვას, მაქსიმუმ ამის გაკეთება შეეძლო 9,000,000 წლიური სესხის მიმოხილვაზე. AI-ს შეეძლო იგივე გაეკეთებინა XNUMX წლიური მიმოხილვის დიდ მასშტაბში.

უი!

ეს არის ჭეშმარიტად AI-ით სავსე მიკერძოება უზარმაზარი მასშტაბით.

როდესაც არასასურველი მიკერძოებები ჩაფლულია ხელოვნური ინტელექტის სისტემაში, იგივე სკალირება, რომელიც ხელსაყრელი ჩანდა, ახლა უკვე თავდაყირა დგება და ხდება მონსტრის შემზარავი (და შემაშფოთებელი) მასშტაბირების შედეგი. ერთის მხრივ, ხელოვნური ინტელექტი შეიძლება სასარგებლო იყოს იმისათვის, რომ გაუმკლავდეს უფრო მეტ ადამიანს, რომლებიც ითხოვენ საცხოვრებლის სესხს. გარეგნულად, ეს საოცრად გამოიყურება AI კარგით. ჩვენ ზურგზე უნდა დავიხაროთ, რომ სავარაუდოდ გავზარდოთ ადამიანებისთვის საჭირო სესხების მიღების შანსები. იმავდროულად, თუ AI-ს აქვს ჩანერგილი მიკერძოება, სკალირება იქნება საოცრად დამპალი შედეგი და ჩვენ ვწუხვართ ჩაძირული. AI ცუდად, მართლაც მასიური მასშტაბით.

ანდაზის ორლესლიანი ხმალი.

AI-ს შეუძლია რადიკალურად გაზარდოს წვდომა გადაწყვეტილების მიღებაზე მათთვის, ვინც ეძებს სასურველ სერვისებსა და პროდუქტებს. აღარ არის ადამიანის მიერ შეზღუდული შრომის ბლოკირება. გამორჩეული! ხმლის მეორე კიდე არის ის, რომ თუ ხელოვნური ინტელექტი შეიცავს ცუდს, როგორიცაა ფარული უთანასწორობა, იგივე მასიური სკალირება გამოაქვეყნებს ამ არასასურველ ქცევას წარმოუდგენელი მასშტაბით. ამაღელვებელი, უსამართლო, სამარცხვინო და ჩვენ არ შეგვიძლია დავუშვათ საზოგადოება ჩავარდეს ასეთ მახინჯ უფსკრულში.

ყველას, ვინც გაკვირვებულია იმის შესახებ, თუ რატომ გვჭირდება უარვყოთ ხელოვნური ინტელექტის ეთიკის მნიშვნელობა, ახლა უნდა გააცნობიეროს, რომ ხელოვნური ინტელექტის მასშტაბის ფენომენი ეთიკური ხელოვნური ინტელექტის გატარების მნიშვნელოვანი მიზეზია. მოდით, მოკლედ განვიხილოთ ეთიკური ხელოვნური ინტელექტის ზოგიერთი ძირითადი პრინციპი, რათა ავხსნათ ის, თუ რა უნდა იყოს სასიცოცხლო აქცენტი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს ხელოვნურ ინტელექტს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესების და ოპერაციული მეთოდების სათანადო გაგებას, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიებით, მონაცემთა წყაროებით, დიზაინის პროცედურებისა და დოკუმენტაციის ჩათვლით.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებასთან დაკავშირებით ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. გთხოვთ გაითვალისწინოთ, რომ სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა. რისთვისაც მთელმა სოფელმა უნდა გაითვალისწინოს ხელოვნური ინტელექტის ეთიკის შესახებ.

როგორ მუშაობს AI-Steeped Biases Scaling

ახლა, როდესაც მე მივედი მაგიდაზე, რომ AI შეიძლება შეიცავდეს მიკერძოებას, ჩვენ მზად ვართ გამოვიკვლიოთ ზოგიერთი მიზეზი, რის გამოც AI სკალირება ასე ინტრუზიულია.

განვიხილოთ ათი ძირითადი მიზეზის ეს ძირითადი სია:

  1. ადვილად იმეორებს
  2. მასშტაბის მინიმალური ღირებულება
  3. საზიზღრად თანმიმდევრული
  4. თვითრეფლექსიის ნაკლებობა
  5. ბრმა მორჩილება
  6. ხელს არ იშვერს
  7. მიმღები უეჭველი
  8. არ იწვევს პროვოკაციას
  9. სამართლიანობის ცრუ აურა
  10. ძნელია უარყოფა

მოკლედ განვიხილავ თითოეულ ამ გადამწყვეტ პუნქტს.

როდესაც თქვენ ცდილობთ გაზარდოთ ადამიანის შრომით, დიდი შანსია, რომ ამის გაკეთება ძალიან გართულდება. თქვენ უნდა იპოვოთ და დაიქირაოთ ხალხი. თქვენ უნდა მოამზადოთ ისინი საქმის შესასრულებლად. თქვენ უნდა გადაიხადოთ ისინი და გაითვალისწინოთ ადამიანის სურვილები და საჭიროებები. შეადარეთ ეს AI სისტემას. თქვენ განავითარებთ მას და გამოიყენებთ მას. ხელოვნური ინტელექტის მუდმივი შენარჩუნების გარდა, თქვენ შეგიძლიათ დაჯდეთ და მისცეთ საშუალება დაუსრულებლად დამუშავდეს.

ეს ნიშნავს, რომ AI ადვილად იმეორებს. თქვენ შეგიძლიათ დაამატოთ მეტი გამოთვლითი სიმძლავრე, როგორც ამას შეიძლება დასჭირდეს დავალება და მოცულობა (არ დაქირავებთ ან გათავისუფლებთ). გლობალური გამოყენება ხდება ღილაკის დაჭერით და მიიღწევა ინტერნეტის მსოფლიო ხელმისაწვდომობით. სკალირების გაზრდა მინიმალური ღირებულებაა ადამიანის შრომასთან შედარებით.

ადამიანის შრომა აშკარად არათანმიმდევრულია. როდესაც დიდი გუნდები გყავთ, თქვენ გაქვთ ნამდვილი შოკოლადის ყუთი, რომელიც არასოდეს იცით, რა შეიძლება გქონდეთ ხელზე. AI სისტემა, სავარაუდოდ, ძალიან თანმიმდევრული იქნება. ის იმეორებს ერთსა და იმავე აქტივობებს უსასრულოდ, ყოველ ჯერზე არსებითად იგივეა რაც წინა.

ჩვეულებრივ, ჩვენ გვსიამოვნებს AI თანმიმდევრულობა. თუ ადამიანები მიდრეკილნი არიან მიკერძოებისკენ, ჩვენ ყოველთვის გვექნება ჩვენი ადამიანური შრომის გარკვეული ნაწილი, რომელიც ცდება. ხელოვნური ინტელექტი, თუკი წმინდად მიუკერძოებელია მის კონსტრუქციასა და გამოთვლით ძალისხმევაში, ბევრად უფრო თანმიმდევრული იქნებოდა. თუმცა პრობლემა ისაა, რომ თუ AI-ს აქვს ფარული მიკერძოება, თანმიმდევრულობა ახლა მტკივნეულად საზიზღარია. შანსები არის, რომ მიკერძოებული ქცევა თანმიმდევრულად განხორციელდება, ისევ და ისევ.

ადამიანებს, იმედია, ექნებათ თვითრეფლექსია და შესაძლოა მიკერძოებული გადაწყვეტილებების მიღება. მე არ ვამბობ, რომ ყველა ასე მოიქცევა. მე ასევე არ ვამბობ, რომ ისინი, ვინც საკუთარ თავს იჭერენ, აუცილებლად გამოასწორებენ თავიანთ შეცდომებს. ნებისმიერ შემთხვევაში, ზოგიერთი ადამიანი მაინც გამოსწორდება ხოლმე.

AI-ს ნაკლებად სავარაუდოა, რომ ჰქონდეს რაიმე სახის გამოთვლითი თვითრეფლექსია. ეს ნიშნავს, რომ AI უბრალოდ აგრძელებს იმას, რასაც აკეთებს. როგორც ჩანს, ნულოვანი იქნება ხელოვნური ინტელექტის გამოვლენის, რომ ის ეწინააღმდეგება სამართლიანობას. როგორც ვთქვი, მე აღვწერე გარკვეული ძალისხმევა ამ პრობლემის მოსაგვარებლად, როგორიცაა ხელოვნური ინტელექტის ეთიკის კომპონენტების შექმნა AI-ში (იხ. ბმული აქ) და ხელოვნური ინტელექტის შემუშავება, რომელიც მონიტორინგს უწევს სხვა AI-ის არაეთიკური აქტივობების გასარკვევად (იხ. ბმული აქ).

ყოველგვარი თვითრეფლექსიის არარსებობის გამო, ხელოვნური ინტელექტი ასევე, სავარაუდოდ, არსებითად ბრმა ემორჩილება იმას, რაც მას დაევალა. შეიძლება ადამიანები არც ისე მორჩილნი იყვნენ. დიდი შანსია, რომ ზოგიერთმა ადამიანმა, რომელიც ასრულებს დავალებას, დაუსვამს კითხვას, იქნებიან თუ არა ისინი უთანასწორობის ტერიტორიაზე. ისინი მიდრეკილნი არიან უარყვეს არაეთიკური ბრძანებები ან შესაძლოა წავიდნენ მამხილებლის გზაზე (იხილეთ ჩემი გაშუქება აქ ეს ბმული აქ). ნუ ელოდებით, რომ ყოველდღიური თანამედროვე ხელოვნური ინტელექტი როგორმე ეჭვქვეშ დააყენებს მის პროგრამირებას.

ჩვენ შემდეგ მივმართავთ მათ, ვინც იყენებს AI-ს. თუ თქვენ ეძებდით საცხოვრებლის სესხს და ესაუბრებოდით ადამიანს, შეიძლება იყოთ მზადყოფნაში იმის შესახებ, გაძლევს თუ არა ადამიანი სამართლიანად. ხელოვნური ინტელექტის სისტემის გამოყენებისას ადამიანების უმეტესობა ნაკლებად საეჭვოა. ისინი ხშირად თვლიან, რომ ხელოვნური ინტელექტი სამართლიანია და ასე სწრაფად არ აღელვებენ. როგორც ჩანს, ხელოვნური ინტელექტი ადამიანებს "ეს უბრალოდ მანქანაა" ტრანსში ასვენებს. ამის გარდა, შეიძლება რთული იყოს ხელოვნური ინტელექტის წინააღმდეგ პროტესტი. ამის საპირისპიროდ, პროტესტი იმისა, თუ როგორ მოგექცნენ ადამიანური აგენტი, ბევრად უფრო ადვილია და ბევრად უფრო საყოველთაოდ მიღებული და სავარაუდოა, როგორც შესაძლებელია.

მიკერძოებით გაჟღენთილი ხელოვნური ინტელექტი არაკეთილსინდისიერად დგას მიკერძოებით გაჟღენთილ ადამიანებთან მიმართებაში, კერძოდ იმის მხრივ, რომ შეუძლია ხელოვნური ინტელექტის მასიურად განათავსოს ეს მიკერძოებები გიგანტურ მასშტაბებში, ამის გაკეთება ისე, რომ არ დაიჭიროთ ან არ გყავდეთ მომხმარებლები. გააცნობიეროს რა ხდება შემაშფოთებელი.

ამ დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურს რამდენიმე დამატებითი მაგალითი, რომელიც შეიძლება აჩვენოს AI-ით გაჯერებული მიკერძოების არეულობა მასშტაბით.

მიხარია რომ მკითხე.

არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა ხელოვნურ ინტელექტის ბაზაზე დაფუძნებული ჭეშმარიტი თვითმართვადი მანქანების გამოჩენა რაიმე მასშტაბის ხელოვნური ინტელექტის მკვეთრი მიკერძოების შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

განმარტების თანახმად, ჭეშმარიტი თვითმართვადი მანქანები არის ის, რომ AI მართავს მანქანას მთლიანად თავისით და არ არსებობს არანაირი დახმარება ადამიანის მიერ მართვის ამოცანის დროს.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე -5 დონეზე ჯერ არ არსებობს ჭეშმარიტი თვითმავალი მანქანა, რომლის მიღწევაც ჯერ არ ვიცით და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI მიკერძოება მასშტაბით

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკური ხელოვნური ინტელექტის შესაძლებლობებს, რაც გულისხმობს ხელოვნური ინტელექტის შემცველი მიკერძოებების შესწავლას, რომლებიც ფართომასშტაბიანია გავრცელებული.

მოდით გამოვიყენოთ მარტივი მაგალითი. AI-ზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოს ქუჩებში მიდის და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეოკამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. იხილეთ ჩემი ანალიზი ეს ბმული აქ. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს.

გამოდის, რომ ორი უსიამოვნო შეშფოთება იწყება სხვაგვარად უვნებელი და ზოგადად მისასალმებელი AI-ზე დაფუძნებული თვითმართვადი მანქანების შესახებ, კერძოდ:

ა. იქ, სადაც ხელოვნური ინტელექტი ტრიალებს თვითმართველ მანქანებს მგზავრობისთვის, აჟიოტაჟი იყო

ბ. როგორ ექცევა ხელოვნური ინტელექტი ფეხით მოსიარულეებს, რომლებსაც არ აქვთ გზის უფლება, აქტუალური საკითხი იყო

თავდაპირველად, AI ტრიალებდა თვითმართვადი მანქანებს მთელ ქალაქში. ნებისმიერს, ვისაც სურდა მოეთხოვა თვითმართვადი მანქანით მგზავრობა, არსებითად თანაბარი შანსი ჰქონდა მიესალმა. თანდათანობით, ხელოვნურმა ინტელექტუალმა დაიწყო ძირითადად თვითმართვადი მანქანების როუმინგი ქალაქის მხოლოდ ერთ მონაკვეთში. ეს განყოფილება იყო უფრო დიდი ფულის გამომუშავება და ხელოვნური ინტელექტის სისტემა დაპროგრამებული იყო იმისათვის, რომ ეცადა მაქსიმალურად გაზარდოს შემოსავლები, როგორც საზოგადოებაში გამოყენების ნაწილი.

ქალაქის გაღატაკებულ ნაწილებში მცხოვრები საზოგადოების წევრები ნაკლებად შეძლებდნენ თვითმართვადი მანქანით მგზავრობას. ეს იმიტომ მოხდა, რომ თვითმართვადი მანქანები უფრო შორს იყვნენ და როუმინგში ტრიალებდნენ ლოკალის უფრო მაღალ შემოსავლიან ნაწილში. როდესაც მოთხოვნა მოდიოდა ქალაქის შორეული ნაწილიდან, ნებისმიერი მოთხოვნა უფრო ახლო მდებარეობიდან, რომელიც სავარაუდოდ ქალაქის "საპატიო" ნაწილში იყო, უფრო პრიორიტეტული იქნებოდა. საბოლოოდ, თვითმართვადი მანქანის შოვნა ნებისმიერ ადგილას, გარდა ქალაქის მდიდარ ნაწილზე, თითქმის შეუძლებელი იყო, განსაკუთრებით მათთვის, ვინც ცხოვრობდა რესურსებით შიმშილ ადგილებში.

თქვენ შეგიძლიათ ამტკიცებდეთ, რომ ხელოვნური ინტელექტი საკმაოდ დაედო მარიონეტული დისკრიმინაციის ფორმას (ასევე ხშირად მოიხსენიებენ როგორც არაპირდაპირ დისკრიმინაციას). AI არ იყო დაპროგრამებული იმ ღარიბი უბნების თავიდან ასაცილებლად. ამის ნაცვლად, მან „ისწავლა“ ამის გაკეთება ML/DL-ის გამოყენებით.

საქმე იმაშია, რომ ადამიანების მძღოლები ცნობილი იყვნენ იმავე საქმის კეთებით, თუმცა არა მხოლოდ ფულის გამომუშავების კუთხით. არსებობდა ზოგიერთი მძღოლი, რომლებიც მგზავრებს უზიარებდნენ, რომლებსაც ჰქონდათ არასასურველი მიკერძოება ქალაქის გარკვეულ ნაწილში მხედრების აყვანასთან დაკავშირებით. ეს იყო გარკვეულწილად ცნობილი ფენომენი და ქალაქმა დააწესა მონიტორინგის მიდგომა, რათა დაეჭირა ადამიანები მძღოლები, რომლებიც ამას აკეთებდნენ. ადამიანთა მძღოლებს შეიძლება გაუჭირდეთ შერჩევის არასასიამოვნო პრაქტიკის განხორციელების გამო.

ითვლებოდა, რომ ხელოვნური ინტელექტი არასოდეს მოხვდებოდა იმავე სახის ქვიშაში. არ იყო შექმნილი სპეციალიზებული მონიტორინგი, რათა თვალყური ადევნოთ თუ სად მიდიოდნენ AI-ზე დაფუძნებული თვითმართვადი მანქანები. მხოლოდ მას შემდეგ რაც თემის წევრებმა დაიწყეს ჩივილი, ქალაქის ლიდერებმა გააცნობიერეს რა ხდებოდა. მეტი ინფორმაციისთვის ქალაქის მასშტაბით ამ ტიპის საკითხებზე, რომლებსაც ავტონომიური მანქანები და თვითმართვადი მანქანები აპირებენ წარმოადგინონ, იხილეთ ჩემი გაშუქება: ეს ბმული აქ და რომელიც აღწერს ჰარვარდის მიერ ჩატარებულ კვლევას, რომლის თანაავტორიც მე ვიყავი ამ თემაზე.

ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანების როუმინგის ასპექტების ეს მაგალითი ასახავს ადრინდელ მინიშნებას, რომ შეიძლება არსებობდეს სიტუაციები, რომლებიც იწვევს ადამიანებს არასასურველი მიკერძოებით, რისთვისაც დაწესებულია კონტროლი და რომ AI ჩაანაცვლებს ამ ადამიანურ მძღოლებს. უფასო. სამწუხაროდ, ხელოვნური ინტელექტი შეიძლება თანდათანობით ჩაეფლო მსგავს მიკერძოებებში და ამის გაკეთება საკმარისი დამცავი რელსების გარეშე.

ეს ასევე აჩვენებს ხელოვნური ინტელექტის ძლიერ მიკერძოებას მასშტაბის საკითხთან დაკავშირებით.

ადამიანების მძღოლების შემთხვევაში, შეიძლება გვქონდეს რამდენიმე აქ ან იქ, რომლებიც ახორციელებდნენ რაიმე სახის უთანასწორობას. ხელოვნური ინტელექტის მართვის სისტემისთვის, ეს ჩვეულებრივ არის ერთი ასეთი ერთიანი AI თვითმართვადი მანქანების მთელი ფლოტისთვის. ამრიგად, ჩვენ შეიძლება დავიწყეთ ქალაქში, ვთქვათ, ორმოცდაათი თვითმართვადი მანქანით (ყველა ერთი და იგივე AI კოდით იმართება) და თანდათან გავზარდეთ, ვთქვათ, 500 თვითმართვადი მანქანით (ყველა იმართება იგივე AI კოდით). ვინაიდან ყველა ამ ხუთასი თვითმართვადი მანქანა იმართება ერთი და იგივე AI-ით, ისინი, შესაბამისად, ექვემდებარებიან იმავე წარმოშობილ მიკერძოებას და უთანასწორობას, რომელიც ჩაშენებულია AI-ში.

სკალირება ამ მხრივ გვტკივა.

მეორე მაგალითი მოიცავს AI-ს განსაზღვრას, უნდა გაჩერდეს თუ არა ფეხით მოსიარულეთა მოლოდინში, რომლებსაც არ აქვთ ქუჩის გადაკვეთის უფლება.

თქვენ უდავოდ მართავთ მანქანას და წააწყდით ფეხით მოსიარულეებს, რომლებიც ქუჩის გადაკვეთას ელოდებოდნენ და მაინც არ ჰქონდათ ამის უფლება. ეს იმას ნიშნავდა, რომ თქვენ გქონდა შეხედულებისამებრ, შეჩერებულიყავი თუ არა მათ გადაკვეთაზე. თქვენ შეგიძლიათ გააგრძელოთ მათი გადაკვეთის ნება დართოთ და კვლავ იყოთ სრულად კანონიერი მართვის წესების შესაბამისად.

კვლევები იმის შესახებ, თუ როგორ წყვეტენ მძღოლები ასეთი ფეხით მოსიარულეთათვის გაჩერებას ან არ გაჩერებას, ვარაუდობენ, რომ ზოგჯერ ადამიანები მძღოლები არჩევანს აკეთებენ არასასურველი მიკერძოების საფუძველზე. ადამიანმა მძღოლმა შეიძლება დააკვირდეს ფეხით მოსიარულეს და არ გაჩერდეს, მიუხედავად იმისა, რომ ისინი გაჩერდებოდნენ, ფეხით მოსიარულეს განსხვავებული გარეგნობა რომ ჰქონოდა, მაგალითად რასის ან სქესის მიხედვით. მე შევისწავლე ეს ბმული აქ.

წარმოიდგინეთ, რომ ხელოვნური ინტელექტის საფუძველზე დაფუძნებული თვითმართვადი მანქანები დაპროგრამებულია იმისთვის, რომ გაუმკლავდნენ საკითხს, გაჩერდნენ თუ არ გაჩერდნენ ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ გზის უფლება. აი, როგორ გადაწყვიტეს AI დეველოპერებმა ამ ამოცანის დაპროგრამება. მათ შეაგროვეს მონაცემები ქალაქის ვიდეოკამერებიდან, რომლებიც განთავსებულია მთელ ქალაქში. მონაცემები აჩვენებს ადამიანის მძღოლებს, რომლებიც ჩერდებიან ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ გზის უფლება და ადამიანები მძღოლები, რომლებიც არ ჩერდებიან. ეს ყველაფერი გროვდება დიდ მონაცემთა ბაზაში.

მანქანური სწავლისა და ღრმა სწავლის გამოყენებით, მონაცემები მოდელირებულია გამოთვლით. ხელოვნური ინტელექტის მართვის სისტემა იყენებს ამ მოდელს, რათა გადაწყვიტოს როდის გაჩერდეს თუ არ გაჩერდეს. ზოგადად, იდეა ისაა, რომ რაც არ უნდა შედგებოდეს ადგილობრივი ჩვეულება, აი, როგორ ხელმძღვანელობს AI თვითმართვადი მანქანას.

ქალაქის ლიდერებისა და მაცხოვრებლების გასაკვირად, AI აშკარად აირჩია გაჩერება ან არ გაჩერება ფეხით მოსიარულეთა გარეგნობის, მათ შორის რასისა და სქესის მიხედვით. თვითმართვადი მანქანის სენსორები სკანირებას უკეთებენ მომლოდინე ფეხით მოსიარულეებს, აწვდიან ამ მონაცემებს ML/DL მოდელში და მოდელი ასხივებს AI-ს, გააჩეროს თუ გააგრძელოს. სამწუხაროა, რომ ქალაქს უკვე ჰქონდა უამრავი ადამიანის მძღოლის მიკერძოება ამ კუთხით და AI ახლა იგივეს მიბაძავდა.

ეს მაგალითი გვიჩვენებს, რომ ხელოვნური ინტელექტის სისტემამ შეიძლება უბრალოდ გააორმაგოს ადამიანების უკვე არსებული არასასურველი მიკერძოება. უფრო მეტიც, ის ამას მასშტაბით აკეთებს. ნებისმიერ ადამიან მძღოლს შეიძლება ხანდახან ასწავლიდნენ შერჩევის ამ არასასურველი ფორმის გაკეთებას ან შესაძლოა პირადად აირჩიონ ამის გაკეთება, მაგრამ შანსი არის, რომ ადამიანთა მძღოლების დიდი ნაწილი ამას მასობრივად არ აკეთებს.

მკვეთრი განსხვავებით, ხელოვნური ინტელექტის მართვის სისტემა, რომელიც გამოიყენება თვითმართვადი მანქანების მართვისთვის, სავარაუდოდ, საზიზღრად თანმიმდევრულად და დარწმუნებით ახორციელებს წარმოშობილ მიკერძოებას.

დასკვნა

არსებობს უამრავი გზა, რათა სცადოთ და თავიდან აიცილოთ ხელოვნური ინტელექტის გამოგონება, რომელსაც აქვს არასასურველი მიკერძოება ან რომელიც დროთა განმავლობაში აგროვებს მიკერძოებას. რაც შეიძლება მეტი, იდეა მდგომარეობს იმაში, რომ დაიჭიროთ პრობლემები მანამ, სანამ მაღალ აღჭურვილობაში გადახვალთ და აწევთ სკალირებას. იმედია, მიკერძოებულები, ასე ვთქვათ, კარიდან არ გამოდიან.

დავუშვათ, რომ ამა თუ იმ გზით მიკერძოება წარმოიქმნება AI-ში. მას შემდეგ, რაც თქვენ განლაგდებით მასიურ მასშტაბებში ხელოვნური ინტელექტის საშუალებით, თქვენ ვერ შეძლებთ უბრალოდ შეასრულოთ ერთ-ერთი იმ ხშირად გამოცხადებული ტექნიკური ცნება „ცეცხლი და დაივიწყე“. თქვენ გულმოდგინედ უნდა ადევნოთ თვალი იმას, რასაც AI აკეთებს და შეეცადოთ აღმოაჩინოთ ნებისმიერი არასასურველი მიკერძოება, რომელიც უნდა გამოსწორდეს.

როგორც ადრე აღინიშნა, ერთი მიდგომა გულისხმობს იმის უზრუნველყოფას, რომ ხელოვნური ინტელექტის შემქმნელებმა იცოდნენ AI ეთიკის შესახებ და, ამრიგად, წაახალისონ მათ, რომ დააპროგრამონ AI ამ საკითხების თავიდან ასაცილებლად. კიდევ ერთი გზაა AI-ის თვითკონტროლი არაეთიკური ქცევებისთვის და/ან AI სხვა ნაწილის არსებობა, რომელიც აკონტროლებს სხვა AI სისტემებს პოტენციურად არაეთიკური ქცევებისთვის. ჩემს ნაწერებში მე გავაშუქე მრავალი სხვა პოტენციური გადაწყვეტა.

საბოლოო აზრი ჯერჯერობით. ამ დისკუსიის დაწყების შემდეგ პლატონის ციტატით, შესაძლოა მართებული იყოს დისკურსის დახურვა პლატონის კიდევ ერთი გამჭრიახი გამონათქვამით.

პლატონმა თქვა, რომ კარგის გამეორება არ არის საზიანო.

AI-ით მასშტაბის სიმარტივე, რა თქმა უნდა, ეფექტური საშუალებაა ასეთი ოპტიმისტური მისწრაფების მისაღწევად, როდესაც AI არის AI კარგით მრავალფეროვნება. ჩვენ გვსიამოვნებს კარგის გამეორება. როდესაც AI არის AI ცუდად და არასასურველი მიკერძოებითა და უთანასწორობებით სავსე, შეიძლება დავეყრდნოთ პლატონის შენიშვნებს და ვთქვათ, რომ ცუდის გამეორებას დიდი ზიანი მოაქვს.

მოდი ყურადღებით მოვუსმინოთ პლატონის ბრძნულ სიტყვებს და შესაბამისად მოვიფიქროთ ჩვენი AI.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- გლობალური მასშტაბის-განსაკუთრებით-საწვავის-მოახლოებული-სრულად-ავტონომიური-სისტემები/