ხელოვნური ინტელექტის ეთიკა, რომელიც ამბობს, რომ ხელოვნური ინტელექტი განსაკუთრებით უნდა იყოს გამოყენებული, როდესაც ადამიანთა მიკერძოება ბევრია

ადამიანებმა უნდა იცოდნენ მათი შეზღუდვები.

თქვენ შეიძლება გახსოვთ მსგავსი ცნობილი სტრიქონი ჩვენი შეზღუდვების ცოდნის შესახებ, როგორც ეს უმკაცრესად წარმოთქვა პერსონაჟმა ბინძურმა ჰარიმ 1973 წლის ფილმში, სახელწოდებით. Magnum Force (მსახიობ კლინტ ისტვუდის წარმოთქმული სიტყვებით მის დასამახსოვრებელ როლში, როგორც ინსპექტორი ჰარი კალაჰანი). საერთო წარმოდგენა არის ის, რომ ზოგჯერ ჩვენ მიდრეკილნი ვართ უგულებელვყოთ საკუთარი საზღვრები და შესაბამისად ჩავწვდეთ ცხელ წყალს. თავხედობის, ეგოცენტრული ყოფნის, თუ უბრალოდ საკუთარი შესაძლებლობების მიმართ სიბრმავის გამო, ჩვენი მიდრეკილებებისა და ნაკლოვანებების გათვალისწინების პრინციპი უხვად გონივრული და გამოსადეგია.

მოდით დავამატოთ ახალი ირონია ბრძენის რჩევას.

ხელოვნურმა ინტელექტმა (AI) იცის თავისი შეზღუდვები.

რას ვგულისხმობ პატივცემული ფრაზების ამ ვარიანტში?

ირკვევა, რომ თავდაპირველი სწრაფვა თანამედროვე ხელოვნური ინტელექტის გამოსაყენებლად, როგორც მსოფლიოს პრობლემების იმედისმომცემი გამოსაყენებლად, გაფუჭდა და მთლიანად დაბინძურდა იმის გაცნობიერებით, რომ დღევანდელ AI-ს აქვს საკმაოდ სერიოზული შეზღუდვები. ჩვენ წავედით ამაღლებული სათაურებიდან AI კარგით და სულ უფრო მეტად ჩაძირულები აღმოვჩნდით AI ცუდად. ხედავთ, მრავალი ხელოვნური ინტელექტის სისტემა შემუშავებულია და დანერგილია ყველა სახის არასასურველი რასობრივი და გენდერული მიკერძოებით და უამრავი სხვა ასეთი შემზარავი უთანასწორობა.

AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ამ AI სისტემებში აღმოჩენილი მიკერძოებები არ არის „განზრახ“ ტიპის, რომელსაც ჩვენ მივაწერთ ადამიანის ქცევას. მე აღვნიშნავ ამას იმის ხაზგასასმელად, რომ დღევანდელი AI არ არის მგრძნობიარე. მიუხედავად იმ ხმამაღალი სათაურებისა, რომლებიც სხვაგვარად გვთავაზობს, უბრალოდ არსად არ არის AI, რომელიც სენტიმენტთანაც კი ახლოსაა. გარდა ამისა, ჩვენ არ ვიცით, როგორ შევიტანოთ AI სენტიმენტულ ფრჩხილში, გარდა ამისა, ვერავინ იტყვის დანამდვილებით, მივაღწევთ თუ არა ოდესმე AI გრძნობას. შეიძლება ოდესმე ეს მოხდეს, ან შეიძლება არა.

ასე რომ, ჩემი აზრი ის არის, რომ ჩვენ არ შეგვიძლია განზრახვა მივაკუთვნოთ იმ ტიპის AI-ს, რომელიც ამჟამად გვაქვს. როგორც ითქვა, ჩვენ შეგვიძლია უხვად მივაკუთვნოთ განზრახვა მათ, ვინც ამუშავებს AI სისტემებს. AI-ის ზოგიერთმა დეველოპერმა არ იცის ის ფაქტი, რომ მათ შეიმუშავეს AI სისტემა, რომელიც შეიცავს არასასიამოვნო და შესაძლოა უკანონო მიკერძოებებს. იმავდროულად, სხვა AI დეველოპერები აცნობიერებენ, რომ ისინი ახდენენ მიკერძოებას თავიანთ AI სისტემებში, პოტენციურად აკეთებენ ამას მიზანმიმართული არასწორი ქმედების გზით.

ნებისმიერ შემთხვევაში, შედეგი მაინც არასასურველია და სავარაუდოდ უკანონო.

ინტენსიური მცდელობები მიმდინარეობს ხელოვნური ინტელექტის ეთიკის პრინციპების გამოსაქვეყნებლად, რომელიც გაანათლებს ხელოვნური ინტელექტის დეველოპერებს და უზრუნველყოფს შესაბამის ხელმძღვანელობას მათ ხელოვნური ინტელექტის სისტემებში მიკერძოების ჩანერგვის თავიდან ასაცილებლად. ეს დაგეხმარებათ ორმხრივად. პირველი, მათ, ვინც ხელოვნურ ინტელექტს აწარმოებს, აღარ ექნება მზა საბაბი, რომ მათ უბრალოდ არ იცოდნენ, თუ რა პრინციპები უნდა დაიცვან. მეორეც, ისინი, ვინც გადაუხვია ეთიკური ხელოვნური ინტელექტის პირობებს, უფრო ადვილად დაიჭერენ და აჩვენებენ, რომ თავიდან აიცილონ ის, რისი გაკეთებაც წინასწარ გააფრთხილეს და არ გაეკეთებინათ.

მოდით, მოკლედ განვიხილოთ ეთიკური ხელოვნური ინტელექტის ზოგიერთი ძირითადი პრინციპი, რათა ავხსნათ რაზე უნდა იფიქრონ ხელოვნური ინტელექტის შემქმნელებმა და მკაცრად მიიღონ AI ეთიკის პოზიციიდან.

როგორც ვატიკანმა განაცხადა რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესების და ოპერაციული მეთოდების სათანადო გაგებას, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიებით, მონაცემთა წყაროებით, დიზაინის პროცედურებისა და დოკუმენტაციის ჩათვლით.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებასთან დაკავშირებით ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. გთხოვთ გაითვალისწინოთ, რომ სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა. რისთვისაც მთელმა სოფელმა უნდა გაითვალისწინოს ხელოვნური ინტელექტის ეთიკის შესახებ.

ყოველ შემთხვევაში, ახლა, როდესაც მე გადავედი მაგიდაზე, რომ ხელოვნური ინტელექტი შეიძლება შეიცავდეს მიკერძოებას, ჩვენ შეგვიძლია ყველა დავეთანხმოთ ამ ორ აშკარა ფაქტს:

1. ადამიანებს შეიძლება ჰქონდეთ მრავალი არასასურველი მიკერძოება და შეუძლიათ მათზე მოქმედება

2. ხელოვნურ ინტელექტს შეიძლება ჰქონდეს მრავალი არასასურველი მიკერძოება და შეუძლია იმოქმედოს ამ მიკერძოებებზე

მე გარკვეულწილად მძულს ამ კონტექსტში ადამიანების დაწყობა AI-ს წინააღმდეგ, რადგან ეს შეიძლება გარკვეულწილად გულისხმობდეს, რომ AI-ს აქვს ადამიანებთან შედარებით მგრძნობიარე შესაძლებლობები. ეს რა თქმა უნდა ასე არ არის. ამ დისკუსიაში ცოტა მოგვიანებით დავუბრუნდები AI-ს ანთროპომორფიზაციის მზარდ შეშფოთებას.

რა არის უარესი, ადამიანები, რომლებიც ავლენენ არასასურველ მიკერძოებას თუ ხელოვნური ინტელექტი, რომელიც ამას აკეთებს?

მე შემიძლია ვთქვა, რომ კითხვა აყენებს ერთ-ერთ იმ ურყევ არჩევანს. ეს არის ორი ბოროტების ანდაზა ნაკლები, შეიძლება ითქვას. ჩვენ ვისურვებდით, რომ ადამიანებმა არ განასახიერონ არასასურველი მიკერძოება. ჩვენ ვისურვებდით, რომ მაშინაც კი, თუ ადამიანებს აქვთ არასასურველი მიკერძოება, ისინი არ იმოქმედონ ამ მიკერძოებებზე. იგივე შეიძლება ითქვას AI-ზეც. ჩვენ ვისურვებდით, რომ ხელოვნურმა ინტელექტუალმა არ ჩადოს არასასურველი მიკერძოებები და თუნდაც არსებობდეს ასეთი შიდა კოდირებული მიკერძოებები, AI მაინც არ იმოქმედოს მათზე.

თუმცა სურვილები სულაც არ მართავენ სამყაროს (ჩემი ანალიზისთვის ე.წ. AI სურვილების შესრულება ფართო საზოგადოების მიერ, იხ ბმული აქ).

კარგი, ჩვენ აშკარად გვინდა, რომ ადამიანებმა იცოდნენ თავიანთი შეზღუდვები. მნიშვნელოვანია იმის აღიარება, როდესაც თქვენ გაქვთ არასასურველი მიკერძოება. თანაბარი მნიშვნელობა აქვს ამ არასასურველი მიკერძოების თავიდან აცილებას თქვენს ქმედებებსა და გადაწყვეტილებებში. ბიზნესი დღეს ცდილობს ყველა სახის მიდგომას, რათა მათი თანამშრომლები არ მოხვდნენ არასასურველ მიკერძოებებში, მძიმე ხაფანგებში. თანამშრომლებს უტარდებათ სპეციალიზებული ტრენინგი იმის შესახებ, თუ როგორ შეასრულონ თავიანთი სამუშაო ეთიკურად გამართული გზებით. პროცესები ფორმირდება თანამშრომლების ირგვლივ, რათა გააფრთხილონ ისინი, როცა ეჩვენებათ, რომ ისინი არაეთიკურ ზნეებს ამჟღავნებენ. Და ასე შემდეგ.

ადამიანებთან და მათ არასასურველ მიკერძოებებთან გამკლავების კიდევ ერთი საშუალება იქნება ადამიანზე დაფუძნებული მუშაობის ავტომატიზაცია. დიახ, უბრალოდ ამოიღეთ ადამიანი მარყუჟიდან. არ მისცეთ ადამიანს უფლება შეასრულოს გადაწყვეტილების მიმღები დავალება და, სავარაუდოდ, აღარ გაქვთ რაიმე მუდმივი საზრუნავი იმის შესახებ, თუ როგორ ექცევა ადამიანი რაიმე არასასურველი მიკერძოების მიმართ. ადამიანი არ არის ჩართული და ამით პოტენციური ადამიანური მიკერძოების პრობლემა მოგვარებულია.

მე ამას იმიტომ ვახსენებ, რომ ჩვენ ვხედავთ თანდათანობით და მასიური ცვლას AI-ის გამოყენებაზე გადაწყვეტილების მიღების ალგორითმის (ADM) წესით. თუ თქვენ შეგიძლიათ შეცვალოთ მუშაკი ხელოვნური ინტელექტით, დიდი ალბათობაა, რომ ბევრი სარგებელი წარმოიქმნება. როგორც უკვე აღვნიშნეთ, თქვენ აღარ ინერვიულებთ ამ მუშაკის ადამიანური მიკერძოების გამო (ის, ვინც ამ საქმეს აღარ აკეთებს). შანსი არის, რომ ხელოვნური ინტელექტი მთლიანობაში ნაკლებად ძვირი ჯდება გრძელვადიან დროინდელ ჰორიზონტთან შედარებით. თქვენ უარს იტყვით ყველა სხვა სიძნელეზე, რომელიც წარმოიქმნება ადამიანებთან ერთად. და ა.შ.

წინადადება, რომელიც იძენს ადგილს, როგორც ჩანს, ასეთია: როდესაც ცდილობთ გადაწყვიტოთ სად საუკეთესოდ განათავსოთ ხელოვნური ინტელექტი, შეხედეთ პირველ რიგში იმ პარამეტრებს, რომლებიც უკვე იწვევს თქვენი მუშაკების მხრიდან არასასურველ ადამიანურ მიკერძოებას და რომლებისთვისაც ეს მიკერძოებები ამცირებენ ან სხვაგვარად ზედმეტად ართულებენ გადაწყვეტილების მიღების კონკრეტულ ამოცანებს.

მთავარი ის არის, რომ გონივრულად მოგეჩვენებათ თქვენი ფულის მოპოვება AI-ში ინვესტირების თვალსაზრისით, მიზნად ისახავს ადამიანის გადაწყვეტილების მიმღებ ამოცანებს, რომლებიც ძნელია კონტროლი არასასურველი მიკერძოების ინფუზიის პერსპექტივიდან. ამოიღეთ ადამიანური მუშები ამ როლში. შეცვალეთ ისინი AI-ით. ვარაუდი არის, რომ AI-ს არ ექნება ასეთი არასასურველი მიკერძოება. მაშასადამე, თქვენ შეგიძლიათ მიირთვათ თქვენი ნამცხვარი და მიირთვათ ის ასევე, კერძოდ, მიიღოთ გადაწყვეტილების ამოცანები და გააკეთეთ ეს არასასურველი მიკერძოების ეთიკური და სამართლებრივი ასპექტის გამოკლებით.

როდესაც ამას ასახავთ, ROI (ინვესტიციის ანაზღაურება) სავარაუდოდ AI-ის მიღებას უაზრო არჩევანს გახდის.

აი, როგორ ხდება ეს ჩვეულებრივ.

შეხედეთ მთელ თქვენს ფირმას და შეეცადეთ განსაზღვროთ გადაწყვეტილების მიღების ამოცანები, რომლებიც გავლენას ახდენენ მომხმარებლებზე. ამ ამოცანებიდან, რომელია ყველაზე მეტად არასათანადოდ გადახრილი, თუ მუშები ახასიათებენ არასასურველ მიკერძოებას? თუ თქვენ უკვე ცდილობდით ამ მიკერძოების შეკავებას, იქნებ დაუშვათ ყველაფერი ისე, როგორც არის. მეორეს მხრივ, თუ მიკერძოებები კვლავ ჩნდება და მათი აღმოფხვრის მცდელობა მძიმეა, განიხილეთ ამ როლში რაიმე შესაბამისი AI-ის გადაცემა. ნუ შეინარჩუნებთ მუშებს ერთობლიობაში, რადგან მათ შესაძლოა გადალახონ ხელოვნური ინტელექტი ან აიძულონ AI პირდაპირ უკანონო მიკერძოების უფსკრულში. ასევე, დარწმუნდით, რომ AI-ს შეუძლია დავალების ოსტატურად შესრულება და თქვენ საკმარისად გაქვთ აღბეჭდილი გადაწყვეტილების მიღების ასპექტები, რომლებიც საჭიროა სამუშაოს შესასრულებლად.

ჩამოიბანეთ და გაიმეორეთ.

მე მესმის, რომ ეს მარტივი ცნებაა, თუმცა მესმის, რომ არსებობს მრავალი გზა, რომლითაც ადამიანური მუშაკების ხელოვნური ინტელექტით ჩანაცვლება შეიძლება ადვილად წავიდეს. ბევრ კომპანიას სურდა ასეთი ქმედებების განხორციელება და არ ფიქრობდა, როგორ გაეკეთებინა ეს. შედეგად, ისინი ხშირად ქმნიდნენ ბევრად უარეს არეულობას, ვიდრე თავიდან ჰქონდათ.

მინდა განვმარტო და ხაზგასმით აღვნიშნო, რომ AI არ არის პანაცეა.

ამაზე საუბრისას, არის ერთი დიდი პრობლემა იმის შესახებ, რომ თითქოსდა ადამიანური მიკერძოებული გადაწყვეტილების მიმღები პირები თითქოსდა მიუკერძოებელი ხელოვნური ინტელექტით გადაყარონ. პრობლემა ის არის, რომ თქვენ შესაძლოა უბრალოდ შეცვალოთ არასასურველი მიკერძოებების ერთი ნაკრები მეორით. ადრინდელი მითითებით, AI შეიძლება შეიცავდეს არასასურველ მიკერძოებებს და შეუძლია იმოქმედოს ამ მიკერძოებებზე. თავხედური ვარაუდის გამოთქმა, რომ მიკერძოებული ადამიანების მიკერძოებული ხელოვნური ინტელექტის შეცვლა არ არის ყველაფერი, რაც უნდა იყოს გატეხილი.

მოკლედ, აქ არის საქმე, როდესაც საკითხს მკაცრად განიხილავთ მიკერძოებულ ფაქტორებს:

  • AI-ს არ აქვს არასასურველი მიკერძოება და ამიტომ AI-ზე დაფუძნებული ADM მოსახერხებელია გამოსაყენებლად
  • AI-ს აქვს იგივე არასასურველი მიკერძოება, როგორც ჩანაცვლებულ ადამიანებს და, შესაბამისად, AI-ზე დაფუძნებული ADM შემაშფოთებელია
  • ხელოვნური ინტელექტი შემოაქვს ახალ არასასურველ მიკერძოებებს, რომლებიც სცილდება ჩანაცვლებულ ადამიანებს და, სავარაუდოდ, გააუარესებს სიტუაციას.
  • ხელოვნური ინტელექტი თავიდან კარგად ჩანს, შემდეგ კი თანდათან ირხევა არასასურველ მიკერძოებებში
  • სხვა

ჩვენ შეგვიძლია მოკლედ გავხსნათ ეს შესაძლებლობები.

პირველი არის იდეალიზებული ვერსია იმისა, რაც შეიძლება მოხდეს. AI-ს არ აქვს არასასურველი მიკერძოება. თქვენ ათავსებთ AI-ს და ის შესანიშნავად ასრულებს სამუშაოს. Ყოჩაღ! რა თქმა უნდა, ვიმედოვნებთ, რომ თქვენ ასევე ოსტატურად გაუმკლავდით ადამიანთა მუშაკების გადაადგილებას ხელოვნური ინტელექტის ჩართვის გამო.

მეორე შემთხვევაში, თქვენ აყენებთ AI-ს და აღმოაჩენთ, რომ AI ავლენს იმავე არასასურველ მიკერძოებას, რაც ჰქონდათ ადამიანთა მუშაკებს. როგორ შეიძლება ეს? ამ ხაფანგში ჩავარდნის საერთო საშუალებაა მანქანათმცოდნეობის (ML) და ღრმა სწავლის (DL) გამოყენება, რომელიც ეფუძნება შეგროვებულ მონაცემებს იმის შესახებ, თუ როგორ იღებდნენ ამ როლში მყოფი ადამიანები ადრე გადაწყვეტილებებს.

ნება მომეცით ავხსნა ერთი წუთი.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც ასრულებენ სამუშაოს წლების განმავლობაში, აერთიანებენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლის გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. არ არსებობს საღი აზრი ან მოდელირების სხვა მგრძნობიარე ასპექტები თავისთავად.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკამ შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ ხელოვნური ინტელექტის დეველოპერები შეამოწმებენ პოტენციურად ჩაფლულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონების შესატყვისი მოდელებში კვლავ იყოს ჩანერგილი მიკერძოება.

ყველაფერი, რაც გითხარით, შეიძლება პირველ ადგილზე დაბრუნდეთ. ადამიანთა იგივე არასასურველი მიკერძოება ახლა გამოთვლით აისახება AI სისტემაში. თქვენ არ აღმოფხვრათ მიკერძოება.

კიდევ უფრო უარესი, თქვენ შეიძლება ნაკლებად გააცნობიეროთ, რომ AI-ს აქვს მიკერძოება. ადამიანების შემთხვევაში, ჩვეულებრივ, შეიძლება ფრთხილად იყოთ, რომ ადამიანებს არასასურველი მიკერძოება ჰქონდეთ. ეს არის საბაზისო მოლოდინი. ხელოვნური ინტელექტის გამოყენებამ შეიძლება დაამშვიდოს ლიდერები, დაარწმუნონ, რომ ავტომატიზაციამ მთლიანად ამოიღო ნებისმიერი სახის ადამიანური მიკერძოება. ისინი ამგვარად აყალიბებენ თავს იმისთვის, რომ ფეხში ესროლეს. მათ გაათავისუფლეს ადამიანები ერთი შეხედვით ცნობილი არასასურველი მიკერძოებით, ჩაანაცვლეს ხელოვნური ინტელექტი, რომელიც ითვლებოდა, რომ არ გააჩნდა ასეთი მიკერძოება და ახლა გამოიყენეს AI სავსე იგივე მიკერძოებებით, რომლებიც უკვე ცნობილია.

ამან შეიძლება რამ მართლაც გადაიკვეთოს. თქვენ შესაძლოა მოხსნათ სხვა დამცავი მოაჯირები, რომლებიც გამოიყენება ადამიანებთან ერთად, რომლებიც შეიქმნა იმისთვის, რომ აღმოაჩინონ და თავიდან აიცილონ ეს უკვე მოსალოდნელი ადამიანური მიკერძოება. AI-ს ახლა თავისუფალი აქვს. არაფერია იმისთვის, რომ დაიჭირო ის, სანამ მოქმედებას დაიწყებდე. ამის შემდეგ, AI-მ შეიძლება დაიწყოს თქვენი მიკერძოებული მოქმედებების დიდი დაგროვების ბუნდოვანი გზა.

და, თქვენ იმ უხერხულ და შესაძლოა საპასუხისმგებლო პოზაში ხართ, რომელიც ოდესღაც იცოდით მიკერძოების შესახებ და ახლა ამ მიკერძოებებს აძლევთ ნებას, ანადგურებს. ალბათ ერთია, რომ არასოდეს შეგხვედრიათ ასეთი არასასურველი მიკერძოებები და შემდეგ მოულოდნელად მოულოდნელად ხელოვნური ხელოვნური ინტელექტი აფრქვევს მათ. თქვენ შეიძლება სცადოთ ამის გამართლება ყურადღების გამფანტველის „ვინ გამოიცნობდა“ (არც ისე დამაჯერებლად, ალბათ). მაგრამ ახლა რომ შეიქმნა ხელოვნური ინტელექტი, რომელიც აკეთებს იგივე არაკეთილსინდისიერ მიკერძოებულ ქმედებებს, როგორც ადრე, კარგი, თქვენი საბაბი სულ უფრო თხელი და ლაღდება.

ამის გადახვევა გულისხმობს ხელოვნური ინტელექტის გამოვლენას არასასურველი მიკერძოებების გამოვლენას, რომლებიც ადრე არ ყოფილა, როდესაც ადამიანები ასრულებდნენ დავალებას. შეიძლება ითქვას, რომ ამის თავიდან აცილება უფრო რთულია, რადგან ის შედგება „ახალი“ მიკერძოებისგან, რომლებსაც ფირმა ადრე არ ეძებდა. თუმცა, საბოლოო ჯამში, საბაბები შეიძლება დიდ შვებას არ მოგცემთ. თუ ხელოვნური ინტელექტის სისტემა მოხვდა როგორც არაეთიკურ, ასევე უკანონო ტერიტორიაზე, თქვენი ბატი შეიძლება მოხარშული იყოს.

კიდევ ერთი ასპექტი, რომელიც უნდა გვახსოვდეს, არის ის, რომ ხელოვნური ინტელექტი შეიძლება მშვენივრად დაიწყოს და შემდეგ უსიამოვნო მიკერძოებებში მოხვდეს. ეს განსაკუთრებით სავარაუდოა, როდესაც მანქანური სწავლების ან ღრმა სწავლების გამოყენება ხდება მუდმივად, რათა AI განახლდეს. მიუხედავად იმისა, ML/DL მუშაობს რეალურ დროში თუ პერიოდულად ახორციელებს განახლებებს, ყურადღება უნდა მიექცეს იმას, არის თუ არა ხელოვნური ინტელექტის შესწავლა, რომელიც ახლა შეიცავს მიკერძოებებს და რომლებიც ადრე არ იყო.

ლიდერებისთვის, რომლებიც ფიქრობენ, რომ იღებენ უფასო ლანჩს ჯადოსნური ჯოხის ქნევით, რათა შეცვალონ მიკერძოებული მუშები ხელოვნური ინტელექტით, ისინი ძალიან უხეში გამოღვიძების წინაშე დგანან. იხილეთ ჩემი დისკუსია AI ეთიკის პრინციპებით ლიდერების გაძლიერების მნიშვნელობის შესახებ ბმული აქ.

ამ დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ მიიღოთ რეალური სამყაროს მაგალითები, რომლებიც შესაძლოა წარმოაჩინონ ადამიანის არასასურველი მიკერძოების ჩანაცვლების (ან არა) გამოცანის შესახებ AI-ზე დაფუძნებული არასასურველი მიკერძოებით.

მიხარია რომ მკითხე.

არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: AI-ზე დაფუძნებული ჭეშმარიტი თვითმართვადი მანქანების გამოჩენა აშუქებს თუ არა რაიმე არასასურველ მიკერძოებას AI-ში და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

განმარტების თანახმად, ჭეშმარიტი თვითმართვადი მანქანები არის ის, რომ AI მართავს მანქანას მთლიანად თავისით და არ არსებობს არანაირი დახმარება ადამიანის მიერ მართვის ამოცანის დროს.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე -5 დონეზე ჯერ არ არსებობს ჭეშმარიტი თვითმავალი მანქანა, რომლის მიღწევაც ჯერ არ ვიცით და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ხელოვნური ინტელექტი არასასურველი მიკერძოებით

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკური ხელოვნური ინტელექტის შესაძლებლობებს, რაც გულისხმობს ხელოვნური ინტელექტისა და არასასურველი მიკერძოების შესწავლას.

მოდით გამოვიყენოთ მარტივი მაგალითი. AI-ზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოს ქუჩებში მიდის და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეოკამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. იხილეთ ჩემი ანალიზი ეს ბმული აქ. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს.

გამოდის, რომ ორი უსიამოვნო შეშფოთება იწყება სხვაგვარად უვნებელი და ზოგადად მისასალმებელი AI-ზე დაფუძნებული თვითმართვადი მანქანების შესახებ, კერძოდ:

ა. სადაც ხელოვნური ინტელექტი ტრიალებს თვითმართველ მანქანებს მგზავრობისთვის, საზოგადოების შეშფოთება გახდა

ბ. როგორ ექცევა ხელოვნური ინტელექტი მოსიარულეთა მოლოდინში, რომლებსაც არ აქვთ გზის უფლება, ასევე მზარდი საკითხია

თავდაპირველად, AI ტრიალებდა თვითმართვადი მანქანებს მთელ ქალაქში. ნებისმიერს, ვისაც სურდა მოეთხოვა თვითმართვადი მანქანით მგზავრობა, არსებითად თანაბარი შანსი ჰქონდა მიესალმა. თანდათანობით, ხელოვნურმა ინტელექტუალმა დაიწყო ძირითადად თვითმართვადი მანქანების როუმინგი ქალაქის მხოლოდ ერთ მონაკვეთში. ეს განყოფილება იყო უფრო დიდი ფულის გამომუშავება და ხელოვნური ინტელექტის სისტემა დაპროგრამებული იყო იმისათვის, რომ ეცადა მაქსიმალურად გაზარდოს შემოსავლები, როგორც საზოგადოებაში გამოყენების ნაწილი.

ქალაქის გაღატაკებულ ნაწილებში მცხოვრები საზოგადოების წევრები ნაკლებად შეძლებდნენ თვითმართვადი მანქანით მგზავრობას. ეს იმიტომ მოხდა, რომ თვითმართვადი მანქანები უფრო შორს იყვნენ და როუმინგში ტრიალებდნენ ლოკალის უფრო მაღალ შემოსავლიან ნაწილში. როდესაც მოთხოვნა მოდიოდა ქალაქის შორეული ნაწილიდან, ნებისმიერი მოთხოვნა უფრო ახლო მდებარეობიდან, რომელიც სავარაუდოდ ქალაქის "საპატიო" ნაწილში იყო, უფრო პრიორიტეტული იქნებოდა. საბოლოოდ, თვითმართვადი მანქანის შოვნა ნებისმიერ ადგილას, გარდა ქალაქის მდიდარ ნაწილზე, თითქმის შეუძლებელი იყო, განსაკუთრებით მათთვის, ვინც ცხოვრობდა რესურსებით შიმშილ ადგილებში.

თქვენ შეგიძლიათ ამტკიცებდეთ, რომ ხელოვნური ინტელექტი საკმაოდ დაედო მარიონეტული დისკრიმინაციის ფორმას (ასევე ხშირად მოიხსენიებენ როგორც არაპირდაპირ დისკრიმინაციას). AI არ იყო დაპროგრამებული იმ ღარიბი უბნების თავიდან ასაცილებლად. ამის ნაცვლად, მან „ისწავლა“ ამის გაკეთება ML/DL-ის გამოყენებით.

საქმე იმაშია, რომ ადამიანების მძღოლები ცნობილი იყვნენ იმავე საქმის კეთებით, თუმცა არა მხოლოდ ფულის გამომუშავების კუთხით. არსებობდა ზოგიერთი მძღოლი, რომლებიც მგზავრებს უზიარებდნენ, რომლებსაც ჰქონდათ არასასურველი მიკერძოება ქალაქის გარკვეულ ნაწილში მხედრების აყვანასთან დაკავშირებით. ეს იყო გარკვეულწილად ცნობილი ფენომენი და ქალაქმა დააწესა მონიტორინგის მიდგომა, რათა დაეჭირა ადამიანები მძღოლები, რომლებიც ამას აკეთებდნენ. ადამიანთა მძღოლებს შეიძლება გაუჭირდეთ შერჩევის არასასიამოვნო პრაქტიკის განხორციელების გამო.

ითვლებოდა, რომ ხელოვნური ინტელექტი არასოდეს მოხვდებოდა იმავე სახის ქვიშაში. არ იყო შექმნილი სპეციალიზებული მონიტორინგი, რათა თვალყური ადევნოთ თუ სად მიდიოდნენ AI-ზე დაფუძნებული თვითმართვადი მანქანები. მხოლოდ მას შემდეგ რაც თემის წევრებმა დაიწყეს ჩივილი, ქალაქის ლიდერებმა გააცნობიერეს რა ხდებოდა. მეტი ინფორმაციისთვის ქალაქის მასშტაბით ამ ტიპის საკითხებზე, რომლებსაც ავტონომიური მანქანები და თვითმართვადი მანქანები აპირებენ წარმოადგინონ, იხილეთ ჩემი გაშუქება: ეს ბმული აქ და რომელიც აღწერს ჰარვარდის მიერ ჩატარებულ კვლევას, რომლის თანაავტორიც მე ვიყავი ამ თემაზე.

ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანების როუმინგის ასპექტების ეს მაგალითი ასახავს ადრინდელ მინიშნებას, რომ შეიძლება არსებობდეს სიტუაციები, რომლებიც იწვევს ადამიანებს არასასურველი მიკერძოებით, რისთვისაც დაწესებულია კონტროლი და რომ AI ჩაანაცვლებს ამ ადამიანურ მძღოლებს. უფასო. სამწუხაროდ, ხელოვნური ინტელექტი შეიძლება თანდათანობით ჩაეფლო მსგავს მიკერძოებებში და ამის გაკეთება საკმარისი დამცავი რელსების გარეშე.

მეორე მაგალითი მოიცავს AI-ს განსაზღვრას, უნდა გაჩერდეს თუ არა ფეხით მოსიარულეთა მოლოდინში, რომლებსაც არ აქვთ ქუჩის გადაკვეთის უფლება.

თქვენ უდავოდ მართავთ მანქანას და წააწყდით ფეხით მოსიარულეებს, რომლებიც ქუჩის გადაკვეთას ელოდებოდნენ და მაინც არ ჰქონდათ ამის უფლება. ეს იმას ნიშნავდა, რომ თქვენ გქონდა შეხედულებისამებრ, შეჩერებულიყავი თუ არა მათ გადაკვეთაზე. თქვენ შეგიძლიათ გააგრძელოთ მათი გადაკვეთის ნება დართოთ და კვლავ იყოთ სრულად კანონიერი მართვის წესების შესაბამისად.

კვლევები იმის შესახებ, თუ როგორ წყვეტენ მძღოლები ასეთი ფეხით მოსიარულეთათვის გაჩერებას ან არ გაჩერებას, ვარაუდობენ, რომ ზოგჯერ ადამიანები მძღოლები არჩევანს აკეთებენ არასასურველი მიკერძოების საფუძველზე. ადამიანმა მძღოლმა შეიძლება დააკვირდეს ფეხით მოსიარულეს და არ გაჩერდეს, მიუხედავად იმისა, რომ ისინი გაჩერდებოდნენ, ფეხით მოსიარულეს განსხვავებული გარეგნობა რომ ჰქონოდა, მაგალითად რასის ან სქესის მიხედვით. მე შევისწავლე ეს ბმული აქ.

წარმოიდგინეთ, რომ ხელოვნური ინტელექტის საფუძველზე დაფუძნებული თვითმართვადი მანქანები დაპროგრამებულია იმისთვის, რომ გაუმკლავდნენ საკითხს, გაჩერდნენ თუ არ გაჩერდნენ ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ გზის უფლება. აი, როგორ გადაწყვიტეს AI დეველოპერებმა ამ ამოცანის დაპროგრამება. მათ შეაგროვეს მონაცემები ქალაქის ვიდეოკამერებიდან, რომლებიც განთავსებულია მთელ ქალაქში. მონაცემები აჩვენებს ადამიანის მძღოლებს, რომლებიც ჩერდებიან ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ გზის უფლება და ადამიანები მძღოლები, რომლებიც არ ჩერდებიან. ეს ყველაფერი გროვდება დიდ მონაცემთა ბაზაში.

მანქანური სწავლისა და ღრმა სწავლის გამოყენებით, მონაცემები მოდელირებულია გამოთვლით. ხელოვნური ინტელექტის მართვის სისტემა იყენებს ამ მოდელს, რათა გადაწყვიტოს როდის გაჩერდეს თუ არ გაჩერდეს. ზოგადად, იდეა ისაა, რომ რაც არ უნდა შედგებოდეს ადგილობრივი ჩვეულება, აი, როგორ ხელმძღვანელობს AI თვითმართვადი მანქანას.

ქალაქის ლიდერებისა და მაცხოვრებლების გასაკვირად, AI აშკარად აირჩია გაჩერება ან არ გაჩერება ფეხით მოსიარულეთა გარეგნობის, მათ შორის რასისა და სქესის მიხედვით. თვითმართვადი მანქანის სენსორები სკანირებას უკეთებენ მომლოდინე ფეხით მოსიარულეებს, აწვდიან ამ მონაცემებს ML/DL მოდელში და მოდელი ასხივებს AI-ს, გააჩეროს თუ გააგრძელოს. სამწუხაროა, რომ ქალაქს უკვე ჰქონდა უამრავი ადამიანის მძღოლის მიკერძოება ამ კუთხით და AI ახლა იგივეს მიბაძავდა.

კარგი ამბავი ის არის, რომ ეს აჩენს საკითხს, რომლის არსებობაც აქამდე თითქმის არავინ იცოდა. ცუდი ამბავი ის იყო, რომ მას შემდეგ, რაც AI დაიჭირეს ამის კეთებაში, მას ყველაზე მეტი პასუხისმგებლობა დაეკისრა. ეს მაგალითი გვიჩვენებს, რომ ხელოვნური ინტელექტის სისტემამ შეიძლება უბრალოდ გააორმაგოს ადამიანების უკვე არსებული არასასურველი მიკერძოება.

დასკვნა

არსებობს უამრავი გზა, რათა სცადოთ და თავიდან აიცილოთ ხელოვნური ინტელექტის გამოგონება, რომელიც ან კარიბჭეს აქვს არასასურველი მიკერძოებები, ან დროთა განმავლობაში აჩენს მიკერძოებას. ერთი მიდგომა გულისხმობს იმის უზრუნველყოფას, რომ ხელოვნური ინტელექტის დეველოპერებმა იცოდნენ ამის შესახებ და, შესაბამისად, აიძულებენ მათ დაპროგრამონ AI, რათა თავიდან აიცილონ ეს საკითხი. კიდევ ერთი გზა არის ხელოვნური ინტელექტის თვითკონტროლის არსებობა არაეთიკური ქცევისთვის (იხილეთ ჩემი განხილვა აქ ბმული აქ) და/ან აქვს ხელოვნური ინტელექტის სხვა ნაწილი, რომელიც მონიტორინგს უწევს სხვა AI სისტემებს პოტენციურად არაეთიკური ქცევისთვის (მე ეს გავაშუქე აქ ბმული აქ).

შეგახსენებთ, უნდა გვესმოდეს, რომ ადამიანებს შეიძლება ჰქონდეთ არასასურველი მიკერძოება და რომ როგორღაც მათ უნდა იცოდნენ თავიანთი შეზღუდვები. ანალოგიურად, AI-ს შეიძლება ჰქონდეს არასასურველი მიკერძოება და როგორმე უნდა ვიცოდეთ მათი შეზღუდვები.

მათთვის, ვინც გულმოდგინედ იზიარებს ხელოვნური ინტელექტის ეთიკას, ახლავე მინდა დავასრულო კიდევ ერთი ცნობილი ხაზით, რომელიც ყველამ უკვე უნდა იცოდეს. კერძოდ, გთხოვთ, განაგრძოთ ეთიკური ხელოვნური ინტელექტის გამოყენება და გაზიარება. და ამით მე თავხედურად ვიტყოდი ამას: „მიდი, გაალამაზე დღე“.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/