ეთიკური AI ამბიციურად ვიმედოვნებთ, რომ ხელოვნური ინტელექტი დამოუკიდებლად ისწავლის ეთიკურ ქცევას, როგორიცაა ხელოვნური ინტელექტის შემთხვევა ავტონომიურ მანქანებში

არისტოტელემ ცნობილმა თქვა, რომ გონების განათლება გულის განათლების გარეშე საერთოდ არ არის განათლება.

თქვენ შეგიძლიათ განმარტოთ ეს გამჭრიახი შენიშვნა, რათა ვივარაუდოთ, რომ ეთიკისა და მორალური ქცევის შესახებ სწავლა ძალზე სასიცოცხლოდ მნიშვნელოვანია კაცობრიობისთვის. კლასიკურ დებატებში ბუნება და აღზრდა, უნდა ვიკითხოთ, რამდენად არის ჩვენი ეთიკური ზნე-ჩვეულებები ინსტინქტურად მშობლიური, ხოლო რამდენი ვისწავლეთ ჩვენი ცხოვრების განმავლობაში. პატარები აკვირდებიან თანამოაზრეებს და, სავარაუდოდ, აყალიბებენ თავიანთ ეთიკურ საფუძვლებს იმის მიხედვით, რასაც ხედავენ და უსმენენ. იგივე შეიძლება ითქვას მოზარდებზეც. ღია მოაზროვნე მოზრდილებისთვის, ისინიც გააგრძელებენ ადაპტირებას და წინსვლას თავიანთ ეთიკურ აზროვნებაში, ყოველდღიური სამყაროს გამოცდილების შედეგად.

რა თქმა უნდა, ეთიკის შესახებ ვინმეს აშკარად სწავლება ასევე არის კურსისთვის. ადამიანები ვალდებულნი არიან გაეცნონ ეთიკურ გზებს ამ თემაზე გაკვეთილებზე დასწრებით ან შესაძლოა მათთვის საინტერესო ღონისძიებებზე და პრაქტიკაში დასწრებით. ეთიკური ღირებულებები შეიძლება აშკარად იყოს იდენტიფიცირებული და გაზიარებული, როგორც საშუალება, რათა დაეხმაროს სხვებს საკუთარი ეთიკის სტრუქტურის ჩამოყალიბებაში. გარდა ამისა, ეთიკა შეიძლება დახვეწილად იყოს დამალული ისტორიებში ან სწავლების სხვა რეჟიმებში, რომლებიც საბოლოოდ ატარებენ მესიჯს იმის შესახებ, თუ რას მოიცავს ეთიკური ქცევა.

როგორც ჩანს, ადამიანები ეთიკას ამყარებენ.

რაც შეეხება ხელოვნურ ინტელექტს (AI)?

მესმის, რომ ასეთი კითხვა შეიძლება უცნაურად მოგეჩვენოთ. ჩვენ, რა თქმა უნდა, ველით, რომ ადამიანები ჩაერთვებიან ეთიკას და გაივლიან ცხოვრებას რაღაც ზნეობრივი კოდექსით. მარტივი და აშკარა ფაქტია. მეორეს მხრივ, მანქანა ან კომპიუტერი არ ჯდება იმავე საცნობარო ჩარჩოში. თქვენი გონებრივი რეაქცია შეიძლება იყოს ის, რომ შორს არის ან უცნაურია, რომ ხელოვნური ინტელექტის განსახიერება ეთიკისა და მორალური კოდექსების განსახიერებაა.

საუკეთესო, რისი გაკეთებაც ჩვენ შეგვიძლია შევძლოთ ხელოვნური ინტელექტის შესახებ, არის მისი შემუშავება ისე, რომ იგი არ გადაუხვიოს ეთიკურ ქცევას. ხელოვნური ინტელექტის შემქმნელები და ხელოვნური ინტელექტის შემქმნელები პასუხისმგებელნი იქნებიან უზრუნველყონ, რომ ხელოვნური ინტელექტი, როგორც შემუშავებული და განხორციელებული, უკვე შეესაბამება ეთიკურ პრინციპებს. კარიბჭედან, ასე ვთქვათ, ხელოვნური ინტელექტი უკვე ხელუხლებელი უნდა იყოს და მზად უნდა წავიდეს, როგორც ეთიკურად სათანადო ჩანაფიქრი.

თქვენ ნამდვილად მართალი იქნებით, როცა ფიქრობთ, რომ ხელოვნური ინტელექტის სისტემები მართლაც უნდა იყოს შექმნილი ისე, რომ უკვე მთლიანად მოერგოს ეთიკურ საფუძველს. საზოგადოება საკმაოდ აღფრთოვანებული იყო, როდესაც პირველად გამოვიდა ხელოვნური ინტელექტის სისტემების უახლესი ტალღა და გამოჩნდა იმის დემონსტრირება, რომ ჩვენ ვიყავით ეპოქაში. AI კარგით. ხელოვნური ინტელექტი დაეხმარება მსოფლიოს მრავალი ყველაზე რთული პრობლემის გადაჭრაში. ტექნოლოგიის მიღწევები გამოიყენებოდა ადამიანური შესაძლებლობების შემეცნებითი შესაძლებლობების შესავსებად, თუმცა ნება მომეცით ხაზგასმით აღვნიშნო, რომ ჩვენ ჯერ არ გვაქვს მგრძნობიარე AI და არ ვიცით მიიღწევა თუ არა მგრძნობიარე AI.

მსოფლიოში ხელოვნური ინტელექტის მოპოვების სწრაფვასთან დაკავშირებული პრობლემა თანდათან გამოავლინა ხელოვნური ინტელექტის მახინჯი ქვედა ნაწილი, რომელიც ცნობილია როგორც AI ცუდად. ბევრი სათაური იყო ხელოვნური ინტელექტის სისტემების შესახებ, რომლებიც იყენებენ ალგორითმული გადაწყვეტილების მიღებას (ADM), რომელიც სავსეა მიკერძოებითა და უთანასწორობებით. გარდა ამისა, თანამედროვე ხელოვნური ინტელექტის დიდი ნაწილი განიცდის გამჭვირვალობის ნაკლებობას, მიდრეკილია აუხსნელი იყოს გამოთვლითი გადაწყვეტილებების ახსნის თვალსაზრისით, ხშირად ავლენს სამართლიანობის ნაკლებობას და ზოგს უფლებას აძლევდა გადაიტანოს თავისი ადამიანური პასუხისმგებლობა ხელოვნური ინტელექტისკენ თითით.

მე ფართოდ ვაშუქებდი ეთიკურ AI-ს და ხელოვნური ინტელექტის ეთიკას ჩემს ნაწერებში, მათ შორის ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

როგორ შეიძლება იყოს AI ცუდად თუ აღნიშნულ კონსტრუქტად ავიღოთ, რომ ხელოვნური ინტელექტი თავიდანვე უნდა იყოს შემუშავებული არაეთიკური ქმედებების თავიდან ასაცილებლად?

პასუხი მრავალმხრივია.

პირველი, ხელოვნური ინტელექტის დეველოპერები და კომპანიები, რომლებიც ახორციელებენ AI-ს, თავად არ იციან თავიანთი AI-ის ჩამოყალიბების მნიშვნელობაზე, რათა დარჩეს ეთიკურ საზღვრებში. კონცეფცია საერთოდ არ არის მათ რადარში. სწრაფი ფულის გამომუშავების მიმზიდველობა ზოგიერთს აიძულებს წინ წაიწიოს ნებისმიერი ველური ხელოვნური ინტელექტის წარმოდგენა, რომელიც მათ სურთ განზრახ წარმოქმნან. არ არის საჭირო რაიმე ეთიკური საკითხების გარკვევა. უბრალოდ შექმენით AI და დაიწყეთ იგი.

მეორეც, არიან ისეთებიც, რომლებიც ქმნიან AI-ს, რომლებიც ამშვენებს ეთიკური შედეგების აშკარა ცნობიერებას, მაგრამ ისინი აშკარად ამცირებენ ან გარკვეულწილად უგულებელყოფენ ეთიკური AI მოსაზრებებს. ერთი გავრცელებული პერსპექტივა არის ტექნიკური კლასიკური მანტრა, რომლის მიზანია სწრაფად და ხშირად წარუმატებლობა. უბრალოდ გააგრძელეთ გამეორება, სანამ ყველაფერი, იმედია, სათანადოდ არ მოგვარდება. AI ეთიკის ნებისმიერი სისტემატური და გააზრებული ჩართვის შანსები სწრაფი ცეცხლის AI მცდელობებში, სამწუხაროდ, მცირეა. მე განვიხილავ ეთიკური ხელოვნური ინტელექტის მიმართ ლიდერობის გაძლიერების აუცილებლობას ბმული აქ.

მესამე, ბევრი ბუნდოვანია იმის შესახებ, თუ რა ეთიკური ღობეები უნდა იყოს დაცული ხელოვნური ინტელექტის შემუშავებისას. რა თქმა უნდა, დღესდღეობით არსებობს მრავალი AI ეთიკის სახელმძღვანელო, იხილეთ ჩემი გაშუქება აქ ბმული აქ, თუმცა ეს მოსახერხებელი თეორიული დებულებები ძნელია გადაიქცევა კონკრეტულ AI სისტემისთვის, რომელიც შენდება. მე აღვნიშნე, რომ ჩვენ ნელ-ნელა დავინახავთ ხელოვნური ინტელექტის აგების ხელსაწყოებისა და მეთოდოლოგიების გაჩენას, რომლებიც მოიცავს ეთიკური AI კოდირების პრაქტიკას, რაც ხელს უწყობს უფსკრული აბსტრაქტულ ასპექტებსა და ანდაზურ რეზინის ხვდება-გზის ასპექტებს შორის.

მეოთხე, აქ ხაზგასმით, ჩვენ ვიკვლევთ ხელოვნური ინტელექტის დაზიანებულ შემთხვევას, რომელიც მაშინაც კი, თუ თავდაპირველად შედგენილი იყო ეთიკურ საზღვრებში, შემდეგ გამოყენებისას ხვდება სავარაუდო ეთიკურად დაშიფრული პარამეტრების მიღმა.

ჩვენ უნდა გავხსნათ ეს.

დღევანდელი AI-ის დიდი ნაწილი იყენებს მანქანურ სწავლებას (ML) და ღრმა სწავლებას (DL). ეს არის გამოთვლითი ნიმუშის შესატყვისი ტექნიკა და ტექნოლოგიები. ზოგადად, იდეა იმაში მდგომარეობს, რომ თქვენ ერთად აგროვებთ უამრავ შესაბამის მონაცემს, რასაც ხელოვნური ინტელექტის გაკეთება უნდა შეეძლოს, თქვენ ამ მონაცემებს აწვდით არჩეულ გამოთვლით შაბლონის შესატყვისს და მათემატიკურად შესატყვისი ნიმუში ცდილობთ იპოვოთ სასარგებლო შაბლონები. გაითვალისწინეთ, რომ ამ AI-ს მხრიდან არ არსებობს რაიმე სენტიმენტი (რომელიც, კიდევ ერთხელ, ასეთი რამ ჯერ არ არსებობს). არც რაიმე საღი აზრია ჩართული. ეს ყველაფერი მათემატიკა და გამოთვლებია.

შესაძლოა, ML/DL-ში შეტანილი მონაცემები უკვე გაჟღენთილია მიკერძოებითა და უთანასწორობით. ამ შემთხვევაში, შანსები არის, რომ გამოთვლითი ნიმუშის შესატყვისი უბრალოდ მიბაძავს იმავე მიდრეკილებებს. თუ თქვენ მიაწვდით მონაცემებს, რომლებიც უპირატესობას ანიჭებს ერთ რასას მეორეს ან ანიჭებს უპირატესობას ერთ სქესს მეორეზე, დიდი შანსია, რომ ნიმუშის შესატყვისი შეესაბამებოდეს მას, როგორც აღმოჩენილ შაბლონს.

ამ ტიპის დამაგრების დიდი პრობლემა არის ის, რომ ჩვენ შეიძლება გაგვიჭირდეს იმის გარკვევა, რომ შაბლონები დაფუძნებულია მონაცემთა ამ ასპექტზე. ეკლიან და რთულ მათემატიკას შეუძლია ასეთი აღმოჩენილი შაბლონების ზედაპირის გამოჩენა საკმაოდ პრობლემური გახადოს. ხელოვნური ინტელექტის ტესტირებაც კი სულაც არ აპირებს ამ ტენდენციების გამოვლენას, რაც დამოკიდებულია გამოყენებული ტესტების დიაპაზონსა და სიღრმეზე.

ასე რომ, დავუშვათ, რომ თქვენ შექმენით ხელოვნური ინტელექტის სისტემა და შეასრულეთ საშინაო დავალება, პირველ რიგში, ცდილობთ თავიდან აიცილოთ მონაცემები, რომლებსაც ჰქონდათ წინასწარ არსებული მიკერძოება. შემდეგ, მას შემდეგ რაც ჩატარდა მანქანური სწავლება და ღრმა სწავლება, თქვენ შეამოწმეთ შედეგები, რათა ნახოთ რაიმე მიკერძოება ან უთანასწორობა. დავუშვათ, რომ თქვენ ვერ იპოვით ასეთ არასასურველ მიდრეკილებებს.

ყოველივე ამის შემდეგ, მწვანე შუქი ახლა ეძლევა წინსვლას და AI-ს გამოყენებაში. ხალხი დაიწყებს ხელოვნური ინტელექტის გამოყენებას და სავარაუდოდ თვლიან, რომ ის ეთიკურად სათანადოა. დეველოპერებიც ასე ფიქრობენ. AI-ის მწარმოებელი კომპანია ასე ფიქრობს. წავედით ყველანი.

აი რა შეიძლება მოხდეს.

მიკერძოების მინიშნება, რომელიც არ იქნა ნაპოვნი თავდაპირველ მონაცემებში და რომელიც არ იქნა დაფიქსირებული AI-ს ტესტირების დროს, ალბათ გააქტიურებულია. ალბათ ეს მხოლოდ იშვიათად ხდება. შეიძლება გჯეროდეთ, რომ სანამ ეს იშვიათია, ყველაფერი კარგადაა. თუმცა მეეჭვება, რომ ზემოხსენებული მიკერძოებისადმი დაუცველებს სურთ ასე დაინახონ ყველაფერი. მე გაბედავ ვთქვა, რომ ხელოვნური ინტელექტის სისტემა და ის, ვინც მას ჩამოაყალიბა, აპირებს შედეგების წინაშე აღმოჩნდეს იურიდიულ სასამართლოებში ან საზოგადოების აზრის ღია სასამართლოში.

კიდევ ერთი ვარიაცია არის ანდაზური ცნება ინჩის აღების და მილის აღების შესახებ. მინიშნება შეიძლება თავდაპირველად იყოს პატარა. ხელოვნური ინტელექტის გამოყენების დროს, ხელოვნური ინტელექტი შეიძლებოდა შექმნილიყო იმისთვის, რომ შეიცვალოს თავისი თავი, როგორც ყველაფერი მიდის. ამგვარი „სწავლა“ ან „თვითსწავლება“ შეიძლება საკმაოდ სასარგებლო იყოს. იმის მაგივრად, რომ ადამიანის ხელოვნური ინტელექტის დეველოპერებს მოეთხოვოთ ხელოვნური ინტელექტის სისტემის მუდმივად შეცვლა და კორექტირება, ხელოვნური ინტელექტი შექმნილია იმისთვის, რომ ეს თავად გააკეთოს. არანაირი დაგვიანება, ძვირადღირებული სამუშაო და ა.შ.

ამ მოსახერხებელი თვითრეგულირების მინუსი არის ის, რომ მინიშნება შეიძლება ამაღლდეს და უფრო დიდი გახდეს ხელოვნური ინტელექტის მიერ გამოყენების ფარგლებში. მიუხედავად იმისა, რომ მიკერძოება შესაძლოა მჭიდრო პატარა კუთხეში ყოფილიყო, ახლა მას ეძლევა გაფართოების ადგილი. AI-ს არ აქვს ერთი შეხედვით, რომ ეს არის „არასწორი“ და მხოლოდ გამოთვლით ავრცელებს რაღაცას, რაც, როგორც ჩანს, მუშაობს.

თუ ამით თმა დაგიდგება თავზე, შემდეგი ვარიანტისთვის უნდა დაჯდეთ.

დავუშვათ, რომ მიკერძოება თავიდანვე არ არსებობდა და ჩვენ გვაქვს ყოველგვარი დასაბუთებული რწმენა, რომ AI სრულიად თავისუფალია მიკერძოებისგან. ჩვენ ან გაგვიმართლა, ან, ალბათ, სისტემატურად დავრწმუნდით, რომ არ იყო რაიმე მიკერძოება მონაცემებში და არც ერთი არ წარმოიშვა გამოთვლითი ნიმუშის დამთხვევის შედეგად. მიუხედავად ამ შვების ამოსუნთქვისა, AI-ს ნებადართული აქვს მორგება გამოყენებისას. პანდორას კარი იღება და AI ირჩევს გამოთვლითი მიზიდულობისკენ მიკერძოებას, რომელიც აღმოჩენილია იმ დროს, რასაც AI აკეთებს.

ახლად აღმოჩენილი მიკერძოება იჭრება AI-ში და არავინ არის განსაკუთრებით ბრძენი, რომ ეს მოხდა. დიახ, ჩვენ შევქმენით მონსტრი, ნამდვილი ფრანკენშტეინი.

როგორ შეიძლება ამ გაჩენის თავიდან აცილება ან მინიმუმ დროშის მონიშვნა?

ერთ-ერთი მიდგომა, რომელიც სულ უფრო პოპულარული ხდება, არის AI-ში ეთიკის შეგროვების კომპონენტის შეყვანა. AI შექმნილია ეთიკური AI ელემენტების ჩათვლით. შემდეგ ეს ელემენტები უყურებენ ან აკონტროლებენ დანარჩენ AI-ს, სანამ AI დროთა განმავლობაში რეგულირდება. როდესაც ჩანს, რომ ხელოვნური ინტელექტი სცილდება დაპროგრამებულ ეთიკურ პრინციპებს, ეთიკური AI ცდილობს ამ კორექტირებას ან აფრთხილებს დეველოპერებს, რომ რაღაც არ მოხდა.

შეგიძლიათ სცადოთ ამ ეთიკური ხელოვნური ინტელექტის ზედამხედველობის შესაძლებლობების დაპროგრამება და იმედი გქონდეთ, რომ ის გაიმარჯვებს სანამ AI გამოიყენება.

კიდევ ერთი გარკვეულწილად საკამათო კუთხით იქნება მანქანათმცოდნეობის და ღრმა სწავლების გამოყენება ხელოვნური ხელოვნური ინტელექტის ეთიკური ასპექტების ასწავლისთვის AI სისტემაში.

რა თქვი?

დიახ, შესაძლოა არაორდინალური კონცეფცია არის ის, რომ იმის ნაცვლად, რომ ადამიანმა პროგრამისტმა პირდაპირ დააშიფროს ხელოვნური ინტელექტის ეთიკის პრინციპები, ხელოვნური ინტელექტი ისეთი ფორმისაა, რომ შეეცადოს და „ისწავლოს“ ისინი. შეგახსენებთ, რომ მოკლედ აღვნიშნე, რომ ML/DL-ის გამოყენება, როგორც წესი, ეყრდნობა ალგორითმებში მონაცემების მიწოდებას და ხდება გამოთვლითი ნიმუშის შესატყვისი. მილიონი დოლარის საკითხია, შეგვიძლია თუ არა გამოვიყენოთ იგივე მექანიზმი ხელოვნური ინტელექტის სისტემაში ეთიკური ფასეულობების ჩასართავად.

ვფიქრობ, თქვენ შეგეძლოთ ეს შეადაროთ ჩემს დისკუსიას გახსნისას იმის შესახებ, თუ როგორ აცნობიერებენ ადამიანები ეთიკურ პრინციპებს, თუმცა გთხოვთ, დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციას ნუ შეადარებთ ადამიანურ აზროვნებას (ეს ასე არ არის და ამ შეგონებას ცოტა ხანში გავიმეორებ). ხელოვნური ინტელექტის დაპროგრამება შესაძლებელია "თანდაყოლილად" ეთიკური AI პრინციპებით. ან AI-ს შეეძლო „ისწავლოს“ ეთიკური AI წესები. თქვენ შეგიძლიათ გააკეთოთ ორივე, რა თქმა უნდა, რაც მე სხვაგან გავაშუქე, იხილეთ ბმული აქ.

ერთი წუთით დაფიქრდით ერთი შეხედვით გასაოცარ კონცეფციაზე, რომ ხელოვნურმა ინტელექტუალმა შეიძლება „ისწავლოს“ ეთიკა და, სავარაუდოდ, დაიცვას ეთიკური ქცევები.

ეს მკვლევარები იყენებენ ხელოვნური ინტელექტის სისტემის მაგალითს, რომელიც ადგენს სასურველ ტემპერატურას სახლში იმის საილუსტრაციოდ, თუ როგორ შეიძლება ეს იმუშაოს: „პირველად „აკვირდებოდა“ სხვადასხვა ოჯახში მცხოვრები ადამიანების ქცევას მხოლოდ ერთი კვირის განმავლობაში და გამოიტანა დასკვნები მათი უპირატესობების შესახებ. შემდეგ გამოიყენა მოძრაობის ამომცნობი სენსორი იმის დასადგენად, იყო თუ არა ვინმე სახლში. როდესაც სახლი ცარიელი იყო, ჭკვიანი თერმოსტატი გადავიდა ენერგიის მაღალი დაზოგვის რეჟიმში; როდესაც ხალხი სახლში იყო, თერმოსტატი არეგულირებდა ტემპერატურას მათ პრეფერენციებზე. ეს თერმოსტატი აშკარად აკმაყოფილებს ეთიკის ბოტის ორ მოთხოვნას, თუმცა ძალიან მარტივი. ის აფასებს ხალხის პრეფერენციებს და აწესებს მათ გათბობისა და გაგრილების სისტემის კონტროლს. შეიძლება ვინმემ იკითხოს, რა კავშირშია ეს სოციალურ მორალურ ღირებულებებთან. ეს თერმოსტატი სხვადასხვა მნიშვნელობის მქონე ადამიანებს საშუალებას აძლევს, ჰქონდეთ სასურველი ტემპერატურის პარამეტრები. სახლის მაცხოვრებლებს არ ესაჭიროებათ თერმოსტატის გადატვირთვა ყოველდღე, როდესაც მიდიან და მიდიან. ეს მარტივი ეთიკის ბოტი ასევე ამცირებს საზოგადოების მთლიან ენერგეტიკულ ანაბეჭდს“ (ამიტაი ეციონისა და ორენ ეციონის ნაშრომში სათაურით „AI Assisted Ethics“ ტომში ეთიკა და საინფორმაციო ტექნოლოგიები).

სანამ უფრო მეტად ჩავუღრმავდები ხელოვნური ინტელექტის არსებობას, რომელიც „სწავლობს“ ეთიკურ ქცევას, მსურს კიდევ რაღაც გითხრათ ხელოვნური ინტელექტის სტატუსის შესახებ.

AI შეიძლება შედგებოდეს შემდეგი შესაძლო მდგომარეობებისგან:

1. არამგრძნობიარე უბრალო ძველი AI დღევანდელი

2. ადამიანის ხარისხის მგრძნობიარე AI (ეს ჯერ არ გვაქვს)

3. მგრძნობიარე ხელოვნური ინტელექტი, რომელიც არის სუპერ ინტელექტუალური (წელი #2-ს მიღმა)

მე ვაპირებ ფოკუსირებას არსებულ მდგომარეობაზე, რომელიც არის არა-მგრძნობიარე ჩვეულებრივი AI. ბევრი რამ, რაც შეიძლება წაიკითხოთ ეთიკური ხელოვნური ინტელექტის შესახებ, ზოგჯერ მოიცავს მგრძნობიარე AI-ს და, შესაბამისად, ძალიან სპეკულაციურია. მე ვამბობ, რომ ეს სპეკულაციურია, რადგან ვერავინ აკრავს კუდს ვირზე, თუ როგორი იქნება მგრძნობიარე ხელოვნური ინტელექტი. ადამიანური ხარისხის მგრძნობიარე ხელოვნური ინტელექტის სფეროს მიღმაც კი არის ძალზედ გამორჩეული სუპერ ინტელექტუალური AI. არსებობს უამრავი სამეცნიერო ფანტასტიკური ისტორია და წუხილი იმის შესახებ, თუ როგორ შეიძლება გადაწყვიტოს ხელოვნური ინტელექტის ამ არომატებმა კაცობრიობის დამონება, ან შესაძლოა უბრალოდ გაგვაღუპოს. ეს ცნობილია, როგორც ხელოვნური ინტელექტის ეგზისტენციალური რისკი. ზოგჯერ დილემა ასევე ფორმდება, როგორც ხელოვნური ინტელექტის კატასტროფული რისკი.

ზოგი ამტკიცებს, რომ ჩვენ შეიძლება კარგად ვიყოთ, სანამ ხელოვნური ინტელექტი არამგრძნობიარე უბრალო ძველ AI-ს მივყავართ, რომელიც დღეს გვაქვს. დავუშვათ, რომ ჩვენ ვერ მივაღწევთ მგრძნობიარე AI-ს. წარმოიდგინეთ, რომ რაც არ უნდა ვეცადოთ მგრძნობიარე ხელოვნური ინტელექტის შექმნას, ჩვენ ამას ვერ ვახერხებთ. ასევე, დისკუსიისთვის ჩავთვალოთ, რომ მგრძნობიარე AI არ წარმოიქმნება რაიმე იდუმალი სპონტანური პროცესით.

მაშინ ჩვენ არ ვართ დაცულები, რომ ეს მცირე კალიბრის ხელოვნური ინტელექტი, რომელიც არის AI-ის წარმოსახვითი ერთადერთი შესაძლო სახეობა, იქნება გამოყენებული?

ნამდვილად არ.

სავარაუდოდ, იგივე ზოგადი საკითხები წარმოიქმნება. მე არ ვარაუდობ, რომ ხელოვნური ინტელექტი „ფიქრობს“ ჩვენი განადგურებისკენ. არა, ჩვეულებრივი არასენსიტიური ხელოვნური ინტელექტი მხოლოდ ძალაუფლების პოზიციებზეა მოთავსებული, რაც თვითგანადგურებაში გვაქცევს. მაგალითად, ჩვენ არამგრძნობიარე ხელოვნური ინტელექტი ჩავდეთ მასობრივი განადგურების იარაღში. ამ ავტონომიურ იარაღს არ შეუძლია აზროვნება. ამავდროულად, ადამიანები ბოლომდე არ რჩებიან მარყუჟში. შედეგად, ხელოვნური ინტელექტი, როგორც ავტონომიური ავტომატიზაციის ფორმა, უნებლიედ იწვევს კატასტროფულ შედეგებს, ან ადამიანის ბრძანებით, ან შეცდომით ან შეცდომით, ან იმპლანტირებული ბოროტმოქმედებით, ან თვითრეგულირებით, რაც იწვევს ამ საკითხს. მახინჯი გზა და ა.შ.

მე ვამტკიცებ, რომ ხელოვნური ხელოვნური ინტელექტის ეთიკის პრობლემა არსებობს სამივე AI გათვალისწინებული სახელმწიფოსთვის, კერძოდ, ჩვენ გვაქვს ხელოვნური ინტელექტის ეთიკური პრობლემები არასენსიტიურ, ძველ AI-სთან და მგრძნობიარე AI-სთან, რომელიც ან უბრალოდ ადამიანის დონეა, ან გაშლილი AI, რომელიც აღწევს. ცნობილი სუპერდაზვერვის დონე.

ამ დამამშვიდებელი განცხადების გათვალისწინებით, ჩვენ შეგვიძლია დარწმუნებით ვიმსჯელოთ ეთიკურ პრობლემებთან დაკავშირებულ სიდიდესა და სირთულეზე AI-ის თითოეულ შესაბამის დონეზე. ჩვეული თვალსაზრისი ის არის, რომ ხელოვნური ინტელექტის ეთიკის მდგომარეობა ნაკლებად გადაულახავია არასენსიტიურ AI დონეზე, უფრო მკაცრია მგრძნობიარე ადამიანის თანაბარი ხელოვნური ინტელექტის დონეზე და ჭეშმარიტი თავბრუსხვევა მგრძნობიარე სუპერინტელექტუალური ხელოვნური ინტელექტის დონეზე.

რაც უფრო უკეთესი ხდება AI, მით უფრო უარესდება AI ეთიკის პრობლემა.

შესაძლოა ეს ბუნების ხელშეუხებელი კანონია.

დღევანდელ AI-ზე ყურადღების მიქცევის მცდელობა, რომ ხელოვნურმა ინტელექტუალმა „ისწავლოს“ ეთიკური ქცევები თანამედროვე მანქანათმცოდნეობის და ღრმა სწავლის საშუალებით სავსეა შეშფოთებითა და რთული პრობლემებით. დავუშვათ, ხელოვნური ინტელექტი ვერ აგროვებს სასურველ ეთიკურ პრინციპებს? როგორ გავიგოთ დანამდვილებით, რომ ის შეფერხდა ამით? ასევე, ხელოვნური ინტელექტის სისტემის სხვა ნაწილები პოტენციურად გადალახავს შეგროვებულ ეთიკურ კონსტრუქციებს? ამას დაუმატეთ ისიც, რომ თუ ხელოვნური ინტელექტი ფრენის დროს რეგულირდება, კორექტირებამ შეიძლება შეასუსტოს ეთიკური ასპექტები ან უნებლიედ დაძლიოს ისინი.

კიდევ უფრო უარესი, "სწავლა" შეიძლება გამოიწვიოს ხელოვნური ინტელექტის დაშვება მართლაც არაეთიკურ ქცევებზე. მიუხედავად იმისა, რომ ჩვენ გვეგონა, რომ სწორად ვაკეთებდით AI-ს ეთიკურობისკენ მიბიძგებით, გამოდის, რომ ხელოვნური ინტელექტი არაეთიკურ ასპექტებთან შესაბამისობაში გადავიდა. ვისაუბროთ ჩვენი ფეხის სროლაზე, ეს ნამდვილად შეიძლება მოხდეს.

ამ დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურს რამდენიმე დამატებითი რეალური მაგალითები, რომლებიც შეიძლება ხაზგასმით აღვნიშნოთ, თუ როგორ შეიძლება გამოყენებულ იქნას AI ეთიკის „სწავლა“ დღევანდელ AI-ზე (თერმოსტატის მაგალითის გემრიელი თიზერის გარდა).

მიხარია რომ მკითხე.

არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: AI-ზე დაფუძნებული ჭეშმარიტი თვითმართვადი მანქანების გამოჩენა რაიმეს ასახავს AI-ს შეუძლია „ისწავლოს“ ეთიკური AI პრინციპები და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

განმარტების თანახმად, ჭეშმარიტი თვითმართვადი მანქანები არის ის, რომ AI მართავს მანქანას მთლიანად თავისით და არ არსებობს არანაირი დახმარება ადამიანის მიერ მართვის ამოცანის დროს.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე -5 დონეზე ჯერ არ არსებობს ჭეშმარიტი თვითმავალი მანქანა, რომლის მიღწევაც ჯერ არ ვიცით და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ეთიკური AI ინოკულაცია

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკური AI შესაძლებლობები, რაც გულისხმობს წარბების ამაღლებას, რომ ჩვენ შეგვიძლია მივცეთ ხელოვნური ინტელექტის „სწავლა“ ეთიკური ქცევების შესახებ.

მოდით გამოვიყენოთ მარტივი მაგალითი. AI-ზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოს ქუჩებში მიდის და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეოკამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. იხილეთ ჩემი ანალიზი ეს ბმული აქ. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს. ერთ მშვენიერ დღეს, დავუშვათ, რომ თქვენს ქალაქში ან ქალაქში თვითმართვადი მანქანა მოძრაობს და დგება სიტუაცია, როდესაც ფეხით მოსიარულე ელოდება გზის გადაკვეთას. ჩავთვალოთ, რომ ფეხით მოსიარულეს თავისთავად არ აქვს გზის უფლება. ადამიანის მართული მანქანა შეიძლება გაიაროს ფეხით მოსიარულეთა გვერდით და ამით სრულიად კანონიერი იყოს. ანალოგიურად, ხელოვნური ინტელექტის მართვის სისტემას კანონიერად შეუძლია გაიაროს მომლოდინე ფეხით მოსიარულე.

გადაწყვეტილების მიღება, გააჩეროს თუ არა ფეხით მოსიარულეს ქუჩაზე გადასასვლელი, არის მძღოლის შეხედულებისამებრ, მიუხედავად იმისა, არის თუ არა ადამიანი მძღოლი თუ AI მართვის სისტემა.

დარწმუნებული ვარ, რომ თქვენ არაერთხელ შეგხვედრიათ მსგავსი სიტუაცია. იქნებ გეჩქარებათ, არ გაჩერდეთ ფეხით მოსიარულეთა გადაკვეთაზე. სხვა შემთხვევაში, თქვენ გაქვთ საკმარისი დრო დანიშნულების ადგილამდე მისასვლელად, ამდენად, თქვენ ირჩევთ გაჩერებას და ნებას დართეთ მომლოდინე, გაიაროს ქუჩაში. თქვენი განწყობა და კონკრეტული გარემოებები კარნახობს, თუ რას აირჩევთ.

არაფერი ამ სცენარში არ ჩანს უჩვეულო ან შემაშფოთებელი.

სანამ განვიხილავ AI მხარეებს, შეიძლება დაგაინტერესოთ იცოდეთ, რომ დისკრეციის ეს განსაკუთრებული ასპექტი, რომელიც საშუალებას აძლევს ფეხით მოსიარულეებს ქუჩის გადაკვეთაზე, კარგად არის შესწავლილი. მკვლევარებმა დაადგინეს, რომ ზოგჯერ მძღოლის მიერ გაკეთებული არჩევანი შეიძლება დამოკიდებული იყოს რასობრივ ან გენდერულ მიკერძოებაზე. ადამიანმა მძღოლმა შეიძლება შეაფასოს მომლოდინე ფეხით მოსიარულე და დაუშვას ადამიანს გადაკვეთა ისე, როგორც ჩანს, მძღოლის თანდაყოლილი მიკერძოების საფუძველზე. ხვდება თუ არა მძღოლი ამას, ეს მუდმივი კვლევის საკითხია. იხილეთ ჩემი გაშუქება აქ ეს ბმული აქ.

მე შევქმენი საფუძველი ჩვენი შესწავლისთვის, თუ რა შეიძლება გააკეთოს AI მართვის სისტემამ ქვეითთა ​​გადასასვლელის სიტუაციაში.

ხელოვნური ინტელექტის ჩვეულებრივი პროგრამირება შეიძლება გამოიწვიოს, რომ ხელოვნური ინტელექტის შემქმნელებმა გადაწყვიტონ, რომ AI მართვის სისტემა ყოველთვის გაჩერდეს და ფეხით მოსიარულეებს გადაკვეთონ. როგორც ჩანს, ეს არის ეთიკურად სათანადო ან სამოქალაქო საქმე. თვითმართვადი მანქანა აჩერებს მომლოდინე ადამიანს, რომელსაც უნდა ქუჩის გადაკვეთა.

შემიძლია ვთქვა, რომ თვითმართვადი მანქანის მგზავრი რომ იყო და ხელოვნური ინტელექტი ყოველთვის გაჩერდა ფეხით მოსიარულეთათვის, რომელიც ელოდება, შეიძლება გაგიჟდე. თქვენი სწრაფი მოგზაურობა სასურსათო მაღაზიაში შეიძლება ბევრჯერ დაჭირდეს. დაიმახსოვრე ისიც, რომ ჩვენ არ ვგულისხმობთ ფეხით მოსიარულეებს, რომლებსაც აქვთ გადაკვეთის ერთგული კანონიერი უფლება, რადგან ამ შემთხვევებს, სავარაუდოდ, უკვე ექნება AI დაპროგრამებული, რომ ყოველთვის დაუშვას. ჩვენ მხოლოდ დისკრეციულ გარემოებებზე ვამახვილებთ ყურადღებას.

ამ დეკლარაციას უფრო მეტი უარყოფითი მხარე აქვს, რომელიც ყოველთვის ჩერდება, რათა დისკრეციული ფეხით მოსიარულეებს ქუჩაზე გადაკვეთონ.

მათ, ვინც აწარმოებს და აწარმოებს AI-ზე დაფუძნებულ თვითმართველ მანქანებს, სურთ, რომ ხალხი მათში იმოძრაოს. იდეა არის ის, რომ თვითმართვადი მანქანების არსებობით, ჩვენ შეგვიძლია შევამციროთ ყოველწლიური ავტოავარიების რაოდენობა, რომელიც ამჟამად იწვევს წლიურად 40,000 სიკვდილს და 2.5 მილიონ დაშავებას მხოლოდ შეერთებულ შტატებში, იხილეთ ჩემი სტატისტიკის კოლექცია: ეს ბმული აქ. გარდა ამ პატივცემული საზოგადოების მიზნისა, ავტომწარმოებლები და თვითმართვადი ტექნოლოგიების მწარმოებლები იმედოვნებენ, რომ გამოიმუშავებენ ფულს თავიანთი ხელოვნური ინტელექტის შემოქმედებით, ბუნებრივია, ასეც.

მე ამას იმიტომ ვახსენებ, რომ ადამიანებმა შეიძლება გადაწყვიტონ არ იარონ თვითმართვადი მანქანებით, თუ ხელოვნური ინტელექტის მართვის სისტემა აკეთებს ამას ზედმეტად საბოლოოდ გადაიდო მოგზაურობები. ნებისმიერი ყოველდღიური ადამიანი იფიქრებს, რომ სანაცვლოდ, ადამიანი მძღოლის არჩევით, მოგზაურობა შეიძლება უფრო სწრაფი იყოს და, შესაბამისად, მოგზაურობისთვის ხელოვნური ინტელექტის თვითმართვადი მანქანის არჩევა შეიძლება ძალიან დაბალი იყოს მათი არჩევანის სიაში. ეს თავის მხრივ ნიშნავს, რომ ჩვენ არ გვექნებოდა სასურველ შემცირება ავტოავარიების და ასევე, რომ მწარმოებლები პოტენციურად თვლიდნენ, რომ მათი საქონელი წამგებიანი იქნება.

არგუმენტების ამ ნაკრებიდან გამომდინარე, შეიძლება გაგიჩნდეთ ფიქრი, რომ ხელოვნური ინტელექტი არასოდეს უნდა გაჩერდეს, როდესაც ხდება ფეხით მოსიარულეთა დისკრეციული მაგალითი, რომელსაც სურს ქუჩის გადაკვეთა. უბრალოდ დაპროგრამეთ ხელოვნური ინტელექტის მართვის სისტემა, რომ გააკეთოს ის, რაც მკაცრად კანონიერია. თუ არ არსებობს კანონიერი მოთხოვნა საცალფეხო გადასასვლელის გაშვების შესახებ, მაშინ გაუმართლა ამ მომლოდინე ქვეითს. შესაძლოა, ადამიანმა უნდა გაიაროს გზა გადასასვლელი პუნქტისკენ, რომელიც საშუალებას მისცემს AI-ის მიერ თვითმართვადი მანქანის გაჩერების ლეგალურ საფუძველს.

წარმოგიდგენიათ ამაზე აჟიოტაჟი?

თქვენს ქალაქში ან ქალაქში ხალხი თანდათან აღმოაჩენს, რომ ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანები არასოდეს დაუშვებენ გონივრული ფეხით მოსიარულეებს გადაკვეთის საშუალებას. ეს დაწყევლილი აღმაშფოთებელი AI! თითქოს ხელოვნური ხელოვნური ინტელექტი ცხვირს უშვებს ადამიანებს. არაკეთილსინდისიერი ავტომატიზაციის ბოროტად აღზრდილი თავხედი. ამის გარდა, წარმოიდგინეთ, რომ არსებობს დოკუმენტირებული გარემოებები, როდესაც ფეხით მოსიარულეებს უიმედოდ სჭირდებათ გადაკვეთა და AI საერთოდ არ გაჩერდება.

იმავდროულად, მძღოლები ნებით ჩერდებოდნენ, რათა ეს „სასოწარკვეთილი“ ხალხი უსაფრთხოდ გადასულიყო ქუჩაში.

ამ აღშფოთების შედეგად, ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანები აღარ არის მისასალმებელი ქუჩებში და თქვენი ტერიტორიის გზებზე. უქმდება ნებართვები, რომლებიც გაცემული იყო ქალაქის ხელმძღვანელების მიერ. ჩვენი გზებიდან უმადური ბრუტების მოშორება ვოკალური ხმაურია.

კარგი, როგორც ჩანს, კლდესა და რთულ ადგილს შორის ვართ. AI ყოველთვის არ უნდა დაუშვას ფეხით მოსიარულეთა გადაკვეთა (ყოველთვის არ გაჩერდეს). ხელოვნურმა ინტელექტუალმა ყოველთვის არ უნდა შეაფერხოს დისკრეციული ფეხით მოსიარულეთა გადაკვეთა (ყოველთვის ნუ გაადიდებთ წარსულს). Რა უნდა ვქნა?

აშკარა პასუხი იქნება ხელოვნური ინტელექტის დაპროგრამება, რომ იმოქმედოს დისკრეციული გზით.

გთხოვ, განიხილო ADM (ალგორითმული გადაწყვეტილების მიღება), რომლისგანაც ეს უნდა შედგებოდეს. შეეცდება თუ არა ხელოვნური ინტელექტი გამოავლინოს ფეხით მოსიარულეთა ბუნება და გამოიყენოს შესამჩნევი მახასიათებლები, როგორც საფუძველი გადაწყვეტილების მისაღებად, გააჩეროს თუ არა თვითმართვადი მანქანა? შესაძლოა, ვინმე უფროსმა არჩევის გზაა. მაგრამ არის ეს ასაკობრივი დისკრიმინაცია? Და ასე შემდეგ.

შესაძლოა, ხელოვნური ინტელექტის მართვის სისტემა დაპროგრამებულია ისე, რომ გაჩერდეს დღის საათებში და არასოდეს გაჩერდეს ღამის საათებში. ლოგიკა შესაძლოა იმაში მდგომარეობს, რომ თვითმართვადი მანქანის მძღოლებისთვის უფრო უსაფრთხოდ ითვლება, რომ ავტონომიური მანქანა ჩერდება დღისით, მაგრამ არა საღამოს უფრო ხანმოკლე საათებში.

ეს შეიძლება გონივრულად ჟღერს. პრობლემის ნაწილი იქნება ფეხით მოსიარულეთა მოლოდინი. აი რას ვგულისხმობ. ფეხით მოსიარულეები ხედავენ ხელოვნური ინტელექტის მქონე მანქანებს, რომლებიც ჩერდებიან დისკრეციული გადასასვლელებისთვის, რაც ხდება დღის შუქზე. ფეხით მოსიარულეებმა არ იციან, რა კრიტერიუმებს იყენებს ხელოვნური ინტელექტი, რათა გადაწყვიტოს გაჩერება. ზოგიერთი ფეხით მოსიარულეთა ვარაუდი არის, რომ AI ყოველთვის გაჩერდება (არ გააცნობიეროს, რომ დღის სინათლე და ღამის ჭეშმარიტი განმსაზღვრელია). შედეგად, ის ფეხით მოსიარულეები, რომლებსაც სჯერათ, რომ თვითმართვადი მანქანა ყოველთვის გაჩერდება, ისარგებლებენ შანსებით და დაიწყებენ გადაკვეთას, როდესაც ხელოვნური ინტელექტის მართვის სისტემა საერთოდ არ აპირებს გაჩერებას (რაც AI სავარაუდოდ გაჩერდება, თუ ქვეითად მოსიარულე ქუჩაში შედის, თუმცა ეს შეიძლება იყოს სახიფათო და ფიზიკამ შესაძლოა ხელი შეუშალოს AI-ს არ გააჩეროს თვითმართვადი მანქანა არასაკმარისი დროით, რათა თავიდან აიცილოს ერთი შეხედვით „შემცდარ“ ფეხით მოსიარულეზე დარტყმა).

დავუშვათ, რომ ხელოვნური ინტელექტის დეველოპერები და ფირმები, რომლებიც აერთიანებენ და ამუშავებენ თვითმართველ მანქანებს თქვენს ქალაქში, არ არიან დარწმუნებულნი, როგორ მიიღონ ხელოვნური ინტელექტის განახლება ამ საკითხში.

ისინი გადაწყვეტენ AI-ის „გაწვრთნას“ მთელი ლოკალიდან შეგროვებულ მონაცემებზე. ირკვევა, რომ არსებობს უამრავი ქალაქში დამონტაჟებული კამერა, რომლებმაც გადაიღეს მანქანების მოსვლა და გასვლა დაბაში. ეს მონაცემები აჩვენებს ბევრ შემთხვევას, როდესაც ფეხით მოსიარულეები ცდილობდნენ ქუჩის გადაკვეთას დისკრეციული წესით. ყველა მონაცემი იკვებება მანქანური სწავლისა და ღრმა სწავლის სისტემაში, რათა გამოიტანოს ის, რაც ჩვეულებრივად ითვლება ამ იურისდიქციაში.

ვამზადებთ თუ არა ხელოვნურ ინტელექტს, რომ გააკეთოს ის, რასაც ადგილობრივი ეთიკური ზნე-ჩვეულებები აჩვენებს?

სხვა სიტყვებით რომ ვთქვათ, თუ მოცემულ ქალაქს ექნება ადგილობრივი კულტურული კულტურა, რომელიც უფრო მეტად ცდილობს გაჩერებას და ნებაყოფლობით ფეხით მოსიარულეებს გადაკვეთოს, რაც დასტურდება მძღოლის ქმედებებით, ML/DL პოტენციურად აირჩევს გამოთვლით ამ შაბლონს. ხელოვნური ინტელექტის უნარ-ჩვევები შემდეგ გაწვრთნილი იქნებიან ანალოგიურად. მეორე უკიდურესობაში, თუ ადამიანების მძღოლები იშვიათად ჩერდებიან, AI პოტენციურად მიიღებს ამ „გაკვეთილს“ მონაცემების გამოთვლითი ანალიზისგან. ხელოვნური ინტელექტი ისე მოიქცევა, როგორც ადამიანები.

მტკიცება არის ის, რომ ადამიანთა ეთიკური ქცევები აღირიცხება მონაცემებში და რომ ხელოვნური ინტელექტი აპირებს იმავე ეთიკურ პრინციპებს გამოთვლითი ანალიზით გაავრცელოს. ეთიკოსი ამას ზოგადად აღწერს, როგორც ეთიკისადმი კომუნიტარულ მიდგომას. საზოგადოების საერთო ღირებულებები აისახება საზოგადოების ძალისხმევაში.

ეს შეიძლება ჩანდეს, როგორც მოდური გამოსავალი.

სამწუხაროდ, ბევრი ხარვეზია.

ერთი, ალბათ, აშკარა პრობლემა ის არის, რომ ადამიანთა მძღოლები შესაძლოა უკვე ავლენდნენ რაიმე სახის მიკერძოებას, გააჩერონ ან არ გააჩერონ (როგორც ზემოთ აღინიშნა). AI მაშინ იქნება ამ მიკერძოების კოპირება. გვინდა რომ ასე იყოს?

განვიხილოთ სხვა პრობლემა. დავუშვათ, რომ ადამიანები მძღოლები არ ეთანხმებიან იმას, თუ როგორ მუშაობს AI თვითმართვადი მანქანები. მხოლოდ იმის გამო, რომ მძღოლები, ვთქვათ, მზად იყვნენ გაჩერებულიყვნენ, ეს შეიძლება თანაბრად არ იყოს გათვალისწინებული თვითმართვადი მანქანებისთვის. შესაძლოა, ადამიანები მძღოლები გააღიზიანოს ხელოვნური ინტელექტის თვითმართვადი მანქანებით, რომლებიც ჩერდებიან გონივრული ფეხით მოსიარულეებისთვის, მიუხედავად იმისა, რომ იგივე ხდება მძღოლების ხელით, მაგრამ ეს არ აწუხებს ადამიანებს.

გარდა იმისა, რომ შემაშფოთებელია, თქვენ ასევე შეგიძლიათ მოიფიქროთ იმის შესაძლებლობა, რომ ადამიანმა მძღოლებმა უნებლიეთ უკან დაიხია თვითმართვადი მანქანები. თუ ადამიანი მძღოლი არ ელოდა თვითმართვადი მანქანის გაჩერებას ფეხით მოსიარულეებისთვის, და თუ ადამიანი მართავდა მანქანას უშუალოდ თვითმართვადი მანქანის უკან, შეიძლება წარმოიშვას მოლოდინების საშინელი შეუსაბამობა. ხელოვნური ინტელექტის მართვის სისტემა აჩერებს თვითმართველ მანქანას. მძღოლი არ ელოდა ამ მოქმედებას. მძღოლი თვითმართველ მანქანას ეჯახება. მოჰყვება დაზიანებები და შესაძლოა ფატალური შემთხვევები.

მიზანმიმართულად აღვნიშნე ადამიანის ზიანის შანსები.

ფეხით მოსიარულეები, რომლებიც ქუჩას გადაკვეთენ, ერთი შეხედვით შეიძლება ტრივიალურ კითხვად მოგეჩვენოთ. როგორც ჩანს, ვერავინ დაზარალდება, რომელი მეთოდითაც აირჩევს ხელოვნური ინტელექტი, რომ შეაჩეროს ან არ შეაჩეროს. არასწორია! არსებობს ქვეითის გადაცემის შანსი. არსებობს შანსი, რომ ადამიანის მიერ მართული მანქანა დაეჯახა თვითმართველ მანქანას. ადამიანის მართული მანქანის მძღოლი და მგზავრები შეიძლება დაშავდნენ. თვითმართვადი მანქანაში მყოფი მხედრები შეიძლება დაზარალდნენ. ადამიანთა შესაძლო ზიანის დამატებითი ცვლილებები ადვილად არის გათვალისწინებული.

დასკვნა

ადამიანური ზიანის შესახებ საუბრისას, მე მოგცემთ სხვა რამეს, რათა თქვენი გონება აურიოთ ამ ეთიკური ხელოვნური ინტელექტის საიდუმლოებაზე.

ახალი ამბების სიუჟეტში გავრცელდა ინფორმაცია, რომ მამაკაცი მანქანით გადაადგილდებოდა გზაჯვარედინზე და მწვანე შუქი ჰქონდა ამისთვის. კიდევ ერთმა ადამიანმა მანქანამ აირჩია გადაკვეთის წითელ შუქზე გაშვება და უკანონოდ და დაუცველად შეუფერხებლად შევიდა გზაჯვარედინზე და დაემუქრა კანონიერ მანქანას დარტყმით.

მძღოლმა ჟურნალისტებს განუცხადა, რომ მას არჩევანი უნდა გაეკეთებინა დარტყმას შორის, ან შეძლებდა მანქანის გადახვევას, იმედია, რომ არ დაეჯახა, მაგრამ იქვე ახლოს ფეხით მოსიარულეები იყვნენ და გადახვევამ შეიძლება საფრთხე შეუქმნას ამ ადამიანებს. Რას გააკეთებდით? თქვენ შეგიძლიათ აირჩიოთ დარტყმა ამ მოსალოდნელ მანქანაში და, შესაძლოა, ზღაპრის მოყოლა პირდაპირ ეთერში. ან შეგიძლიათ სცადოთ თავი აარიდოთ დარტყმას, მაგრამ იმავდროულად, შესაძლოა უდანაშაულო ფეხით მოსიარულეებს დაეჯახათ.

ჩვენი ყოველდღიური ტარების უმეტესი ნაწილი არის ისეთი ეთიკურად უზარმაზარი და მყისიერი გადაწყვეტილებების მიღება. მე განვიხილე ეს ვრცლად, ამ სიცოცხლისა და სიკვდილის მართვის გადაწყვეტილებების დაკავშირებასთან ერთად ცნობილ ან ზოგიერთი, ვთქვათ, სამარცხვინო ტროლეის პრობლემასთან, იხილეთ ჩემი დაწვრილებით ბმული აქ.

შეცვალეთ ადამიანის მძღოლი ამ სცენარში AI მართვის სისტემით.

რისი გაკეთება გსურთ AI-მ?

ეს დამაბნეველი კითხვაა.

ერთ-ერთი მიდგომაა AI-ის დაპროგრამება ისე, რომ მტკიცედ შეასრულოს უშუალოდ მამოძრავებელი მოქმედება, ამდენად, სხვა ვარიანტების გაანგარიშებითაც კი არ განიხილება, როგორიცაა სავარაუდო ავარიისგან თავის დაღწევა. ველოდები, რომ თვითმართვადი მანქანების მხედრები განაწყენდებიან იმის გარკვევაში, რომ ხელოვნური ინტელექტი არ იყო შექმნილი დარტყმის მიღების გარდა. შეიძლება ველოდოთ სასამართლო პროცესებს და აურზაურს.

კიდევ ერთი მიდგომა იქნება ხელოვნური ინტელექტის დაპროგრამება, რათა განიხილოს სხვადასხვა შესაძლებლობები. ვინ აყალიბებს ADM-ს, რომელიც წყვეტს რა გზით წავა AI მართვის სისტემა? როგორც ჩანს, ხელოვნური ინტელექტის შემქმნელებს დამოუკიდებლად ასეთი მნიშვნელოვანი გადაწყვეტილებების მიღების უფლება, სავსეა უხვი შეშფოთებით.

თქვენ შეგიძლიათ სცადოთ AI-ს „ისწავლოს“ ადამიანის მართვის მონაცემებიდან, რომლებიც შეგროვებულია ყოველდღიური მოძრაობის სიტუაციებიდან. ეს ჰგავს ფეხით მოსიარულეთა გადასასვლელის დილემას და ადრე შემოთავაზებულ იდეას აწყობილი მონაცემების გამოყენებით ხელოვნური ინტელექტის შეგროვების მიზნით, რაც არ უნდა ჩანდეს ადგილობრივი ეთიკური ზნე. ამის შესახებ უამრავი გაფრთხილებაა, მაგალითად, ML/DL აღმოჩენილი შაბლონები შესაფერისია თუ არა და ა.შ.

მე ასევე გავაფრთხილე, რომ არსებობს შესაძლებლობა, რომ ხელოვნური ინტელექტი გამოავლინოს შესაძლოა არაეთიკური ქცევა, ეს დამოკიდებულია ეთიკურ მორალზე. მაგალითად, დავუშვათ, რომ ხელოვნური ინტელექტი როგორღაც დაეშვა გამოთვლით შაბლონზე, რათა ყოველთვის დაუმიზნოს ფეხით მოსიარულეებს, როცა სხვა მანქანა ემუქრება თვითმართველ მანქანას დარტყმით.

უი, გაუფრთხილდით ფეხით მოსიარულეებს, თქვენ გახდებით მზა სამიზნეები.

დროა დავხუროთ დისკუსია და გავაკეთოთ ეს გამამხნევებელი საბოლოო ფიქრით.

თქვენ ალბათ იცით, რომ ისააკ ასიმოვმა შემოგვთავაზა თავისი "რობოტიკის სამი კანონი" 1950 წელს და ჩვენ დღემდე ვგიჟდებით ამ გამოცხადებული წესებით. მიუხედავად იმისა, რომ წესები, როგორც ჩანს, ადვილად შესასრულებელია, მაგალითად, რომ ხელოვნური ინტელექტის სისტემა ან რობოტი არ უნდა ავნოს ადამიანს და არც დაუშვას ადამიანს ზიანი მიაყენოს, არსებობს მრავალი მნიშვნელოვანი ნიუანსი, რომელიც ამ რთულს და ზოგჯერ გაუსაძლისს ხდის, იხილეთ ჩემი ანალიზი. ზე ბმული აქ.

ნებისმიერ შემთხვევაში, აქ არის კიდევ ერთი რამ, რითაც ასიმოვი ასევე ცნობილია, თუმცა ნაკლებად: „არასოდეს მისცეთ უფლება ზნეობის გრძნობას შეაფერხოს სწორის კეთებაში“.

ეთიკური ხელოვნური ინტელექტისთვის, რომლის შემუშავების იმედი გვაქვს, უნდა გვახსოვდეს, რომ ხელოვნური ინტელექტის ეთიკა შეიძლება არ იყოს ის, რასაც ველოდით და რომ AI-ს მაინც მოუწევს გააკეთოს ის, რაც სწორია. ასიმოვმა კარგად თქვა. დიდი ხნით ადრე, არისტოტელეც თითქოს მსგავს განცდებს ფიქრობდა.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- საქმე-აი-თ-ავტონომიურ-თვითმართავ-მანქანებში/