აი, რატომ ამტკიცებს ხელოვნური ინტელექტის ეთიკა, რომ ადამიანზე ორიენტირებული AI არის გადამწყვეტი მნიშვნელობა ჩვენი AI სიმბიოზური არსებობისთვის, როგორიცაა ავტონომიური თვითმართვადი მანქანების გამოჩენა

თქვენ შეიძლება გსმენიათ ან გინახავთ, რომ სამყარო უნდა იყოს ფოკუსირებული ადამიანზე ორიენტირებულ AI-ზე (HCAI).

Რა არის ეს? რატომ გვჭირდება ის? ეს გრძელვადიანია თუ უბრალოდ მოდა? როგორ მუშაობს ზუსტად? სხვა მსგავსი კითხვების მთელი რიგი ჩვეულებრივ ჩნდება იმ კითხვებიდან, რომლებიც არ იცნობენ ადამიანზე ორიენტირებული ხელოვნური ხელოვნური ინტელექტის ბუნებასა და არსს.

მოდით გავხსნათ საქმე და გავასწოროთ ამბავი.

გარდა ამისა, მე მოგცემთ რამდენიმე სასარგებლო მაგალითს იმის შესახებ, თუ რამდენად მნიშვნელოვანია HCAI. ეს მაგალითები დაფუძნებული იქნება AI-ზე დაფუძნებული ავტონომიური მანქანების გაჩენაზე, როგორიცაა უახლესი და საუკეთესო თვითმართვადი მანქანები, რომლებიც იწყებენ განთავსებას ჩვენს საჯარო გზებზე.

მოემზადეთ საინტერესო და ინფორმაციული მოგზაურობისთვის.

ამ დისკუსიის დაწყების ლოგიკური გზაა საუბარი იმაზე, თუ რა უბიძგა ადამიანზე ორიენტირებულ მოძრაობას. იინის ცოდნა აუცილებელია იანგის გასაგებად, როგორც ეს იყო. გთხოვთ გაითვალისწინოთ, რომ მე ჯერ არ ვაპირებ AI-ის ხსენებას, სანამ არ დავადგინეთ, რას ნიშნავს იყო ადამიანზე ორიენტირებული. მოკლედ ამოიღეთ ხელოვნური ინტელექტის თემა გონებიდან და ჩვენ ხელახლა გამოვაჩენთ AI-ს, როცა დრო დადგება.

სავარაუდო ბეტ როიალი ხდება შორის, რასაც ზოგიერთი აღწერს, როგორც ა ტექნოლოგიაზე ორიენტირებული პერსპექტივა კონტრასტულის წინააღმდეგ ადამიანზე ორიენტირებული თვალსაზრისი, როდესაც საქმე ეხება ახალი ტექნოლოგიების შემუშავებას.

თქვენ, ალბათ, არ იცით, მძაფრი რწმენა არის ის, რომ ჩვენ ძალიან დიდი ხნის განმავლობაში ვიყავით დაკავებულნი ტექნოლოგიაზე ორიენტირებული პრინციპებით. როდესაც რაიმე ახალი ტექნოლოგიური ინოვაცია იყო შემუშავებული, ყურადღება გამახვილდა ტექნიკური ასპექტებისკენ. ზოგიერთი ამტკიცებს, რომ ჩვენ ხშირად ვეშვებით ტექნოლოგიურ რბოლაში, რათა კარს მივაღწიოთ უახლესი ტექნოლოგიით, მიუხედავად იმისა, თუ როგორ მუშაობს ეს და როგორ რეაგირებენ ადამიანები მასზე.

არსებობს უამრავი სილიკონის ველის ტროპი, რომელიც ჯდება ამ აზროვნებაში. მარცხი სწრაფად, მარცხი ხშირად ერთ-ერთი ტიპიური გამოთქმაა. მეორე ყალბია, სანამ არ გააკეთებ. გრანდიოზული იდეა არის ის, რომ თქვენ უბრალოდ აწარმოებთ ჟიურის მიერ შეძლებისდაგვარად რაიმე სახის კონტრაქციას და შემდეგ დაიწყებთ მის გაყიდვას ან აიძულებთ ხალხს გამოიყენონ იგი. რა თქმა უნდა, გიჟურ კომბინაციას შეიძლება ჰქონდეს უხეში კიდეები. დიახ, ხალხი შეიძლება დაბნეული იყოს გაჯეტით ან დაშავდეს, მაგრამ მაინც პირველობა ტექნიკოსების დიდ ქებად ითვლება და ასე რომ, ტორპედოები და მთელი ორთქლი წინ მივდივართ.

ასეთი ტექნიკური პირველი მიდგომის ძირითადი საშიშროება არის ის, რომ განტოლების ადამიანური მხარე არასაკმარისია ან მთლიანად უგულებელყოფილია. იმის მაგივრად, რომ საზოგადოებას ახალი ტექნოლოგიები უხეშად გადაეგდოთ ხელში, სულ უფრო ხმამაღლა გაისმა მოწოდება ღრმად ამოისუნთქოთ და პირველ რიგში დავრწმუნდეთ, რომ ჩანაფიქრი თავსებადია ადამიანებთან. შეუძლიათ თუ არა ადამიანებს ადეკვატურად გამოიყენონ მოწყობილობა და ამის გაკეთება ზიანის მიყენების გარეშე? არის თუ არა ახალი დახვეწილი ნივთი მარტივი გამოსაყენებლად ან თითქმის შეუძლებელია მისი გარკვევა? Და ასე შემდეგ.

თუ ჩვენ მართლაც ვიყავით მოჩვენებითი ტექნოლოგიებზე ორიენტირებული, მაშინ დროა გადავიდეთ აზროვნების ახალ რეჟიმში, კერძოდ გავხდეთ ადამიანზე ორიენტირებული. ტექნიკა არ შეიძლება იყოს აღტაცების ერთადერთი განმსაზღვრელი. იმის ნაცვლად, რომ ტექნოლოგია არის ყველაფრის დასასრული, საკითხი იმის შესახებ, შეუძლია თუ არა ადამიანებს ტექნოლოგიის ბერკეტი და მისგან არსებითი მოგება, არის სანაქებო გამოგონებისა და მოდერნიზაციის ნამდვილი ნიშანი. იმედი იყო, რომ გრავიტაციის ადამიანზე ორიენტირებულ მოსაზრებებზე გადატანით, ტექნოლოგიებზე ორიენტირებული კაცობრიობის ინტროსპექციის დომინანტური ნაკლებობა გამოჩნდებოდა სინათლის სანახავად. მე უფრო ღრმად განვიხილეთ აზროვნების ეს ცვლილება ხელოვნური ინტელექტის და ე.წ აკრძალული ცოდნაიხილეთ ბმული აქ.

რა თქმა უნდა, დღევანდელ სამყაროში ჩვენ გვყავს ზოგიერთი ტექნიკოსი, რომლებიც აცნობიერებენ და ითვისებენ ადამიანზე ორიენტირებული პერსპექტივას, ზოგი კი ან არ იცის ან თვლის, რომ ეს მათ არ ეხება. ამდენად, ჯერ კიდევ არსებობს უამრავი და უამრავი ტექნიკური მიმართულება, რომელიც მიზნად ისახავს წინ, როგორც ხარი დელიკატურ მინის ჭურჭლის ბუტიკში. ამაში ეჭვი არ ეპარება.

შემაშფოთებელი გამოწვევა ის არის, რომ ტექნიკურზე ორიენტირებული ზოგიერთი მცდელობა მაინც წარმატებული იქნება, ამიტომ ძნელია როგორმე მთლიანად წაშალო ან შეურაცხყო ტექნოლოგიაზე ორიენტირებული გამზირი. შედეგად, ზოგი პირდაპირ ზის ადამიანზე ორიენტირებულ ბანაკში, ზოგი კი რჩება ტექნიკურზე ორიენტირებულ ბანაკში. მუდმივი პრეტენზია არის ის, რომ არსებობს კატის კანის მოხსნის ერთზე მეტი გზა (უფს, მოძველებული ანდაზა, რომელიც საჭიროებს პენსიას).

კიდევ ერთი ცვლილება არის ის, რომ ადამიანზე ორიენტირებული ბანაკი მტკიცედ ამტკიცებს, რომ თქვენ არ სწირავთ რაიმე ტექნიკურ პუნქტს ადამიანზე ორიენტირებული მიდგომის ათვისებით. ტექნიკოსებისთვის, რომლებიც თავდაჯერებულად წარმოიდგენენ, რომ ცოცხალ კურდღლის ხვრელში ჩადიან და ადამიანზე ორიენტირებულნი ხდებიან, პასუხი არის, რომ ეს რეალურად გაზრდის მათ შანსებს, შექმნან საოცარი ტექნოლოგია. იფიქრეთ ამაზე მარტივი სიტყვებით. ტექნოლოგიას, რომელსაც არ გააჩნია ადამიანზე ორიენტირებული მოსაზრებები, ალბათ, რთული დრო ექნება ხალხის მიერ ათვისება. ტექნოლოგია, რომელიც მოიცავს და ყალიბდება ადამიანზე ორიენტირებული შეხედულებებით, სავარაუდოდ, ადვილად და ხალისით იქნება მიღებული ადამიანების მიერ.

შეგიძლიათ მიიღოთ თქვენი ნამცხვარი და მიირთვათ იგი.

ეს ხაზს უსვამს იმას, რომ შესაძლოა არ არსებობს სერიოზული განხეთქილება ტექნოლოგიაზე ორიენტირებულობასა და ადამიანზე ორიენტირებულობას შორის, იმ გაგებით, რომ არსებობს ადგილი თანაარსებობისთვის. გააკეთეთ ორივე ერთდროულად, ზოგი ამტკიცებს. აურიეთ ეს ორი ისე, რომ ისინი თანაბარი და თავსებადი იყვნენ ერთმანეთთან. უარყოფითები ამტკიცებენ, რომ თქვენ უნდა აირჩიოთ ერთი ან მეორე. ან ხარ ტექნოლოგიებზე ორიენტირებული და ადამიანზე ორიენტირებული ხარ გვერდით, ან ადამიანზე ორიენტირებული ხარ და ტექნოლოგიურზე ორიენტირებული ძაღლების სახლში ხარ.

ნებისმიერ შემთხვევაში, მოდით ავღნიშნოთ, რომ ახალი ტექნოლოგიების შემუშავებისას სერიოზულად უნდა გავითვალისწინოთ ადამიანებთან დაკავშირებული ასპექტები. და ჩვენ უნდა ვიყოთ ფრთხილად, რომ არ შევაფასოთ ადამიანთან დაკავშირებული მახასიათებლების მნიშვნელობა ახალი ტექნოლოგიების შემუშავებისას. ამის გადასაღებად მოსახერხებელი გზა არის იმის თქმა, რომ ჩვენ უნდა ვიყოთ ადამიანზე ორიენტირებული. ერთი საგანზე მეორეზე ორიენტირების იდეა ზოგჯერ დამხმარე მიმზიდველი იქნება, ზოგჯერ კი შეიძლება სამწუხარო ყურადღების გადატანა.

ჩვენ შეგვიძლია შემდეგ გამოვიკვლიოთ, თუ როგორ შეიძლება ადამიანზე ორიენტირებული ფილოსოფია ამოქმედდეს რეალურ სამყაროში პრაქტიკული თვალსაზრისით.

დავუშვათ, რომ თქვენ იწყებთ ახალი სისტემის დიზაინს და განვითარებას, რომელიც მოიცავს უახლეს და უდიდეს ტექნოლოგიას. მათ, ვინც ამზადებენ სისტემებს, დღეს ზოგადად იციან, რომ თქვენ უნდა გაითვალისწინოთ დიზაინისა და განვითარების პროცესის მთელი სასიცოცხლო ციკლი. ადრე დიდი ყურადღება ექცეოდა მხოლოდ დიზაინს, ან მხოლოდ სისტემის მშენებლობას. შედეგად, ჩვენ გვქონდა ბევრი სისტემა, რომლებიც საბოლოოდ მარცხი განიცადა, როდესაც განხორციელდა ველის გამოყოფის გამო დაშლილი და არაადეკვატური გადაცემა სისტემის შემუშავების მრავალ ურთიერთდაკავშირებულ ეტაპებზე. თქვენ უხვად გჭირდებათ თვალი ადევნოთ ბურთს სისტემის მთელი ცხოვრების ციკლის განმავლობაში.

შეიქმნა სისტემების სასიცოცხლო ციკლის სხვადასხვა მეთოდოლოგია, რათა წარმართოს მთელი სისტემის ძალისხმევა. მეთოდოლოგიები წააგავს შაბლონურ კულინარიულ წიგნებს, რომლებიც აჩვენებენ რა ზოგადი ასპექტები უნდა გაკეთდეს ძალისხმევის თითოეულ ეტაპზე. თქვენ შეგიძლიათ ხელახლა გამოიყენოთ ისინი თქვენს კონკრეტულ სისტემურ ძალისხმევაზე, როგორც შეესაბამება იმას, რასაც თქვენ ერთად აყენებთ.

ახლა ჩვენ მზად ვართ წერტილების დასაკავშირებლად. დიდი ძალისხმევა გაკეთდა სისტემის სასიცოცხლო ციკლის მეთოდოლოგიების შესაქმნელად, რომლებიც განსაკუთრებით აინტერესებთ ადამიანზე ორიენტირებული მოსაზრებების მნიშვნელობას. ეს ცნობილი გახდა, როგორც ადამიანზე ორიენტირებული დიზაინი (HCD).

სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტის (NIST) ბოლო დოკუმენტში, ადამიანზე ორიენტირებული დიზაინის საკმაოდ მოსახერხებელი განმარტება ან ახსნა შედგებოდა ამ პასაჟისგან: „HCD არის მუდმივი, განმეორებადი პროცესი, რომლის დროსაც პროექტის გუნდები შეიმუშავებენ, ამოწმებენ და მუდმივად ახდენენ დახვეწას. სისტემა, რომელიც აყენებს მომხმარებლებს პროცესის ბირთვში. ადამიანები და მათი მოთხოვნილებები წარმართავს პროცესს, ვიდრე ტექნოცენტრული ფოკუსირება. HCD მუშაობს როგორც განვითარების სხვა სასიცოცხლო ციკლების ნაწილი, მათ შორის ჩანჩქერის, სპირალური და სწრაფი მოდელები. მომხმარებელზე ორიენტირებულ დიზაინს, HCD-ს, მონაწილეობით დიზაინს, ერთობლივ დიზაინს და ღირებულებისადმი მგრძნობიარე დიზაინს, ყველა მათგანს აქვს ძირითადი მსგავსება; უმაღლეს დონეზე, ისინი ცდილობენ მიაწოდონ ადამიანებს ისეთი დიზაინი, რომელიც საბოლოოდ სასარგებლოა მათი ცხოვრებისთვის. გარდა ამისა, ასეთი მიდგომების ცენტრში ადამიანების მოთავსებით, ისინი ბუნებრივად აძლევენ საკუთარ თავს უფრო ღრმა ფოკუსირებას უფრო დიდ სოციალურ მოსაზრებებზე, როგორიცაა სამართლიანობა, მიკერძოება, ღირებულებები და ეთიკა. HCD მუშაობს უფრო გამოსაყენებელი პროდუქტების შესაქმნელად, რომლებიც დააკმაყოფილებს მისი მომხმარებლების საჭიროებებს. ეს, თავის მხრივ, ამცირებს იმის რისკს, რომ შედეგად სისტემა არასაკმარისი მიწოდების, უქმნის რისკს მომხმარებლებს, გამოიწვევს მომხმარებლის დაზიანებას ან წარუმატებლობას“ (აშშ-ს კომერციის დეპარტამენტის მიხედვით, NIST სპეციალური პუბლიკაცია 1270, 2022 წლის მარტი, ხელოვნური ინტელექტის მიკერძოების იდენტიფიცირებისა და მართვის სტანდარტისკენ ავტორთა რევა შვარცი, აპოსტოლ ვასილევი, კრისტენ გრინი, ლორი პერინე, ენდრიუ ბერტი და პატრიკ ჰოლი).

NIST ანგარიშში ასევე სათანადოდ არის ნახსენები სტანდარტიზაციის საერთაშორისო ორგანიზაციის (ISO) სტანდარტი, რომელიც მოიცავს ადამიანზე ორიენტირებულ დიზაინს (ისო 9241-210:2019-ის მიხედვით), რომლისთვისაც ეს მნიშვნელოვანი მახასიათებლები განიხილება, როგორც ძირითადი:

  • მომხმარებლების, ამოცანებისა და გარემოს აშკარა გაგება (გამოყენების კონტექსტი)
  • მომხმარებლების ჩართულობა დიზაინსა და განვითარებაში
  • დიზაინზე ორიენტირებული და დახვეწილი ადამიანზე ორიენტირებული შეფასებით
  • განმეორებითი პროცესი, რომლის დროსაც ხდება პროტოტიპის დიზაინი, ტესტირება და მოდიფიცირება
  • მიმართეთ მომხმარებლის მთელ გამოცდილებას
  • შეიმუშავეთ გუნდები, რომლებიც მოიცავს მულტიდისციპლინურ უნარებსა და პერსპექტივებს

მოდით გავაკეთოთ სწრაფი მიმოხილვა იმაზე, რაც აქამდე გავაშუქეთ.

მე მჯერა, რომ თქვენ ახლა აცნობიერებთ ამ მიმდინარე მოძრაობას ადამიანზე ორიენტირებული ტექნოლოგიებისკენ და რომ ამ მოძრაობას შეიძლება დაეხმაროთ მეთოდოლოგიების გამოყენებით, რომლებიც განზრახ შემუშავებულია მათთვის, ვისაც სურს რეალურად შექმნას ადამიანზე ორიენტირებული სისტემები.

სად ჯდება AI ამ ყველაფერში?

ადვილი პეიზაჟი.

ისინი, ვინც ამუშავებენ და ავითარებენ AI-ს, ხშირად ხვდებიან ტექნოლოგიით ზედმეტად დაკავებულობის ხანგრძლივ ხაფანგში. თქვენ შეგიძლიათ მარტივად მიუთითოთ მრავალი ხელოვნური ინტელექტის სისტემა, რომელიც აშკარად იყო ტექნოლოგიაზე ორიენტირებული და არა ადამიანზე ორიენტირებული (მე გაგიზიარებთ რამდენიმე მაგალითს თვითმართვადი მანქანების შესახებ, მომენტალურად).

ბუნებრივია, ვივარაუდებთ, რომ ხელოვნური ინტელექტის სფეროში ყოფნა აქსიომატიურად აყალიბებს ცდუნებას, იყოთ ტექნოლოგიურზე ორიენტირებული. ყველა უსწრაფესად ჩქარობს ხელოვნური ინტელექტის განვითარებას უფრო მოწინავე შესაძლებლობებზე. ზოგიერთს სჯერა, რომ, შესაძლოა, ჩვენ შევძლოთ თანამედროვე ხელოვნური ინტელექტის გადაყვანა ისეთ რეჟიმში, რომ ის შემდეგ როგორღაც გადავიდეს ერთგვარი გამოთვლითი შემეცნებითი სუპერნოვაში და აღმოჩნდეს გრძნობად (იხილეთ ჩემი გაშუქება აქ ეს ბმული აქ).

უბრალოდ გასარკვევად, ჩვენ ჯერ არ გვაქვს რაიმე მგრძნობიარე AI. ჩვენ არ ვიცით შესაძლებელია თუ არა მგრძნობიარე ხელოვნური ინტელექტის გამომუშავება და არც ის, სასწაულებრივად წარმოიქმნება თუ არა მგრძნობიარე AI. მთელი დღევანდელი ხელოვნური ინტელექტი არ არის მგრძნობიარე და ახლოსაც არ არის მგრძნობიარე. გსურთ რეკორდის დამყარება, რადგან უამრავი ხმაურიანი სათაურია, რომელიც გვაფიქრებინებს, რომ ან გვაქვს მგრძნობიარე ხელოვნური ინტელექტი, ან მის ქონაზე ვართ. Ასე არა.

დავუბრუნდეთ ადამიანზე ორიენტირებულ დიზაინზე ფოკუსირებას, არსი ის არის, რომ უხვად აქვს აზრი ცდას და აიძულოთ ხელოვნური ინტელექტის შემქმნელი ადამიანზე ორიენტირებული პერსპექტივისკენ. მიოპიური ტექნიკური ინტელექტის ნაცვლად, გონივრული და სრულიად მომგებიანი ჩანდა ადამიანზე ორიენტირებული ხელოვნური ინტელექტის შექმნა. ეს არის იგივე მკაცრი იდეა, რომელიც, როგორც ამბობენ, გამოიყენება ნებისმიერი სახის ტექნოლოგიაზე.

ჩვენ ასევე შეგვიძლია გამოვიყენოთ ადამიანზე ორიენტირებული ეს ამაღლებული პრინციპები AI სისტემებზე.

ამით წარმოიშვა სფერო, რომელიც ცნობილია როგორც ადამიანზე ორიენტირებული AI, ხშირად შემოკლებით HCAI ან ხანდახან შემოკლებულია HAI-ში. აქ არის ლაკონური გზა HCAI-ს აღწერისთვის: ”ადამიანზე ორიენტირებული AI (HCAI) არის სტიპენდიის განვითარებადი სფერო, რომელიც ახდენს HCD-ს ხელახლა კონცეპტუალიზაციას AI-ს კონტექსტში, უზრუნველყოფს ადამიანზე ორიენტირებული AI დიზაინის მეტაფორებს და შემოთავაზებულ მმართველობის სტრუქტურებს სანდო, უსაფრთხო და სანდო შესამუშავებლად. ხელოვნური ინტელექტის სისტემები“ (NIST მოხსენების მიხედვით, რომელიც ადრე იყო ციტირებული).

HCAI არის AI და HCD-ის შერწყმა.

ეს შეიძლება გარკვეულწილად იდუმალი და ზედმეტად გაბერილი ჩანდეს აბრევიატურებით. გაფართოებული ვერსია იქნება იმის თქმა, რომ ადამიანზე ორიენტირებული AI არის ხელოვნური ინტელექტისა და ადამიანზე ორიენტირებული დიზაინის პრინციპების შერწყმა. ჩვენ გვინდა გადავუხვიოთ ტენდენციიდან, რომ შევქმნათ ხელოვნური ინტელექტი დაფუძნებული მხოლოდ ტექნოლოგიაზე ორიენტირებულ პრინციპებზე და ამის ნაცვლად წავახალისოთ ადამიანზე ორიენტირებული უპირატესობა.

ახლა თქვენ იცით, რა არის HCAI. ჩვენ უნდა გადავიდეთ უწინდელ კითხვაზე.

შეგვიძლია მივიღოთ ხელოვნური ინტელექტის დეველოპერები და მათი კომპანიის ლიდერები, მიიღონ ადამიანზე ორიენტირებული AI მეთოდები?

შეიძლება კი, შეიძლება არა.

შეგახსენებთ, რომ მე ადრე აღვნიშნე, რომ ყველა არ არის აუცილებელი ზოგადად ადამიანზე ორიენტირებული ფოკუსის თანმხლები. იგივე შეიძლება ითქვას ხელოვნური ინტელექტის სფეროში ადამიანზე ორიენტირებულის კონკრეტულ ჩართვაზე. ზოგი არ ემორჩილება, რადგან მათ არ იციან რა არის HCAI. სხვები გადახედავენ HCAI-ს და გადაწყვეტენ, რომ ურჩევნიათ გააგრძელონ ის, რასაც უკვე აკეთებენ. თქვენ ასევე გყავთ ცინიკოსები, რომლებიც ცდილობენ შეურაცხყოფა მიაყენონ ადამიანზე ორიენტირებული ხელოვნური ინტელექტის, როგორც ერთ-ერთი იმ მგრძნობიარე მიდგომას, რომელიც სიამოვნებას ანიჭებს. ეს ხშირად მიმართავს იმ სრულტექნოლოგიურ ბიტებსა და ბაიტებს, რომლებიც ამჯობინებენ ტექნოლოგიურად გაჟღენთილი იყვნენ და არ გაუმკლავდნენ იმას, რასაც ისინი ზედმეტ საკითხებად თვლიან.

ნება მომეცით ერთი წუთით დავადგინო, რატომ იძენს ადამიანზე ორიენტირებული AI (HCAI) ძალას და ხდება ნებისმიერი საჩვენებელი AI ძალისხმევის მნიშვნელოვანი ნაწილი.

შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი ვრცელი გაშუქება შეგიძლიათ იხილოთ აქ ეს ბმული აქ მდე ეს ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

თუ თქვენ, ალბათ, ყურადღებით ადევნებდით თვალს, როდესაც მე მივაწოდე ადამიანზე ორიენტირებული დიზაინის (HCD) განმარტება ან ახსნა, თქვენ შეიძლება ყურადღებით დააკვირდეთ ამ წინადადებას NIST ამონაწერში: „უფრო მეტიც, ადამიანების მოთავსებით ასეთი მიდგომების ცენტრში, ისინი ბუნებრივად. მიეცით თავი უფრო ღრმა ფოკუსირებას უფრო დიდ სოციალურ მოსაზრებებზე, როგორიცაა სამართლიანობა, მიკერძოება, ღირებულებები და ეთიკა. ამრიგად, ადამიანზე ორიენტირებული ხელოვნური ინტელექტის შემთხვევაში, ჩვენ შეგვიძლია დავეხმაროთ ხელოვნური ინტელექტის ეთიკისა და ეთიკური ხელოვნური ინტელექტის შეტანას AI დიზაინისა და განვითარების პროცესში, გულმოდგინედ მიღებით HCAI, როგორც მეთოდოლოგია, რომელიც ღირს AI სისტემებისთვის.

თქვენ შეგიძლიათ გარკვეულწილად დამაჯერებლად ამტკიცებდეთ, რომ ბევრი AI ცუდად ეს იყო უნებლიე, შესაძლოა მომხდარიყო ხელოვნური ინტელექტის შემქმნელებისა და მათი კომპანიის ლიდერების გამო, რომლებიც არ იყენებდნენ HCAI მიდგომას. ეს რომ გაეკეთებინათ, იზრდება შანსები, რომ ყურადღებით განიხილავდნენ ეთიკური ხელოვნური ინტელექტის ელემენტებს და შეიმუშავებდნენ AI-ს ეთიკურად სათანადოდ. მე შემიძლია დავამატო, რომ ეს გონივრულად გვთავაზობს ღირებულ ორს იმით, რომ თუ ასე შემუშავებული AI ერთი შეხედვით ეთიკურად გამართლებულია, დიდია იმის შანსი, რომ ფირმა და მისი AI დეველოპერები თავიდან აიცილონ თავიანთი ხელოვნური ინტელექტის გადაკვეთა უკანონო ქმედებებში. ეს საკმაოდ შესამჩნევი სარგებელია, რადგან ხელოვნური ინტელექტი, რომელიც ცუდ მდგომარეობაშია, სავარაუდოდ სარჩელს შეიტანს შემქმნელების წინააღმდეგ და შესაძლოა სისხლისსამართლებრივი დევნაც კი მოიცავდეს (იხილეთ ჩემი ანალიზი აქ ბმული აქ სისხლის სამართლის პასუხისმგებლობის შესახებ ცუდი მსახიობი AI).

მოდით, მოკლედ განვიხილოთ ეთიკური ხელოვნური ინტელექტის ზოგიერთი ძირითადი პრინციპი, რათა ილუსტრაციული იყოს ის, თუ რა უნდა იყოს ადამიანზე ორიენტირებული ან HCAI ფოკუსირება ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესების და ოპერაციული მეთოდების სათანადო გაგებას, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიებით, მონაცემთა წყაროებით, დიზაინის პროცედურებისა და დოკუმენტაციის ჩათვლით.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. გთხოვთ გაითვალისწინოთ, რომ სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა. რისთვისაც მთელმა სოფელმა უნდა გაითვალისწინოს ხელოვნური ინტელექტის ეთიკის შესახებ.

იმის გასაგებად, თუ რას შეიძლება შეიცავდეს ადამიანზე ორიენტირებული ხელოვნური ხელოვნური ინტელექტის თანამედროვე მეთოდოლოგია, აქ მოცემულია რამდენიმე პუნქტი, რომელიც NIST-ის მოხსენებაშია:

  • განსაზღვრეთ AI სისტემებთან დაკავშირებული ძირითადი ტერმინები და ცნებები და მათი განზრახული ზემოქმედების ფარგლები
  • მიმართეთ მგრძნობიარე ან სხვა პოტენციურად სარისკო მონაცემების გამოყენებას
  • დეტალური სტანდარტები ექსპერიმენტული დიზაინის, მონაცემთა ხარისხისა და მოდელის ტრენინგისთვის
  • ჩამოთვალეთ, როგორ უნდა მოხდეს მიკერძოების რისკების რუკა და გაზომვა და რა სტანდარტების მიხედვით
  • დეტალური პროცესები მოდელის ტესტირებისა და ვალიდაციისთვის
  • დეტალურად განხილვის პროცესი იურიდიული ან რისკის ფუნქციების მიხედვით
  • მიუთითეთ მიმდინარე აუდიტისა და განხილვის პერიოდულობა და სიღრმე
  • ცვლილებების მართვის მოთხოვნების დახატვა
  • დეტალურად აღწერეთ ნებისმიერი გეგმა, რომელიც დაკავშირებულია ასეთ ინციდენტთან რეაგირებასთან
  • ა.შ.

არსებობს HCAI ორიენტირებული მეთოდოლოგიების ფართო არჩევანი.

ზოგიერთი მათგანი უფასოა და მოწოდებულია ღია კოდის ტიპის საფუძველზე, ხოლო სხვა ასეთი მეთოდოლოგია ლიცენზირებულია ან იყიდება მათზე, ვისაც სურს გამოიყენოს ეს კონკრეტული ვარიანტი. შოკოლადის ყუთის მსგავსად, თქვენ უნდა გაითვალისწინოთ, რომელი HCAI მეთოდოლოგიის გამოყენებას აირჩევთ და კონკრეტულად რას შეიცავს. მაგალითად, ზოგიერთი მიმართულია ხელოვნური ინტელექტის სისტემის სპეციფიკურ ტიპებზე, მაგალითად, მხოლოდ მანქანათმცოდნეობის ან ღრმა სწავლის შემთხვევებისთვის. ასევე, არსებობს HCAI მეთოდოლოგიები, რომლებიც კარგია რეალურ დროში AI სისტემებისთვის, ხოლო სხვები ამ მხრივ სუსტია. იხილეთ ჩემი დისკუსია აქ ეს ბმული აქ.

მე მოგიწოდებთ, გონივრულად აირჩიოთ HCAI-ს, იმედიანად შესაფერისი მეთოდოლოგია და დარწმუნდით, რომ გონივრულად იყენებთ მას. ნუ გადააგდებთ HCAI მეთოდოლოგიას არასაეჭვო AI დეველოპერებს. არ მიიღოთ ერთი მხოლოდ ისე, რომ უბრალოდ მონიშნოთ, რომ გაქვთ. HACI-ის ნებისმიერი მეთოდოლოგიის შემცირებისა და მოწამვლის უამრავი გზა არსებობს, თუ მის მიღებაში შეფერხდებით. გააკეთე სწორი, სწორი გზით.

ასევე ფრთხილად იყავით HCAI მეთოდოლოგიის არჩევის პარალიზის ანალიზისას. ხელოვნური ინტელექტის ზოგიერთი ჯგუფი ღებულობს ომებს, რომლის შესახებაც HACI მეთოდოლოგია არის „საუკეთესო“ და საბოლოოდ ხარჯავს უზარმაზარ ძალისხმევას შერჩევის პროცესზე ბრძოლაში. ამასობაში ხელოვნური ინტელექტის ცხენს ბეღლიდან უშვებენ. ცუდი ნაბიჯი.

ამ დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურს რამდენიმე მაგალითი, რომელიც შეიძლება აჩვენოს ადამიანზე ორიენტირებული AI (HCAI) გამოყენების მნიშვნელობა.

მიხარია რომ მკითხე.

არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა ადამიანზე ორიენტირებული AI (HCAI) შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ადამიანზე ორიენტირებული AI (HCAI)

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და Human-Center AI-ს (HCAI) მნიშვნელოვან ღირებულებას.

მოდით გამოვიყენოთ მარტივი მაგალითი. AI-ზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოს ქუჩებში მიდის და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეოკამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს.

გამოდის, რომ რამდენიმე უსიამოვნო შეშფოთება იწყება სხვაგვარად უვნებელი და ზოგადად მისასალმებელი AI-ზე დაფუძნებული თვითმართვადი მანქანების შესახებ, კერძოდ:

1) აყვანისა და ჩამოშვების (PUDO) სირთულეები

2) მგზავრებისთვის სატრანსპორტო საშუალების თვითმართვადი მანქანის არასაკმარისი სტატუსი

3) სახიფათო დაბნეულობა ფეხით მოსიარულეთათვის AI მართვის სისტემის განზრახვებთან დაკავშირებით

4) აწუხებს კონფიდენციალურობის ხელყოფა თვითმართვადი მანქანების გამო

5) ეთიკური ეჭვები ხელოვნური ინტელექტის მართვის შესახებ სამარცხვინო ტროლეის პრობლემის მიხედვით

ჩვენ დეტალურად განვიხილავთ თითოეულ ამ ფაქტორს. თითოეული მათგანი წარმოადგენს ყველაზე რთულ ბრძოლას თვითმართვადი მანქანების მცდელობების მუდმივი გაფართოებისთვის. გარკვევისთვის, ყველაზე დიდი გამოწვევაა უზრუნველყოს, რომ თვითმართვადი მანქანა უსაფრთხოდ გადავიდეს A წერტილიდან B წერტილამდე. ეს ზემოაღნიშნული დამატებითი გამოწვევები ამ ძირითადი ან ფუნდამენტური გამოწვევების ერთობლიობაა.

როგორც ადვილად ცხადი გახდება, ხუთი ჩამოთვლილი საკითხი განუყოფლად არის დაკავშირებული ადამიანზე ორიენტირებული დიზაინის ძირითად ცნებასთან. ამ თვალსაზრისით, ისინი აჩვენებენ ადამიანზე ორიენტირებული AI (HCAI) ყურადღების მნიშვნელობას.

#1: აყვანისა და ჩამოშვების (PUDO) სირთულეები

როდესაც თქვენ იყენებთ მგზავრობის გაზიარების სერვისს, რაც თქვენ თვლით, რომ სწორად განხორციელდება, არის ის, რომ აიყვანეს სამგზავროდ მოსახერხებელ ადგილზე და ასევე ჩამოაგდებენ შესაბამის დანიშნულების ადგილას, როდესაც მგზავრობა დასრულდება (ეს ცნობილია PUDO-ს მოსახერხებელი აკრონიმი). ეს შეიძლება იყოს ბევრად უფრო რთული, ვიდრე ჩანს. თუ წითელ ბორდიურთან დგახართ, უნდა წავიდეს ადამიანი მძღოლი და იქ გაჩერდეს, რომ წაგიყვანოთ? გაითვალისწინეთ, რომ კანონი ჩვეულებრივ წერს, რომ არ არის დაშვებული წითელ ბორდიურზე გაჩერება.

ზოგჯერ თქვენთვის „მოხერხებული“ ადგილი არ არის მოსახერხებელი მანქანის მძღოლისთვის. დარწმუნებული ვარ, რომ თქვენ გადაკვეთეთ ქუჩა ხანდახან, რათა გაგიადვილოთ მგზავრობის მძღოლი თქვენთან შეხვედრაზე. შეიძლება წარმოიშვას ცეკვის ტიპი, რომლის დროსაც თქვენ ცდილობთ მიუახლოვდეთ მანქანას, ხოლო მძღოლი ცდილობს მიუახლოვდეს იქ, სადაც არ უნდა იყოთ.

ბევრი ფირმისთვის, რომლებიც ამზადებენ AI მართვის სისტემებს, სათანადო აყვანისა და ჩამოშვების მთელი საკითხი დაქვეითებული იყო შედარებით დაბალ პრიორიტეტად გასაკეთებელი საქმეების სიაში.

ხელოვნური ინტელექტის დეველოპერები ზოგადად ფიქრობდნენ, რომ მგზავრი ყოველთვის უნდა აეღო თვითმართვადი მანქანისკენ. ამის გაკეთება მგზავრის მოვალეობაა. ხელოვნური ინტელექტის მართვის სისტემა არ უნდა იყოს დაკავშირებული PUDO-სთან. უბრალოდ საკმარისად მიუახლოვდით და ეს არის ის. ამგვარად, აყვანისა და ჩამოსვლის ადგილებს არაფერი აქვს საერთო ისეთ საკითხებთან, როგორიცაა უამინდობა (როდესაც წვიმს, PUDO ხშირად მორგებულია შესაბამისად) ან საგზაო სიტუაციებთან (შესაძლოა, სხვა მანქანებმა მიიწურონ და პოტენციალი. მგზავრი საზიანო გზაზე უნდა გაუშვას) და ა.შ.

ადამიანები მძღოლები, როგორც წესი, არ არიან ამ აზროვნების. ისინი ხვდებიან, რომ არ მიიღებენ ფულად წვდომას ან შეიძლება მიიღებენ უხეში შეფასების ქულას, თუ სერიოზულად არ გააკეთებენ რაიმეს იმისთვის, რომ მგზავრს ჰქონდეს შედარებით მოსახერხებელი PUDO. სასარგებლო ადგილზე მოხვედრის მცდელობა შეიძლება იყოს გადამწყვეტი მართვის უნარი. ეს ასევე ხელს უწყობს უსაფრთხოებას იმ გაგებით, რომ თუ მგზავრი სასოწარკვეთილად აიძულა თვითმართვამდე მანქანამდე მიაღწიოს, ზოგიერთი ადამიანი აკეთებს არაგონივრულ არჩევანს და შეიძლება ზიანი მიაყენოს ყველა სახის ჩარევით მოძრაობას.

ხელოვნური ინტელექტის თვითმართვადი მანქანებისა და ხელოვნური ინტელექტის მართვის სისტემების შემთხვევაში, რომლებიც არ ასრულებენ PUDO-ს მყარ სამუშაოს, შეიძლება ითქვას, რომ ეს აჩვენებს AI დეველოპერების მიერ ადამიანზე ორიენტირებული ფოკუსის ნაკლებობას. მათ, როგორც ჩანს, მხრები აიცილეს აყვანისა და ჩამოშვების ასპექტებზე. სწორედ ასეთი აზროვნება შეიძლება მოიპოვოს ტრადიციულმა ტექნოლოგიაზე ორიენტირებულმა პერსპექტივამ. აიძულე ადამიანები მივიდნენ მანქანასთან, ვიდრე მანქანა ადამიანებთან მიდის.

პრობლემა მოგვარებულია, ტექნიკოსებმა შეიძლება სიხარულით მიუთითონ და შემდეგ დაიბანონ ხელები მთელ საქმეზე.

სამართლიანობისთვის, ეს არ არის ერთადერთი საფუძველი PUDO-ს მხურვალე ფოკუსის არარსებობისთვის. ხელოვნური ინტელექტის დეველოპერების ენერგია, რომლებიც ქმნიან ხელოვნური ინტელექტის მართვის სისტემებს, მიძღვნილი იყო იმისთვის, რომ დარწმუნდნენ, რომ თვითმართვადი მანქანა შეიძლება უსაფრთხოდ გადაადგილდეს A წერტილიდან B წერტილამდე. ამ შესაძლებლობის გარეშე, სხვა არაფერია მნიშვნელოვანი. როგორც ითქვა, ნებისმიერი, ვინც დაშავდება ან აშკარად აწუხებს მოწინავე თვითმართვადი მანქანის საზიზღარი PUDO ძალისხმევის გამო, სავარაუდოდ გამოსცემს ხმებს და საზოგადოების რეაქცია შეიძლება იყოს უკიდურესად არასასურველი. ეჭვგარეშეა, რომ იქნებოდნენ ხელოვნური ინტელექტის სპეციალისტები, რომლებიც ჩივიან, რომ ნებისმიერ ასეთ რეაქციას აკლია ხელოვნური ინტელექტის მნიშვნელოვანი მიღწევა A წერტილიდან B წერტილამდე უსაფრთხოდ. შესაძლოა, ასეც არის, მაგრამ საზოგადოების რეაქციამ შეიძლება გამოიწვიოს კეთილდღეობა ან აშკარა გაწირვა მზარდი თვითმართვადი მანქანებისთვის.

ავტონომიური სატრანსპორტო საშუალებების ამ ტიპის დახვეწილი, მაგრამ საბოლოო ჯამში გაფუჭების საკითხების შესახებ ჩემი სიღრმისეული გაშუქებისთვის, იხილეთ ჩემი დისკუსია: ბმული აქ რომელიც უზრუნველყოფს კვლევის ხაზგასმას, რომელიც მე თანაავტორობით ვარ ჰარვარდის ფაკულტეტის წევრთან ერთად.

#2: არასაკმარისი სატრანსპორტო საშუალების თვითმართვადი მანქანის სტატუსი მგზავრებისთვის

ადამიანის მძღოლი შეიძლება იყოს მოლაპარაკე კატა. იმის თქმა მინდა, რომ ზოგიერთი მძღოლი გამუდმებით ლაპარაკობს მგზავრობის განმავლობაში. ყველა მგზავრს არ მოსწონს ეს. ზოგს სიმშვიდე და სიმშვიდე სურს. სხვებს მოსწონთ სასიამოვნო ხუმრობა.

ადამიანის მძღოლის ერთ-ერთი ასპექტი არის ის, რომ თქვენ შეგიძლიათ დაუსვათ მძღოლს კითხვები განხორციელებული მართვის მოქმედებების შესახებ. რატომ მოუხვია მძღოლმა ასე სწრაფად მარჯვნივ? რატომ არ მიდის მძღოლი უფრო სწრაფად? გესმით იდეა.

ზოგიერთი ხელოვნური ინტელექტის შემქმნელის ვარაუდი იყო, რომ თვითმართვადი მანქანის მგზავრი მხოლოდ ავტონომიურ მანქანაში ჩაჯდებოდა და შემდეგ თაგვისავით მშვიდი იქნებოდა. არ არის საჭირო ხელოვნური ინტელექტის ურთიერთქმედება მგზავრთან. მგზავრები სხვა არაფერია, თუ არა თიხის ნაჭერი. სხედან მანქანაში და მიჰყავთ დანიშნულების ადგილზე. Ამბის დასასრული.

ზოგიერთი ავტომწარმოებლისა და თვითმართვადი ტექნიკური ფირმის გასაკვირად, მათ გაარკვიეს, რომ მგზავრებს სურთ იცოდნენ რა ხდება. მინიმალური მიდგომა გულისხმობს LED ეკრანის არსებობას, რომელიც აჩვენებს თვითმართვადი მანქანის მარშრუტს. თუმცა ეს განსაკუთრებით არ უწყობს ხელს ისეთ ასპექტებს, როგორიცაა რატომ მოხდა სწრაფი შემობრუნება ან რატომ ანელებს მანქანა. რა თქმა უნდა, ელექტრონული შეტყობინებების ჩვენება შესაძლებელია, მაგრამ AI-სა და მგზავრებს შორის ნებადართულია მცირე ურთიერთქმედება ან საერთოდ არ არის დაშვებული.

კიდევ ერთხელ, შეგიძლიათ ეს ახსნათ, როგორც ადამიანზე ორიენტირებული AI განვითარების საკითხი. ვარაუდი, რომ მგზავრები ჩემოდანს ან მიტანის ყუთს ჰგავს, არის ტექნოლოგიაზე ორიენტირებული თვალსაზრისი. ხალხი ხალხია. თუ თქვენ აპირებთ ხალხის გადაყვანას, უნდა აჩვენოთ, რომ ისინი კომფორტულად გრძნობენ თავს და უპასუხონ მათ შეკითხვებს. სწრაფი გამოსავალი ზოგიერთი თვითმართვადი მანქანის ოპერაციებისთვის არის ბორტზე ხმოვანი კავშირი ადამიანის აგენტთან დისტანციურ ადგილას, რომელიც აკონტროლებს ფლოტის მანქანებს. ამას აქვს მრავალი უარყოფითი მხარე, როგორც მე გავაანალიზე ბმული აქ.

#3: საშიში დაბნეულობა ფეხით მოსიარულეებისთვის AI მართვის სისტემის განზრახვებთან დაკავშირებით

წარმოიდგინეთ, რომ დაუფიქრებლად მიდიხართ ტროტუარზე და გსურთ ქუჩის გადაკვეთა. შეამჩნევთ, რომ ქუჩაში მანქანა თქვენსკენ მოდის. ჩვეულებრივი რამ, რასაც გააკეთებდით, არის ადამიანის მძღოლის შეხედვა. მძღოლი მხედავს? მძღოლი შორს იყურება? უყურებენ კატის ვიდეოს და ყურადღებას არ აქცევენ გზას?

თვითმართვადი მანქანების პრობლემა ის არის, რომ არ არის ადამიანი მძღოლი. მე ვფიქრობ, რომ შეიძლება ითქვას, რომ ეს არის პლუსი, რომელიც საშუალებას გვაძლევს მოვიშოროთ ნასვამ მდგომარეობაში მართვა და სხვა არასწორი ადამიანთა მართვის ქცევები. მაგრამ როდესაც საქმე ეხება იმის გარკვევას, თუ რის გაკეთებას აპირებს მანქანა, თქვენ ჩვეულებრივ ცდილობთ ნახოთ, რას აკეთებს მძღოლი (თავის, თვალების, მათი საერთო პოზიციის და ა.შ.).

როცა მძღოლის სავარძელში მძღოლი არ არის, როგორ გაიგებთ, რის გაკეთებას აპირებს მანქანა? თქვენ არ გაქვთ ჩვეულებრივი მინიშნებები. ზოგიერთი ავტომწარმოებელი და თვითმართვადი ტექნიკური ფირმა განსაკუთრებით არ გამოთვალეს ეს პრობლემა თავიანთი დიზაინის მცდელობებში. მათი აზრით, ხელოვნური ინტელექტის მართვის სისტემა ყოველთვის უსაფრთხოდ და ლეგალურად მართავდა. კიდევ რა უნდა გაკეთდეს?

თქვენ შეიძლება ამტკიცებდეთ, რომ ეს არის კიდევ ერთი მაგალითი სამყაროს ტექნოლოგიებზე ორიენტირებული ხედვის წინააღმდეგ ადამიანზე ორიენტირებული პერსპექტივისა. თუ გჯერათ, რომ ადამიანები ყოველთვის ანიჭებენ გზას თვითმართველ მანქანებს, ალბათ არ აქვს მნიშვნელობა, რომ საჭიროა მძღოლის მიმართული მოქმედების ნიშნები. მეორეს მხრივ, რეალურ სამყაროში რაღაც უნდა იყოს უზრუნველყოფილი.

როგორც მე გამოვიკვლიე ბმული აქსცადა მრავალი წინადადება, როგორიცაა სპეციალური ნათურების დაყენება თვითმართვადი მანქანების კაპოტზე, რომლებიც ანათებენ და ერთგვარი მიმართულებაა იმ მიმართულებით, სადაც ავტონომიური მანქანა მიემართება. კიდევ ერთი მოსაზრებაა, რომ სპეციალიზებული მოწყობილობები ადასტურებენ ფეხით მოსიარულეებს, რომ მათ ხედავენ AI მართვის სისტემით. შესწავლილია ყველანაირი გონივრული ვარიანტი, მათ შორის ზოგჯერ უცნაური მიდგომები.

#4: წუხს კონფიდენციალურობის ხელყოფის გამო თვითმართვადი მანქანების გამო

მე არაერთხელ ვაფრთხილებდი კონფიდენციალურობის ხელყოფის მასიური პოტენციალის შესახებ თვითმართვადი მანქანების გამოჩენის გამო. ამ დროისთვის ამ საკითხს დიდ ყურადღებას არავინ აქცევს, რადგან ის ჯერ არ არის გააზრებული პრობლემად. გარწმუნებთ, რომ საბოლოოდ ეს იქნება უზარმაზარი პრობლემა, რომელსაც მე ვუწოდე, როგორც თვითმართვადი მანქანების ჭეშმარიტად „მოძრავი თვალი“ (იხ. ბმული აქ).

თქვენი პირველი აზრი შეიძლება იყოს ის, რომ ეს ნამდვილად ეხება მხოლოდ მგზავრების კონფიდენციალურობას. AI-ს შეეძლო თვალყური ადევნოს რას აკეთებენ მძღოლები თვითმართველ მანქანაში ყოფნისას. რა თქმა უნდა, ეს არის გარკვეული შეშფოთება. მაგრამ მე ვიტყოდი, რომ ის ფერმკრთალდება ნაკლებად აშკარა დეფექტთან შედარებით, რომელსაც აქვს კიდევ უფრო დიდი განშტოებები.

მარტივად რომ ვთქვათ, თვითმართვადი მანქანის სენსორები აგროვებენ ყველა სახის მონაცემს, როდესაც ავტონომიური მანქანები მოძრაობენ ჩვენს საჯარო გზებზე. ის აღწერს იმას, რაც ხდება ჩვენი სახლების წინა გაზონებზე. ის ასახავს რას აკეთებენ ადამიანები ადგილიდან მეორეში სიარულის დროს. ის გვიჩვენებს, როდის შედიხართ დაწესებულებაში და როდის დატოვეთ იგი. ამ მონაცემების მარტივად ატვირთვა შესაძლებელია ფლოტის ოპერატორის ღრუბელში. ფლოტის ოპერატორს შეუძლია დააკავშიროს ეს მონაცემები და არსებითად ჰქონდეს ჩვენი ყოველდღიური ცხოვრების დეტალები, რომლებიც ხდება გარეთ და ჩვენს საზოგადოებაში.

როგორც ჩანს, ჩვენ არ გვაინტერესებს კონფიდენციალურობის ხელყოფის პოტენციალი ახლა, რადგან მხოლოდ რამდენიმე თვითმართვადი მანქანა ცდება შედარებით მცირე ადგილებზე. ოდესმე, ჩვენ გვეყოლება ასობით ათასი ან მილიონობით თვითმართვადი მანქანა, რომლებიც გადაკვეთენ ჩვენს ყველა დიდ ქალაქსა და ქალაქს. ჩვენი ყოველდღიური გარე ცხოვრება ჩაიწერება უწყვეტად, 24×7 და შესაბამისად შეგვიძლია თვალყური ადევნოთ.

ტექნოლოგიაზე ორიენტირებული ხელოვნური ინტელექტის შემქმნელი, სავარაუდოდ, ამას ამცირებს. ისინი ვარაუდობენ, რომ მხოლოდ ხელოვნური ინტელექტის ტექნოლოგიის დანერგვაა. სხვას უნდა აწუხებდეს იმაზე, თუ როგორ გამოიყენებს ტექნოლოგიას.

ამის საპირისპიროდ, ადამიანზე ორიენტირებული პერსპექტივა უკვე მიგვანიშნებს იმაზე, თუ როგორ უნდა მოგვარდეს ეს გიგანტური კონფიდენციალურობის მარეგულირებელი დროის ბომბი. სჯობს ადრე ვიდრე გვიან. ეს არის კიდევ ერთი კარგი მიზეზი იმისა, რომ ადამიანზე ორიენტირებული AI (HCAI) გქონდეთ ნივთების ნაზავში.

#5: ეთიკური შეშფოთება ხელოვნური ინტელექტის მართვის შესახებ სამარცხვინო ტროლეის პრობლემის მიხედვით

ეს ბოლო წერტილი ცოტა რთულია. მე შევამოკლებ მას და მოგიწოდებთ განიხილოთ ჩემი ვრცელი ანალიზი აქ ბმული აქ. მოკლედ, როცა მანქანას მართავ ან უბრალოდ მანქანაში მგზავრი ხარ, ყოველთვის საფრთხე ემუქრება, თუ რა ბედი ეწევა მანქანას. მანქანას შესაძლოა სხვა მანქანა დაეჯახოს. მანქანა შესაძლოა ნათურის ბოძში ჩავარდეს. ყველა სახის ცუდი რამ შეიძლება მოხდეს.

როგორ წყვეტს ადამიანი მძღოლი რა ქმედებებს მიმართოს?

მაგალითად, ჩემი საყვარელი მაგალითი იყო ახალი ამბების გაშუქებული შემთხვევა. ადამიანი მძღოლი ლეგალურად მიდიოდა გზაჯვარედინზე, როდესაც მეორე მანქანამ წითელ შუქნიშანზე გაირბინა და სახიფათოდ მიდიოდა კანონიერად დაშვებული მანქანისკენ. მძღოლმა ჟურნალისტებს განუცხადა, რომ მას მკაცრი გადაწყვეტილება უნდა მიეღო. მას შეეძლო სვლა გაეგრძელებინა და, სავარაუდოდ, შევარდნილ მანქანას დაეჯახა, შესაძლოა ამ პროცესში მოკლულიყო ან რა თქმა უნდა მძიმედ დაშავებულიყო. ან მას შეეძლო მანქანის მოშორება მოსალოდნელი შეჯახებისგან, მაგრამ იქვე იყვნენ ფეხით მოსიარულეები. დიდი იყო იმის ალბათობა, რომ მას დაეჯახა ან მოეკლა ზოგიერთი ფეხით მოსიარულე. ამის გაკეთება, სავარაუდოდ, სიცოცხლეს დაზოგავს.

რას გააკეთებს?

საქმე იმაშია, რომ ჩვენ მუდმივად ვაწყდებით ამ მამოძრავებელ დილემებს. ჩვენ განსაკუთრებით არ ვფიქრობთ მათზე, სანამ საქმე ცუდად წავა. გარწმუნებთ, რომ ყველა მძღოლი ყოველთვის გონებრივად არის ჩართული იმაში, რომ უნდა გადაწყვიტოს, რომელი სატრანსპორტო საშუალების გადასატანი ქმედებები გააკეთოს. მათი ცხოვრება ამაზეა დამოკიდებული. მათ მანქანაში მგზავრების სიცოცხლე ამაზეა დამოკიდებული. მასზეა დამოკიდებული სხვა მძღოლების და ახლომდებარე მანქანების მგზავრების სიცოცხლე. მასზეა დამოკიდებული ფეხით მოსიარულეები, ველოსიპედისტები და სხვები.

ამას ვხსნი მარტივი, მაგრამ ძალიან რთული კითხვის გამო.

რა უნდა გააკეთოს ხელოვნურმა ინტელექტუალურმა ინტელექტუალურმა ინტელექტუალურმა ინტელექტუალურმა ინტელექტუალმა, როდესაც გადაწყვეტილებებს სიცოცხლე-სიკვდილის მართვისას?

თუ თქვენ იყავით თვითმართვადი მანქანის მგზავრი, რომელიც იმყოფებოდა გზაჯვარედინზე და ადამიანის მართულ მანქანას აინთო წითელი შუქი, რა გსურთ, რომ AI მართვის სისტემამ გააკეთოს? უნდა შეეცადოს თუ არა ხელოვნური ინტელექტი, რათა თავიდან აიცილოს დარტყმა და მაინც, შესაძლოა, ფეხით მოსიარულეთა ჯგუფში გადაიჭრას? ან ხელოვნურმა ინტელექტუალმა არ უნდა მიიღოს რაიმე განსაკუთრებული ქმედება და მხოლოდ ავტონომიურ მანქანას დაარტყა? ამ ტიპის ეთიკური დილემები ხშირად გამოსახულია ცნობილი სააზროვნო ექსპერიმენტის კონტექსტში, რომელიც ცნობილია როგორც ტროლეის პრობლემა (იხ. ბმული აქ).

ამჟამად, ბევრი არ იღებს ტროლეის პრობლემას რაიმე ფხიზელი სერიოზულობით. ზოგადად, ხელოვნური ინტელექტის მართვის სისტემების უმეტესობა ჯერ კიდევ არ ცდილობს შეაფასოს მართვის მორიგი ქმედებები. მაშინაც კი, თუ ხელოვნური ინტელექტი ამას აკეთებს, ჩნდება ღია და მტკივნეული კითხვა, თუ როგორ უნდა იყოს დაპროგრამებული AI ამ რთული ეთიკური გადაწყვეტილებების მისაღებად.

ტექნოლოგიაზე ორიენტირებული პერსპექტივა იტყვის, რომ არ ინერვიულოთ ამაზე, სანამ ის არ გახდება საზოგადოების გაცნობიერებული პრობლემა. უბრალოდ განაგრძეთ AI კოდის მასების გამოთქმა და ნახეთ, რა მოხდება ქვემოთ.

ადამიანზე ორიენტირებული თვალსაზრისი, სავარაუდოდ, ამტკიცებს, რომ ამ საკითხს უნდა მივუდგეთ. თუმცა, ეს არ არის საკითხი, რომლის გადაწყვეტაც მხოლოდ თითოეულ ავტომწარმოებელს და თვითმართვაზე მყოფ ტექნიკურ ფირმას შეუძლია. საჭიროა უფრო დიდი სოციალური ფოკუსირება ამის გასარკვევად ყოვლისმომცველი საშუალებებისთვის.

დასკვნა

თავდაუზოგავი ხელოვნური ინტელექტის დეველოპერები ხშირად სკეპტიკურად უყურებენ იმას, რასაც ისინი მოდად ან ფუმფულა სისულელედ თვლიან. მე მყავდა მრავალი AI ტექნიკოსი, რომლებმაც დამისვეს მკაცრად მკაცრი და მკვეთრად გამოხატული შეკითხვა ამპარტავნული და საეჭვო ტონით ადამიანზე ორიენტირებული AI (HCAI) მიმართ მზარდი ინტერესის შესახებ.

ისინი ამას ეკითხებიან: სად არის ძროხის ხორცი HCAI-ში?

ჩემი პასუხია, რომ ხორცი, კარტოფილი და დესერტი იმაში მდგომარეობს იმაში, რომ ხელოვნური ინტელექტის მიმართ ადამიანზე ორიენტირებული მიდგომა მოგვცემს უფრო დიდ შანსს, რომ AI იყოს წარმატებული და გახდეს საყოველთაო წვლილი საზოგადოებისთვის. მათ, ვისაც სურს, სანაცვლოდ დაეყრდნოს და დარჩეს მხოლოდ ტექნოლოგიაზე ორიენტირებული მიდგომაში, სავარაუდოდ, აღმოაჩენს, რომ მათ მიერ შექმნილ ხელოვნური ინტელექტი მთლიანად პრობლემურია და საზოგადოება ნამდვილად გაბრაზდება ამის გამო. თავები შემოვა. ხელოვნური ინტელექტი შეიძლება უარყოფილი იქნას, როგორც ტექნოლოგიური საოცრება და გახდეს ბოროტი განდევნილი.

მე ხმამაღლა ვაძლევ ხმას ადამიანზე ორიენტირებულ აზრს, რომ ვიყო ადამიანზე ორიენტირებული, როდესაც საქმე AI-ს ეხება.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/04/01/heres-why-ai-ethics-is-touting-that-human-centered-ai-is-crucial-to-our- აი-სიმბიოზური-არსებობა-როგორიც-ავტონომიური-თვითმართვის-მანქანების-გამოსვლა/