ხელოვნური ინტელექტის ეთიკისა და ავტონომიური სისტემების გაკვეთილები მიღებული Alaska Airlines-ის ბოლო ფრენიდან, სადაც პილოტი და მეორე პილოტი აფრენამდე არ შეთანხმდნენ და მოულოდნელად გადაწყვიტეს ტაქსით დაბრუნდნენ ტერმინალში და გაემგზავრნენ ცალკეულ გზაზე

ბოლო დროს ავიაკომპანიები საკმაოდ პოპულარულია სიახლეებში.

ჩვენ ვართ ფრენების ზაფხულის კრიზისში. დაღლილი და იმედგაცრუებული მგზავრები აწყდებიან ფრენის ყველა სახის შეფერხებას და ავიახაზების დაგეგმვის შეფერხებას. ფრენები მოულოდნელად უქმდება. ფრენები გადაიდო. მგზავრები აორთქლდებიან. სამწუხაროდ, იყო მგზავრების მრავალი შემთხვევა, რომლებიც საშუალებას აძლევდნენ ამ მღელვარებას, და ჩვენ ვნახეთ ძალიან ბევრი ვირუსული ვიდეო, რომლებიც ასახავს თავდასხმებს და ზოგჯერ მუშტებს.

უფრო იშვიათად ვსწავლობთ პილოტსა და კოპილოტს შორის დავის შესახებ, რომელიც შეიძლება მოხდეს კაბინაში ყოფნისას.

ეს საკმაოდ მოულოდნელია.

მართლაც, ჩვენ ბუნებრივად გაოგნებულები ვართ იმის ფიქრით, რომ პილოტსა და კოპილოტს რაიმე სერიოზული უთანხმოება ექნებათ ფრენის ნებისმიერ ეტაპზე. თუ უთანხმოება ეხება იმას, თუ რომელი ბრენდის ყავა არის საუკეთესო, ჩვენი ვარაუდი არის, რომ ეს არ ჩაერევა სამუშაო ძალისხმევაში, რომელიც მოჰყვება თვითმფრინავის ფრენას. ეს ორი უბრალოდ აარიდებდა თვალის დახუჭვის ნაკლებობას ერთი შეხედვით ფრენისთვის შეუსაბამო თემაზე. მათი პროფესიონალური ქცევა და მფრინავების ხანგრძლივი სწავლება დაიწყება და ისინი ყურადღებას აქცევდნენ ფრენის დეტალებზე.

თუმცა განვიხილოთ, როდესაც ა პროფესიული უთანხმოება ერევა.

მე ვაპირებ მოკლედ გაგიზიაროთ ფართოდ გამოქვეყნებული ახალი ამბავი აშშ-ში ფრენის დროს მომხდარი ფაქტის შესახებ, რომელიც დაკავშირებულია პროფესიონალურ უთანხმოებასთან კაბინაში.

ეს ძირითადად აქ არის მოხსენიებული, რათა ჩვენ შევისწავლოთ დაკავშირებული თემა, რომელსაც დიდი მნიშვნელობა აქვს ხელოვნური ინტელექტის (AI) გაჩენისთვის. ხედავთ, შეიძლება არსებობდეს თუ არა პროფესიული უთანხმოება ადამიანებს შორის არა მხოლოდ ადამიანთა შორის უთანხმოების დროს, არამედ შეიძლება მსგავსი რამ მოხდეს ხელოვნური ინტელექტის მიღების ფონზე და, შედეგად, ადამიანის წინააღმდეგ AI პროფესიული უთანხმოების დროს. . ჩნდება ყველა სახის ხელოვნური ინტელექტის ეთიკის მოსაზრებები. ხელოვნური ინტელექტის ეთიკისა და ეთიკური ხელოვნური ინტელექტის საკითხების ვრცელი და მუდმივი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, მხოლოდ ასახელებს რამდენიმე.

მოემზადეთ მომხიბლავი ზღაპრისთვის.

როგორც ახლახან იტყობინება ახალი ამბები, "პროფესიული უთანხმოების" შემთხვევა აშკარად წარმოიშვა Alaska Airline-ის ფრენის დროს, რომელიც მიდიოდა ვაშინგტონიდან სან-ფრანცისკოში. ახალი ამბების მიხედვით, რეისი ჭიშკარს მოშორდა და ტაქსით მგზავრობისა და ფრენის ნებართვას ელოდებოდა ასისტენტზე. ქარიშხალი მიმდინარეობდა და ფრენის საათნახევარზე მეტი შეფერხება გამოიწვია. გამოდის, რომ თვითმფრინავი საბოლოოდ შემობრუნდა და ჭიშკრისკენ გაემართა, რაც ზოგიერთმა მგზავრმა შეიძლება ჩათვალოს, რომ უბრალოდ ქარიშხალთან დაკავშირებული უსაფრთხოების ზომები იყო.

სხვადასხვა ტვიტერზე, როგორც ჩანს, პილოტსა და მეორე პილოტს კაბინეტში ყოფნის დროს ჰქონდათ რაიმე სახის გაუგებრობა და რატომღაც მივიდნენ დასკვნამდე, რომ ყველაზე გონივრული მიდგომა იქნებოდა ფრენის გასუფთავება და ტერმინალში დაბრუნება. . ტვიტერში ვარაუდობენ, რომ კაპიტანი და პირველი ოფიცერი აშკარად ვერ ახერხებდნენ ერთმანეთს. მოგვიანებით ავიაკომპანიამ გამოაქვეყნა განცხადება, რომ სიტუაცია იყო სამწუხარო (სიტუაცია აშკარად არ იყო ნათქვამი ან ახსნილი თავისთავად), ფრენის ორი ოფიცერი შეაფასა მენეჯმენტმა და ჩათვალეს შესაფერისად ფრენისთვის, ეკიპაჟები გაცვალეს და ფრენა საბოლოოდ შესრულდა. და მოგვიანებით მიაღწია სან-ფრანცისკოს.

ერთი გაგებით, თუ რეალურად პილოტსა და მეორე პილოტს ჰქონდათ პროფესიული უთანხმოება, როგორიცაა იყო თუ არა თვითმფრინავი სათანადოდ მზად ფრენისთვის ან იყო თუ არა ქარიშხლის გადაფრენის რისკი შესაბამის უსაფრთხოების დიაპაზონში, ეს მგზავრები უნდა განთავისუფლდნენ და მადლობელი ვარ, რომ თვითმფრინავი კარიბჭესთან დააბრუნეს. სჯობს იყო უსაფრთხო, ვიდრე ბოდიში. დამატებითი შეფერხება ღირს რისკების სავარაუდო შემცირება, რომლებიც დაკავშირებულია რთულ ან არასასურველ ფრენასთან.

ზოგიერთს შეიძლება გაუკვირდეს, რომ ასეთი პროფესიული უთანხმოება შეიძლება წარმოიშვას.

ჩვენ, ალბათ, გვაქვს მცდარი შთაბეჭდილება, რომ ყველაფერი, რაც ხდება კაბინაში, არის სრულიად ზუსტი და კარგად დაწერილი. როგორც ჩანს, ადამიანური შეხედულებისამებრ ყველა ფორმა ამოღებულია პროცესიდან. ზუსტი და საფუძვლიანად გათვლილი სქემებიდან გამომდინარე, ფრენა ან გაგრძელდება ან არა. არ შეიძლება იყოს უთანხმოება, როდესაც მთლიანი ნაკრები და კაბუდლი ითვლება, რომ დაფუძნებულია ფაქტებისა და ციფრების უტყუარ გაანგარიშებაზე.

ეს არ არის საქმის სრული სიმართლე. რა თქმა უნდა, არსებობს უამრავი პროტოკოლი და ყველა სახის კონტროლი და ბალანსირება, მაგრამ ეს არ აშორებს ადამიანის განსჯის მთელ იოტას. პილოტები და კოპილოტები ჯერ კიდევ ახორციელებენ ადამიანის განსჯას. საბედნიეროდ, ეს ადამიანური განსჯა სრულდება წლების ფრენით. სავარაუდოა, რომ კომერციული სამგზავრო თვითმფრინავის პილოტსა და მეორე პილოტს აქვთ წინა ფრენის გამოცდილება და ადვილად იყენებენ მრავალწლიან სიღრმისეულ მსჯელობასა და განსჯას, რომელიც დაკავშირებულია ფრენის სამართავთან ყოფნასთან.

ადამიანის განსჯის მნიშვნელოვანი როლის გათვალისწინებით, შეიძლება ლოგიკურად ვივარაუდოთ, რომ პილოტსა და კოპილოტს ხანდახან აქვთ პროფესიული უთანხმოება. უმეტეს შემთხვევაში, სავარაუდოდ, ძალიან ცოტაა ასეთი უთანხმოება. მფრინავი და კოპილოტი ყოველდღიური ფრენისთვის, სავარაუდოდ, კარგად შეესაბამება იმ დროის უპირატესობას. მხოლოდ მაშინ, როდესაც ფრენის სცენარი შეიძლება გასცდეს ჩვეულებრივ საზღვრებს, ჩვენ ველოდებით უფრო დაძაბული ხახუნის წარმოქმნას.

თუ ამ ორს შორის აზრთა სხვადასხვაობაა, მე გავბედავ ვთქვა, რომ ჩვენ გვინდა, რომ მათ ეს გაანადგურონ.

წარმოიდგინეთ სიტუაცია, როდესაც პილოტს მტკიცედ სურს გაგრძელება, მაგრამ კოპილოტი თვლის, რომ რისკები ძალიან მაღალია. არასასურველი ჩანდა მხოლოდ კოპილოტის დახრილობა პილოტის წინაშე. კოპილოტი არის გამშვები და გაწონასწორებული ის, რის გაკეთებაზეც შესაძლოა ფიქრობდეს პილოტი. მათთვის, ვისაც სურს, რომ კოპილოტმა გაჩუმდეს და მხოლოდ დაუფიქრებლად მოიქცეს, რასაც მფრინავის გადაწყვეტილება აქვს, ეს არ არის დიდი დამამშვიდებელი. კოპილოტი არ არის უბრალოდ სათადარიგო „პილოტი“, რომელიც სურათზე მხოლოდ მაშინ შედის, როცა პილოტი სრულიად ქმედუუნაროა. ეს მცდარი გაგებაა პილოტისა და კოპილოტის კაბინაში ყოფნის ღირებულების შესახებ.

ამას სხვა კუთხეც აქვს.

განვიხილოთ პილოტის შემთხვევა, რომელსაც არ სჯერა, რომ ფრენა უნდა გაგრძელდეს და ამასობაში კოპილოტი გუგ-ჰო ჰაერში ადგომას. Რა იქნება შემდეგ? მოსალოდნელი იერარქიის მიხედვით, პილოტი ჩვეულებრივ ჭარბობს კოპილოტს. მთავარი პასუხისმგებელი როლი პილოტს უფრო დიდს ხდის იმას, რაც სხვაგვარად არის გარკვეულწილად თანაბარი. ჩვეულებრივ, პილოტს უფრო მეტი საერთო ფრენის დრო აქვს, ვიდრე კოპილოტს და ამიტომ, იერარქიულად უნდა დაემორჩილოს პილოტის სურვილებს (როდესაც გონივრული იქნება).

ნებისმიერ შემთხვევაში, მე ვფიქრობ, რომ ჩვენ ყველანი შეგვიძლია შევთანხმდეთ, რომ ფრენის არჩევა ნაკლებად სარისკო არჩევანია, ვიდრე ფრენის გადაწყვეტილება. მას შემდეგ, რაც თვითმფრინავი ჰაერში დგება, რისკის დონე უზარმაზარია, ვიდრე ჩვეულებრივ სტაბილურ ადგილზე ყოფნისას. ჩვეულებრივი კომერციული ფრენა, რომელიც უბრალოდ ტაქსით დაბრუნდება ტერმინალში ჰაერში ჩასვლის გარეშე, საკმაოდ მეგობრული გამოსავალი იქნებოდა ფრენის შესახებ ნებისმიერი მწვავე დებატების მიმართ.

მოდით გადავიტანოთ გადაცემათა კოლოფი და გამოვიყენოთ ეს გამაოგნებელი სიახლე სრულიად განსხვავებული, მაგრამ დაკავშირებული მიზნებისთვის.

ჩვენ თანდათანობით გვაქვს AI-ზე დაფუძნებული ავტონომიური სისტემების გავრცელება. ზოგჯერ AI მართავს შოუს, თითქოს. ხელოვნური ინტელექტი აკეთებს ყველაფერს A-დან Z-მდე და ჩვენ შეიძლება ეს ავხსნათ, როგორც AI, რომელიც არის სრულად ავტონომიური ან თითქმის ასე. სხვა შემთხვევებში, ჩვენ შეგვიძლია გვქონდეს AI, რომელიც ურთიერთქმედებს და გარკვეულწილად დაპროგრამებულია, რომ დამოკიდებული იყოს ადამიანის ციკლში.

მსურს კონცენტრირება მოვახდინო ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ავტონომიური ან ნახევრად ავტონომიური სისტემის საკითხზე, რომელსაც თავიდანვე ჰყავს ადამიანი. ხელოვნური ინტელექტი და ადამიანი მიზანმიმართულად არიან შერწყმული და უნდა მუშაობდნენ ერთმანეთთან ტანდემში. ისინი არიან კოჰორტები კონკრეტული დავალების შესასრულებლად. მარტო ხელოვნური ინტელექტი არ უნდა იმოქმედოს დავალების შესრულებაზე. ხელოვნური ინტელექტი უნდა ურთიერთქმედდეს დანიშნულ ადამიანთან.

მე მოვიყვან ამ დახასიათებას, რათა განვასხვავოთ სიტუაციები, როდესაც ადამიანის მარყუჟში განიხილება არასავალდებულო ასპექტი. არსებითად, AI-ს თავისუფლება ეძლევა. თუ AI აირჩევს გამოიყენოს ადამიანი, ასეც იყოს. არ არსებობს მოთხოვნა, რომ ხელოვნური ინტელექტი უნდა შეეხოს ბაზას ან იმუშაოს ხელიხელჩაკიდებულმა დანიშნულ ადამიანთან. ანალიზები, რომლებსაც მე ვაპირებ დაკავშირება, რა თქმა უნდა, შესაბამისია ამ ტიპის არასავალდებულო ურთიერთქმედების მოწყობა, მაგრამ ეს არ არის ის, რასაც მე კონკრეტულად ვმართავ ამ კონკრეტულ დისკუსიაში.

კარგი, ასე რომ, ჩვენ გვაქვს გარკვეული დავალება, რომელზეც ადამიანი და ხელოვნური ინტელექტი ერთად იმუშავებენ, ერთმანეთისგან განუყოფლად. აბსტრაქტული გაგებით, ჩვენ გვყავს ადამიანი, რომელიც ზის ერთ სავარძელში და AI სისტემა ზის მეორე თანმხლებ სავარძელზე. მე ამას თავხედურად ვამბობ, რადგან ჩვენ ამ დისკუსიას არ შემოვიფარგლებით რობოტით, მაგალითად, რომელიც შესაძლოა რეალურად იჯდეს სავარძელში. მე მეტაფორულად ვგულისხმობ იმ მოსაზრებას, რომ AI სადღაც მონაწილეობს ამოცანაში და ასევე არის ადამიანი. ფიზიკურად, მათი ადგილსამყოფელი არ არის განსაკუთრებით მნიშვნელოვანი დისკუსიისთვის.

შეიძლება არ იყოთ დარწმუნებული, როდის შეიძლება წარმოიშვას ასეთი გარემოება.

ადვილი პეიზაჟი.

მოგვიანებით განვიხილავ ავტონომიური მანქანების და თვითმართვადი მანქანების გამოჩენას. ავტონომიის გარკვეულ დონეზე, ხელოვნური ინტელექტი და ადამიანი ერთად უნდა იმუშაონ. ხელოვნური ინტელექტი შეიძლება მართავს მანქანას და მოითხოვოს, რომ ადამიანმა აიღოს მართვის კონტროლი. ადამიანი შეიძლება მართავდეს მანქანას და გაააქტიუროს AI კონტროლის სამართავად. ისინი მორიგეობით დგანან მართვის სამართავთან.

გარდა ამისა, ზოგიერთ დიზაინს აქვს AI არსებითად აქტიური მუდმივად (ან, თუ გამორთული არ არის), ისე, რომ AI ყოველთვის მზად არის. გარდა ამისა, AI შეიძლება უშუალოდ ჩაერიოს, თუნდაც ადამიანის თხოვნის გარეშე, განვითარებული სიტუაციიდან გამომდინარე. მაგალითად, დავუშვათ, რომ ადამიანს თითქოს საჭესთან ჩაეძინა. ვინაიდან ადამიანს არ შეუძლია ერთი შეხედვით გაააქტიუროს ხელოვნური ინტელექტი (რადგან ადამიანს სძინავს), AI შეიძლება იყოს დაპროგრამებული ისე, რომ აკონტროლებს ადამიანს.

ზოგიერთი დიზაინი აჰყავს AI და ადამიანებს ორმაგი მართვის მიდგომაში. AI მართავს და ადამიანი მართავს. ან, თუ გირჩევნიათ, ადამიანი მართავს და AI ასევე მართავს. თითოეული მათგანი მართავს მანქანას. მე ამას ვადარებ სპეციალურად გაყალბებულ მანქანებს, რომლებსაც შესაძლოა იყენებდეთ მძღოლის სწავლებისას და მანქანაში იყო მართვის მართვის ორი კომპლექტი, ერთი სტუდენტი მძღოლისთვის და მეორე მართვის ინსტრუქტორისთვის.

ეს მხოლოდ ერთი მაგალითია იმ გარემოებისა, სადაც ხელოვნური ინტელექტი და ადამიანები შესაძლოა ერთობლივად მუშაობდნენ დავალებაზე. ყველანაირი შესაძლებლობა არსებობს. სხვა სახის ავტონომიური სატრანსპორტო საშუალებები შეიძლება შეიქმნას ანალოგიურად, როგორიცაა თვითმფრინავები, დრონები, წყალქვეშა ნავები, ზედაპირული ხომალდები, მატარებლები და ა.შ. ჩვენ არ გვჭირდება მხოლოდ სატრანსპორტო და სატრანსპორტო პარამეტრების გათვალისწინება. წარმოიდგინეთ სამედიცინო დომენი და ოპერაციები, რომლებსაც ერთობლივად ატარებენ ექიმი და AI სისტემა. სია უსასრულოა.

თითქმის მინდა ვგულისხმობ კლასიკურ ამაღელვებელ ხუმრობას ადამიანისა და ხელოვნური ინტელექტის შესახებ, რომლებიც ბარში ერთად შედიან. ეს საკმაოდ სასაცილოა ხელოვნური ინტელექტის მოყვარულთათვის.

სერიოზულად, მოდით დავუბრუნდეთ ადამიანის და ხელოვნური ინტელექტის სისტემის ფოკუსს, რომელიც ერთად მუშაობს მოცემულ ამოცანაზე. პირველ რიგში, მსურს თავიდან ავიცილოთ ხელოვნური ინტელექტის ანთროპომორფიზაცია, რასაც ხაზს ვუსვამ მთელს მსოფლიოში. AI არ არის მგრძნობიარე. გთხოვთ გაითვალისწინოთ ეს.

აქ არის რაღაც გასათვალისწინებელი: იქნება თუ არა დანიშნული ადამიანი მარყუჟში ყოველთვის სრულ თანხმობაში თანაგუნდელ AI-სთან?

ნებისმიერი რთული ამოცანისთვის ნაკლებად სავარაუდოა, რომ ადამიანი და ხელოვნური ინტელექტი სრულყოფილად და ყოველთვის სრულად ჩაკეტილი იქნებიან. ადამიანი ზოგიერთ შემთხვევაში შესაძლოა არ დაეთანხმოს AI-ს. ჩვენ შეგვიძლია მივიღოთ ეს ვარაუდი ბანკამდე.

მსურს თქვენც განიხილოთ ეს ალბათ გასაოცარი შესაძლებლობაც: იქნება თუ არა ხელოვნური ინტელექტი ყოველთვის აბსოლუტურ თანხმობაში დანიშნულ ადამიანთან?

ისევ და ისევ, ნებისმიერი რთული ამოცანისთვის, სავსებით წარმოუდგენელია, რომ ხელოვნური ინტელექტი ზოგიერთ შემთხვევაში არ იქნება შეთანხმებული ადამიანებთან. თუ თქვენ უკვე მიდრეკილნი ხართ იმ აზრზე, რომ ხელოვნური ინტელექტი ყოველთვის არასწორი უნდა იყოს, ხოლო ადამიანები ყოველთვის მართლები, გონივრული იქნება, გადახედოთ ამ ნაჩქარევ დასკვნას. წარმოიდგინეთ მანქანა, რომელსაც ადამიანი და ხელოვნური ინტელექტი ერთობლივად მართავენ ნახევრად ავტონომიურ მანქანას. ადამიანი მიემართება აგურის კედლისკენ. რატომ? ჩვენ არ ვიცით, შესაძლოა ადამიანი ნასვამ მდგომარეობაშია ან დაიძინა, მაგრამ ვიცით, რომ აგურის კედელს შეჯახება არ არის კარგი იდეა, სხვა ყველაფერი თანაბარია. AI შეიძლება აღმოაჩინოს მოახლოებული უბედურება და შეეცადოს თავი აარიდოს მოახლოებულ ბარიერს.

ყოველივე ამის შემდეგ, ჩვენ გვექნება აშკარა შესაძლებლობა, რომ ხელოვნური ინტელექტი და ადამიანები ერთმანეთს უთანხმოდნენ. იგივეს თქმის სხვა გზა არის ადამიანები და AI არ ეთანხმებიან ერთმანეთს. გაითვალისწინეთ, რომ არ მსურს, რომ AI-and-human-ის და ადამიანის-და-AI-ის თანმიმდევრობამ რაიმეს მიგვანიშნოს უთანხმოების მიმართულებისა და დამაჯერებლობის შესახებ.

ორი თანამშრომელი, ერთი ადამიანი და ერთი ხელოვნური ხელოვნური ინტელექტის მქონე, არ ეთანხმებიან ერთმანეთს.

ჩვენ შეგვიძლია წინასწარ განვაცხადოთ, რომ როდესაც ხდება უთანხმოება მოცემულ AI-სა და მოცემულ ადამიანს შორის, ჩვენ წინასწარ ვაცხადებთ, რომ ადამიანი აჭარბებს AI-ს. როგორც ითქვა, ჩემი საილუსტრაციო მაგალითი მანქანის შესახებ, რომელიც აგურის კედელში მიდის, როგორც ჩანს, გვარწმუნებს, რომ ადამიანი ყოველთვის მართალი იქნება.

ამის საპირისპიროდ, ჩვენ შეგვიძლია ავირჩიოთ წინასწარ განვაცხადოთ, რომ როდესაც უთანხმოება წარმოიქმნება, წინასწარ დაგვედგინა, რომ AI არის სწორი და ადამიანი არასწორი. არც ეს არის გონივრულად განზოგადებული დებულება. წარმოიდგინეთ მანქანა, რომელშიც AI-ს აქვს ჩაშენებული პროგრამული შეცდომა ან ხარვეზი, და AI ცდილობს მანქანა გადააგდოს გზიდან და თხრილში. თუ ვივარაუდებთ, რომ ყველაფერი თანაბარია, ადამიანს უნდა შეეძლოს გადალახოს ეს AI მამოძრავებელი მოქმედება და თავიდან აიცილოს მანქანა ხევში დაშვებისგან.

მოდით გავაკეთოთ ამის მოკლე შეჯამება:

  • იქნება თუ არა ადამიანი-ის მარყუჟში ყოველთვის აბსოლუტური შეთანხმება AI-სთან? პასუხი: პოსტები
  • იქნება თუ არა ხელოვნური ინტელექტი ყოველთვის აბსოლუტურ შეთანხმებულ ადამიანთან? პასუხი: არა.
  • ყოველთვის იქნება მართალი ადამიანი AI-სთან შედარებით? პასუხი: Არ არის აუცილებელი.
  • იქნება თუ არა ხელოვნური ინტელექტი ყოველთვის მართალი ადამიანის მარყუჟთან შედარებით? პასუხი: არ არის აუცილებელი.

თქვენ, რა თქმა უნდა, შეგიძლიათ დააყენოთ ხელოვნური ინტელექტი ისე, რომ ნაგულისხმევად განიხილებოდეს როგორც „არასწორი“ ან სუსტი მხარე და, შესაბამისად, ყოველთვის მიმართოთ ადამიანს, როცა უთანხმოება გამოჩნდება. ანალოგიურად, თქვენ შეგიძლიათ დააყენოთ AI, რომ ვივარაუდოთ, რომ AI ითვლება „სწორად“, როდესაც ადამიანი არ ეთანხმება AI-ს. მინდა განვმარტო, რომ ჩვენ შეგვიძლია ამის გაკეთება პროგრამულად, თუ ამის სურვილი გვაქვს. თუმცა ვამტკიცებ, რომ ზოგადად, ეს ყოველთვის ასე არ იქნება. რა თქმა უნდა, არსებობს პარამეტრები, რომლებშიც წინასწარ არ ვიცით, არის თუ არა ხელოვნური ინტელექტი „მართალი“ თუ ადამიანი „მართალი“ ამა თუ იმ ამოცანასთან დაკავშირებული უთანხმოების არჩევის თვალსაზრისით.

მე მიგიყვანეთ ძალიან მნიშვნელოვან და ძალიან რთულ კითხვამდე.

რა უნდა გავაკეთოთ, როდესაც პროფესიული უთანხმოება წარმოიქმნება ადამიანის მარყუჟსა და AI-ს შორის (ან, ექვივალენტურად, შეგვიძლია გამოვხატოთ ეს, როგორც AI-სა და ადამიანის მარყუჟში)?

ნუ ეცდებით შეკითხვის თავიდან აცილებას.

ზოგიერთი შეიძლება ამტკიცებდეს, რომ ეს არასდროს მოხდებოდა, მაგრამ როგორც მე ავღნიშნე ჩემს მაგალითში მანქანის შესახებ, ეს აუცილებლად შეიძლება მოხდეს. ზოგიერთი შეიძლება ამტკიცებდეს, რომ ადამიანი აშკარად უპირატესია და ნებისმიერი უთანხმოების გამარჯვებული უნდა იყოს. მანქანის და აგურის კედელი ჩემს მაგალითს ანადგურებს. არსებობენ ხელოვნური ინტელექტის მომხრეები, რომლებიც შეიძლება დაჟინებით მოითხოვონ, რომ AI უნდა იყოს გამარჯვებული, იმის გამო, რომ ვითომ ადამიანური ემოციების დაძლევა და უაზრო აზროვნება ამ უაზრო მოაზროვნე ადამიანების მიერ. კიდევ ერთხელ, ჩემი სხვა მაგალითი, რომელიც გულისხმობს თხრილში მიმავალ მანქანას, არღვევს ამ მტკიცებას.

რეალურ სამყაროში, ხელოვნური ინტელექტი და ადამიანები უთანხმოდებიან, მაშინაც კი, როდესაც ეს ორი მიზანმიმართულად მოჰყავთ გუნდურ სიტუაციაში ერთობლივად შესრულებული დავალების შესასრულებლად. ეს მოხდება. ჩვენ არ შეგვიძლია თავი ქვიშაში ჩავდოთ და ვიფიქროთ, რომ ეს არ მოხდება.

ჩვენ დავინახეთ, რომ თვითმფრინავის მფრინავი ადამიანები აშკარად უთანხმოებაში წავიდნენ. საბედნიეროდ, ისინი შეთანხმდნენ, რომ არ დაეთანხმნენ, ასე ჩანს. მათ თვითმფრინავი ტერმინალში დააბრუნეს. მათ იპოვეს უთანხმოების გამკლავების საშუალება. მათი უთანხმოების გადაწყვეტა კარგად გამოუვიდა, იმ ფაქტთან შედარებით, რომ შესაძლოა ისინი კაბინაში მუშტებს შეეყარნენ ან შესაძლოა ჰაერში აფრინდნენ და განაგრძეს ერთმანეთთან ბრძოლა. ეს არის სამწუხარო სცენარი, რომელიც დაუსაბუთებელია და შეიძლება მადლობელი ვიყოთ, რომ ეს არ მოხდა.

ნება მომეცით მოგაწოდოთ ჩემი სია იმ სხვადასხვა გზების შესახებ, რომლითაც შეიძლება მოგვარდეს ხელოვნური ინტელექტისა და ადამიანის ჩარევა (ან, ადამიანის ციკლი და AI) უთანხმოება:

  • ხელოვნური ინტელექტი და გაერთიანებული ადამიანები ამუშავებენ საკითხებს (მეგობრულად თუ არა)
  • ნაგულისხმევად ადამიანი ჭარბობს AI-ს
  • AI ჭარბობს ადამიანზე, ნაგულისხმევად
  • ნაგულისხმევად ჭარბობს სხვა წინასწარ განსაზღვრული ფიქსირებული გარჩევადობა
  • მესამე მხარის ადამიანი ჩართულია და მათი მითითება ჭარბობს მხარეებს
  • მესამე მხარის AI არის ჩართული და მისი მითითება ჭარბობს მხარეებს
  • მესამე მხარის ადამიანი ცვლის არსებულ ადამიანს, ყველაფერი თავიდან განვითარდება
  • მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ AI-ს, საქმეები კვლავ განახლდება
  • მესამე მხარის ადამიანი ცვლის არსებულ AI-ს, ყველაფერი თავიდან განვითარდება (ახლა ადამიანიდან ადამიანზე)
  • მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ ადამიანს, ყველაფერი ახლიდან მიდის (ახლა AI-to-AI)
  • სხვა

ისინი უხვად იმსახურებენ გახსნას.

სანამ კიდევ ცოტა ხორცსა და კარტოფილს შევეხებით ველური და მატყლის მოსაზრებების შესახებ, რომლებიც საფუძვლად უდევს, თუ როგორ უნდა გაუმკლავდეთ ხელოვნურ ინტელექტს და ადამიანურ უთანხმოებებს, მოდით ჩამოვთვალოთ რამდენიმე დამატებითი საფუძვლები ღრმად აუცილებელ თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ ხელოვნური ინტელექტის ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას AI და ადამიანს შორის უთანხმოებაზე.

მე ადრე აღვნიშნე, ეს არის უთანხმოების გადაჭრის რამდენიმე სტრატეგია:

  • ხელოვნური ინტელექტი და გაერთიანებული ადამიანები ამუშავებენ საკითხებს (მეგობრულად თუ არა)
  • ნაგულისხმევად ადამიანი ჭარბობს AI-ს
  • AI ჭარბობს ადამიანზე, ნაგულისხმევად
  • ნაგულისხმევად ჭარბობს სხვა წინასწარ განსაზღვრული ფიქსირებული გარჩევადობა
  • მესამე მხარის ადამიანი ჩართულია და მათი მითითება ჭარბობს მხარეებს
  • მესამე მხარის AI არის ჩართული და მისი მითითება ჭარბობს მხარეებს
  • მესამე მხარის ადამიანი ცვლის არსებულ ადამიანს, ყველაფერი თავიდან განვითარდება
  • მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ AI-ს, საქმეები კვლავ განახლდება
  • მესამე მხარის ადამიანი ცვლის არსებულ AI-ს, ყველაფერი თავიდან განვითარდება (ახლა ადამიანიდან ადამიანზე)
  • მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ ადამიანს, ყველაფერი ახლიდან მიდის (ახლა AI-to-AI)
  • სხვა

დროა ამოალაგოთ ეს.

პირველ რიგში, გაითვალისწინეთ, რომ ეს ყველაფერი ეხება პროფესიული უთანხმოებები.

პროფესიული უთანხმოება თავისუფლად განისაზღვრება, როგორც უთანხმოება, რომელიც დაკავშირებულია სამუშაოსთან დაკავშირებულ დავალებასთან.

მაგალითად, უთანხმოება, რომელიც წარმოიქმნება პილოტსა და კოპილოტს შორის, გააგრძელონ თუ არა ფრენა, რომელიც ქარიშხლის წინაშე დგას, შეიძლება გონივრულად შეფასდეს, როგორც პროფესიული უთანხმოება. ამის საპირისპიროდ, მწვავე უთანხმოება იმის შესახებ, თუ რომელი ბრენდის ყავის მომხრეა პილოტი იმ ბრენდის წინააღმდეგ, რომელსაც კოპილოტი ანიჭებს უპირატესობას, ამ კონკრეტულ კონტექსტში ადვილად კლასიფიცირდება, როგორც არაპროფესიონალური უთანხმოება.

რა თქმა უნდა, თუ არაპროფესიული უთანხმოება პროფესიულ უთანხმოებაში გადაიქცევა, ჩვენ შეიძლება საბოლოოდ დავინტერესდეთ არაპროფესიონალური უთანხმოებით, როგორც სავარაუდო წყარო ან ნაპერწკალი პროფესიულისთვის. წარმოიდგინეთ, რომ პილოტი და მეორე პილოტი მწარედ კამათობენ იმაზე, თუ რომელი ბრენდის ყავა არის საუკეთესო, რაც, სამწუხაროდ, გადაიქცევა ფრენის სპეციფიკურ საკითხებში (სიტყვა!), როგორიცაა აფრენა თუ არა.

მეორეც, ჩვენ უნდა გვახსოვდეს პროფესიული უთანხმოების სიდიდე.

შესაძლოა პილოტი და მეორე პილოტი ან ზომიერი უთანხმოება ფრენის გაგრძელებაზე. ისინი არ ჩხუბობენ და უბრალოდ ფიქრობენ დადებითი და უარყოფითი მხარეების აფრენაზე. ეს არ არის პროფესიული უთანხმოების კალიბრი ან მასშტაბები, რომელსაც ჩვენ ჩვეულებრივ განვიხილავთ აქ. საქმე იმაშია, რომ შესაძლოა, პროფესიული უთანხმოება დროებითია და ორივე მხარე გულთბილად ან დროულად მაინც შეიმუშავებს გადაწყვეტილებას. ზოგადად, პროფესიული უთანხმოების ფოკუსი არის ისეთები, რომლებიც ერთი შეხედვით გადაუჭრელია და ორივე მხარე მტკიცედ რჩება უთანხმოებაში.

მესამე, ჩვეულებრივ, რაღაც სერიოზულად უნდა არსებობდეს, რომ ეს გაიდლაინები ამოქმედდეს.

ფრენის ან არ ფრენის არჩევა არის გადაწყვეტილი სიცოცხლისა და სიკვდილის ერთგვარი გადაწყვეტილება, თუ ფრენა საფრთხეშია ქარიშხლის გამო ან თვითმფრინავი ითვლება არასრულყოფილად მომზადებული ასეთი მოგზაურობისთვის. ეს სერიოზული ბიზნესია. ჩვენ მაინც შეგვიძლია გამოვიყენოთ გაიდლაინები ნაკლებად გავლენიან პროფესიულ უთანხმოებებზე, თუმცა ეს შეიძლება იმაზე მეტად შეწუხდეს, ვიდრე ღირს.

კარგი, ჩვენი მოსაზრებები ასეთია:

  • უთანხმოება ძირითადად პროფესიონალურად არის ორიენტირებული და არა რაიმე არაპროფესიულზე
  • უთანხმოება მდგრადი ხასიათისაა და არა მხოლოდ გარდამავალი ან სხვაგვარად ადვილად მოგვარებული
  • უთანხმოება წინასწარმეტყველებს სერიოზულ შედეგებს და, როგორც წესი, გავლენიანი შედეგია
  • მხარეები დაპირისპირებულნი არიან და ისინი, როგორც ჩანს, მოუგვარებელია

მოდით ახლა უფრო დეტალურად გადავხედოთ ჩემს თითოეულ შემოთავაზებულ სახელმძღვანელოს ან მიდგომას, თუ როგორ გავუმკლავდეთ ასეთ პროფესიულ უთანხმოებებს.

ხელოვნური ინტელექტი და გაერთიანებული ადამიანები ამუშავებენ საკითხებს (მეგობრულად თუ არა)

სიას ვიწყებ პირდაპირი შესაძლებლობით, რომ ხელოვნური ინტელექტისა და ადამიანის მარყუჟში შეძლეს გადაჭრას პროფესიული უთანხმოება ერთმანეთთან. როგორც ჩანს, შესაძლოა ორი ადამიანის, პილოტისა და კოპილოტის შემთხვევა ასახავს ამგვარ გარემოებას. მათ რატომღაც გადაწყვიტეს დაბრუნებულიყვნენ ტერმინალში და წასულიყვნენ თავიანთი გზებით. შესაძლოა, ხელოვნური ინტელექტის სისტემამ და ადამიანმა შეძლოს მოგვარების მიდგომა, რომელიც ზოგადად დამაკმაყოფილებელია ორივე მხარისთვის და ამით საკითხი დამაკმაყოფილებლად დასრულებულია.

ნაგულისხმევად ადამიანი ჭარბობს AI-ს

ხელოვნური ინტელექტის დაყენებისას, ჩვენ შეიძლება დავაპროგრამოთ წესი, რომელიც ამბობს, რომ ადამიანი-ში-ციკლი ყოველთვის ჭარბობს, როცა პროფესიული უთანხმოება წარმოიქმნება. ეს იქნება აშკარად კოდირებული ნაგულისხმევი. ჩვენ ასევე შეიძლება დავუშვათ რაიმე სახის უგულებელყოფა, ყოველი შემთხვევისთვის, თუმცა მუდმივი წესი იქნება, რომ ადამიანი ჭარბობს.

AI ჭარბობს ადამიანზე, ნაგულისხმევად

ხელოვნური ინტელექტის დაყენებისას, ჩვენ შეიძლება დავაპროგრამოთ წესი, რომელიც ამბობს, რომ ხელოვნური ინტელექტი ყოველთვის ჭარბობს ადამიანთა წრეში, როდესაც პროფესიული უთანხმოება წარმოიქმნება. ეს არის აშკარად კოდირებული ნაგულისხმევი. ჩვენ ასევე შეიძლება დავუშვათ რაიმე სახის უგულებელყოფა, ყოველი შემთხვევისთვის, თუმცა მუდმივი წესი იქნება, რომ AI ჭარბობს.

ნაგულისხმევად ჭარბობს სხვა წინასწარ განსაზღვრული ფიქსირებული გარჩევადობა

ხელოვნური ინტელექტის დაყენებისას, ჩვენ შეიძლება დავაპროგრამოთ წესი, რომელიც ამბობს, რომ სხვა წინასწარ განსაზღვრული ფიქსირებული გარჩევადობა გაიმარჯვებს, როდესაც პროფესიული უთანხმოება წარმოიქმნება ადამიანის ციკლთან. ადამიანის მარყუჟი ნაგულისხმევად არ ჭარბობს. AI ნაგულისხმევად არ ჭარბობს. არსებობს სხვა წინასწარ განსაზღვრული რეზოლუცია. მაგალითად, შესაძლოა, არის მონეტის სროლა, რომელიც გამოყენებული იქნება იმის გადასაწყვეტად, თუ რომელი მხარე ითვლება სწორ გზად. ეს, ცხადია, საკმაოდ თვითნებურად გამოიყურება; ამრიგად, მიდგომის კიდევ ერთი მაგალითი იქნება სპეციალიზებული წესი, რომელიც ითვლის მნიშვნელობას ორი მხარის შეყვანის საფუძველზე და მიიღწევა შედეგამდე, როგორც დამარღვეველი.

მესამე მხარის ადამიანი ჩართულია და მათი მითითება ჭარბობს მხარეებს

პროფესიული უთანხმოების შემთხვევაში, წესი შეიძლება იყოს ის, რომ მესამე მხარე, რომელიც არის ადამიანი, გამოიძახეს და შემოიფარგლება გარემოში, რათა მიიღონ გადაწყვეტილება უთანხმოების მოგვარების შესახებ. ხელოვნური ინტელექტი დაპროგრამებულია, რათა გადადოს ის, რასაც მესამე მხარის ადამიანი გადაწყვეტს. ადამიანი უკვე მყოფ ადამიანს წინასწარ მიეცა ინსტრუქტაჟი, რომ თუ ასეთი სიტუაცია წარმოიქმნება, მათაც უნდა გადადონ მესამე მხარის ადამიანზე. გარდა ამისა, თქვენ სავარაუდოდ წინასწარ უნდა ველოდოთ, რომ ადამიანი მარყუჟში შეიძლება ჰქონდეს შფოთვა იმის გამო, რომ შეუერთდეს იმას, რასაც მესამე მხარის ადამიანი გადაწყვეტს, თუ გადაწყვეტილება არ ეთანხმება ადამიანის მარყუჟის პოზას.

მესამე მხარის AI არის ჩართული და მისი მითითება ჭარბობს მხარეებს

პროფესიული უთანხმოების შემთხვევაში, წესი შეიძლება იყოს ის, რომ მესამე მხარე, რომელიც არის სხვა ხელოვნური ხელოვნური სისტემა, გამოიძახონ და ჩაერთონ პარამეტრში, რათა მიიღონ გადაწყვეტილება უთანხმოების მოგვარების შესახებ. ორიგინალური AI დაპროგრამებულია ისე, რომ გადადოს ის, რასაც მესამე მხარის AI გადაწყვეტს. ადამიანს უკვე მიეცა ინსტრუქტაჟი, რომ თუ ასეთი სიტუაცია წარმოიქმნება, მათაც უნდა გადადონ მესამე მხარის AI. როგორც განზე, თქვენ სავარაუდოდ წინასწარ უნდა ველოდოთ, რომ ადამიანი ციკლში შეიძლება ჰქონდეს შფოთვა იმის გამო, რომ შეუერთდეს იმას, რასაც მესამე მხარის AI გადაწყვეტს, თუ გადაწყვეტილება არ ეთანხმება ადამიანის მარყუჟის პოზას.

მესამე მხარის ადამიანი ცვლის არსებულ ადამიანს, ყველაფერი თავიდან განვითარდება

პროფესიული უთანხმოების შემთხვევაში, ადამიანის მარყუჟში ჩანაცვლებულია მესამე მხარე, რომელიც არის ადამიანი და რომელიც ამიერიდან ხდება ადამიანის მარყუჟში. ადამიანი, რომელიც იყო ამოცანის თავდაპირველი ადამიანი, აღარ განიხილება ამოცანის ნაწილად. ეს არის ღია ასპექტი იმის შესახებ, თუ რა ხდება სხვაგვარად ახლა შეცვლილი ადამიანის მარყუჟში, მაგრამ ჩვენ ვამბობთ, რომ მათ ნამდვილად აღარ აქვთ რაიმე მუდმივი როლი სამუშაო ამოცანაში.

მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ AI-ს, საქმეები კვლავ განახლდება

პროფესიული უთანხმოების შემთხვევაში, AI იცვლება მესამე მხარის AI-ით და ეს ხდება ამიერიდან AI, რომელიც გამოიყენება სამუშაო ამოცანისთვის. ხელოვნური ინტელექტი, რომელიც თავდაპირველად გამოიყენებოდა ამოცანისთვის, აღარ განიხილება ამოცანის ნაწილად. ეს არის ღია ასპექტი იმის შესახებ, თუ რა ხდება სხვაგვარად ახლა შეცვლილ AI-სთან, მაგრამ ჩვენ ვამბობთ, რომ AI-ს აღარ აქვს რაიმე მუდმივი როლი სამუშაო ამოცანაში.

მესამე მხარის ადამიანი ცვლის არსებულ AI-ს, ყველაფერი თავიდან განვითარდება (ახლა ადამიანიდან ადამიანზე)

პროფესიული უთანხმოების შემთხვევაში, ხელოვნური ინტელექტის შეცვლა ხდება მესამე მხარის ადამიანით, რომლისთვისაც ეს ადამიანი ახლა ხდება განხილული თანაგუნდელი მხარე, რომელიც გამოყენებული იქნება სამუშაო ამოცანის შესასრულებლად. ხელოვნური ინტელექტი, რომელიც თავდაპირველად გამოიყენებოდა ამოცანისთვის, აღარ განიხილება ამოცანის ნაწილად. ეს არის ღია ასპექტი იმის შესახებ, თუ რა ხდება სხვაგვარად ახლა შეცვლილ AI-სთან, მაგრამ ჩვენ ვამბობთ, რომ AI-ს აღარ აქვს რაიმე მუდმივი როლი სამუშაო ამოცანაში. მოკლედ, ახლა ეს ხდება ორმხრივი ამოცანა, რომელიც შესრულებულია ადამიანიდან ადამიანზე.

მესამე მხარის ხელოვნური ინტელექტი ცვლის არსებულ ადამიანს, ყველაფერი ახლიდან მიდის (ახლა AI-to-AI)

პროფესიული უთანხმოების შემთხვევაში, ადამიანის ციკლში ჩანაცვლება ხდება მესამე მხარის AI-ით და ეს AI ხდება ამიერიდან წინა ადამიანის ციკლის შევსება. ადამიანი, რომელიც იყო ამოცანის თავდაპირველი ადამიანი, აღარ განიხილება ამოცანის ნაწილად. ეს არის ღია ასპექტი იმის შესახებ, თუ რა ხდება სხვაგვარად ახლა შეცვლილი ადამიანის მარყუჟში, მაგრამ ჩვენ ვამბობთ, რომ მათ ნამდვილად აღარ აქვთ რაიმე მუდმივი როლი სამუშაო ამოცანაში. მოკლედ, ეს ახლა ხდება ორმხრივი AI-to-AI დავალების შესასრულებლად.

სხვა

პროფესიონალური უთანხმოების დასაძლევად სხვა ვარიაციები შეიძლება მოფიქრებული იყოს, მაგრამ ჩვენ აქ განვიხილეთ რამდენიმე ძირითადი პუნქტი.

როგორ გადავწყვიტოთ ამ მიდგომებიდან რომელი იქნება სწორი მოცემული სიტუაციისთვის?

ასეთი არჩევანის გაკეთებისას უამრავი საკითხია. არსებობს ტექნოლოგიური მოსაზრებები. არის საქმიანი მოსაზრებები. არსებობს სამართლებრივი და ეთიკური მოსაზრებები.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა. ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ოპტიმიზაციის გზით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის განუყოფელი ქცევა ხელოვნური ინტელექტის განვითარებისა და განვითარებისთვის სასიცოცხლოდ მნიშვნელოვანია შესაბამისი ხელოვნური ინტელექტის წარმოებისთვის, მათ შორის (შესაძლოა გასაკვირი ან ირონიულად) შეფასებისთვის, თუ როგორ მიიღება AI ეთიკა ფირმების მიერ.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ფაქტობრივად, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონებს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რაიმეს აშუქებს ხელოვნურ ინტელექტისა და ადამიანის უთანხმოების გადაწყვეტის შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ხელოვნური ინტელექტი ადამიანის წინააღმდეგ

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

სრულად ავტონომიური მანქანებისთვის შეიძლება არ არსებობდეს პროფესიული უთანხმოების შანსი ადამიანსა და ხელოვნურ ინტელექტს შორის, იმის გამო, რომ არ არსებობს ადამიანი-ში-დაწყებული. დღევანდელი თვითმართვადი მანქანების მრავალი მწარმოებლის მისწრაფება არის მთლიანად ამოიღონ ადამიანი მძღოლის მართვის სამუშაოდან. მანქანა არც კი შეიცავს ადამიანისათვის ხელმისაწვდომ მართვის კონტროლს. ასეთ შემთხვევაში, ადამიანი მძღოლი, თუ ესწრება, ვერ მიიღებს მონაწილეობას მართვის დავალებაში, რადგან მათ არ აქვთ წვდომა მართვის ნებისმიერ სამართავზე.

ზოგიერთი სრულად ავტონომიური სატრანსპორტო საშუალებისთვის, ზოგიერთი დიზაინი ჯერ კიდევ საშუალებას აძლევს ადამიანს იყოს ციკლში, თუმცა ადამიანი საერთოდ არ უნდა იყოს ხელმისაწვდომი ან მონაწილეობა მიიღოს მართვის პროცესში. ამრიგად, ადამიანს შეუძლია მონაწილეობა მიიღოს სატრანსპორტო საშუალებებში, თუ მას ეს სურს. არავითარ შემთხვევაში, AI არ არის დამოკიდებული ადამიანზე, რათა შეასრულოს რომელიმე მამოძრავებელი დავალება.

ნახევრად ავტონომიური სატრანსპორტო საშუალებების შემთხვევაში, არსებობს ხელიხელჩაკიდებული ურთიერთობა მძღოლსა და AI-ს შორის. ადამიანს მძღოლს შეუძლია მთლიანად აიღოს მართვის კონტროლი და არსებითად შეაჩეროს AI-ს მართვაში მონაწილეობა. თუ მძღოლს სურს AI აღადგინოს მამოძრავებელ როლში, მათ შეუძლიათ ამის გაკეთება, თუმცა ეს ზოგჯერ აიძულებს ადამიანს უარი თქვას მართვის კონტროლზე.

ნახევრად ავტონომიური ოპერაციის კიდევ ერთი ფორმა გულისხმობს ადამიანის მძღოლს და AI-ს გუნდურ მუშაობას. AI მართავს და ადამიანი მართავს. ისინი ერთად ატარებენ მანქანას. ხელოვნური ინტელექტი შეიძლება გადაეცეს ადამიანს. ადამიანი შესაძლოა AI-ს გადაედოს.

გარკვეულ მომენტში, ხელოვნური ინტელექტის მართვის სისტემა და ადამიანის მძღოლი მარყუჟში შეიძლება მიაღწიონ „პროფესიულ უთანხმოებას“ მართვის ამოცანასთან დაკავშირებით.

იმის საილუსტრაციოდ, თუ როგორ შეიძლება იყოს პროფესიონალური უთანხმოების მოგვარების ზოგიერთი ზემოაღნიშნული წესი რთული შესასრულებლად, განიხილეთ მესამე მხარის მოწოდების მაგალითი ამ საკითხში შესვლისთვის და გადაწყვეტილების შეთავაზება გადაუჭრელი საკითხის გადასაჭრელად.

დავუშვათ, ავტომწარმოებელმა ან თვითმართვადი ტექნიკურმა ფირმამ მოაწყო დისტანციური ადამიანური ოპერატორების წვდომა მათი ფლოტის სატრანსპორტო საშუალებების მართვის სამართავზე. ადამიანის ოპერატორი ზის შორეულ ოფისში ან მსგავს გარემოში. კომპიუტერული სისტემის საშუალებით, მათ შეუძლიათ ნახონ მართვის სცენა თვითმართველ მანქანაზე დატვირთული კამერებზე და სხვა სენსორულ მოწყობილობებზე წვდომით. მათთვის ეს თითქმის ონლაინ ვიდეო თამაშის თამაშს ჰგავს, თუმცა, რა თქმა უნდა, რეალურ გარემოებებს აქვს პოტენციურად საშინელი შედეგები.

ხელოვნური ინტელექტის სისტემა და ადამიანის მძღოლი მანქანაში მოძრაობენ ნახევრად ავტონომიურ მანქანას გრძელ გზატკეცილზე. უცებ, AI-ს სურს თხრილში ჩავარდნა. ადამიანს მძღოლს არ სურს ამის გაკეთება. ორივენი ჩხუბობენ მართვის კონტროლზე.

როგორ მოგვარდება ეს?

შესაძლოა, წინასწარ დაგვედგინა, რომ ადამიანი ყოველთვის იმარჯვებს. დავუშვათ, რომ ჩვენ ავირჩიეთ არ გაგვეკეთებინა ეს.

შეგვეძლო წინასწარ დაგვედგინა, რომ AI ყოველთვის იმარჯვებს. დავუშვათ, რომ ჩვენ ავირჩიეთ ამის გაკეთება. მთლიანობაში, ჩვენ არ მივიღეთ არცერთი ეს წესი, გარდა იმისა, რომ გადავწყვიტეთ მესამე მხარის ადამიანის ჩარევა და რაიმე არსებითი ხასიათის პროფესიული უთანხმოების გადაჭრა.

ამ გამოყენების შემთხვევაში, ხელოვნური ინტელექტი და საჭესთან მყოფი ადამიანის მძღოლი იბრძვიან მართვის კონტროლისთვის. ეს არის, ვთქვათ, გადაცემული დისტანციური ადამიანის ოპერატორს (ჩვენი მესამე მხარის ადამიანი). დისტანციური ადამიანის ოპერატორი იკვლევს რა ხდება და გადაწყვეტს თავი აარიდოს თხრილს, როგორც ჩანს, თავიდან აიცილოს ის, რასაც AI ცდილობდა. ამავდროულად, დავუშვათ, რომ დისტანციური ადამიანის ოპერატორი მიემართება შემხვედრ ტრაფიკში, რისი გაკეთებაც შესაძლოა არც ხელოვნურ ინტელექტს და არც მანქანაში მყოფ ადამიანს მძღოლს არ სურდათ.

საქმე იმაშია, რომ ამ წესის განხორციელების გზა არის ის, რომ მესამე მხარის ადამიანურ ოპერატორს შეუძლია მთლიანად გადალახოს როგორც AI, ასევე ადამიანის მარყუჟში. იქნება თუ არა ეს კარგ შედეგს, რა თქმა უნდა, დარწმუნებული არ არის.

მე გამოვიყენებ ამ მაგალითს, რათა გამოვყო რამდენიმე დამატებითი ინფორმაცია ამ საკითხებთან დაკავშირებით.

თქვენ არ შეგიძლიათ თავხედური ვარაუდი, რომ მხოლოდ იმის გამო, რომ ამ წესებიდან ერთ-ერთი ამოქმედდა, მოგვარებული უთანხმოების შედეგი აუცილებლად გარანტირებული კარგი შედეგია. შეიძლება არ იყოს. არ არსებობს ყოველთვის სწორი წესი, რომლის არჩევა შესაძლებელია.

შემდეგი, ამ წესებიდან ზოგიერთი შეიძლება არ იყოს სიცოცხლისუნარიანი.

განვიხილოთ დისტანციური ადამიანის ოპერატორის ჩარევის მაგალითი, როდესაც AI და ადამიანის მძღოლი ჩხუბობენ მართვის მართვის საშუალებებზე. დისტანციურ ადამიანურ ოპერატორს შეიძლება მრავალი წამი დასჭირდეს იმის გარკვევას, თუ რა ხდება. ამ დროისთვის მანქანა შესაძლოა უკვე თხრილში აღმოჩნდეს ან რაიმე სხვა უარყოფითი შედეგი მოჰყოლოდა. ასევე, დავუშვათ, რომ მანქანის მდებარეობა გამორიცხავს დისტანციურ წვდომას, მაგალითად, ისეთ ადგილას ყოფნას, სადაც არ არის ქსელური ელექტრონული კავშირი. ან შესაძლოა მანქანის ქსელის ფუნქციები არ მუშაობს იმ კონკრეტულ მომენტში.

როგორც ხედავთ, ეს წესი შეიძლება ქაღალდზე უცნაურად გამოიყურებოდეს, თუმცა წესის რეალურ გამოყენებაში შეიძლება იყოს ძალიან რთული ან ძალიან შემთხვევითი მიდგომა. იხილეთ ჩემი კრიტიკული თვალის გაშუქება ავტონომიური მანქანებისა და თვითმართვადი მანქანების დისტანციური ოპერატორის შესახებ აქ ბმული აქ.

მსურს მოკლედ გავაშუქო კიდევ ერთი დაკავშირებული თემა, რომელსაც უფრო ღრმად გავაშუქებ მომავალ ანალიზში.

ერთ-ერთი მზარდი საზრუნავი ავტონომიური მანქანებისა და თვითმართვადი მანქანების შესახებ, რომლებიც ნახევრად ავტონომიურია, არის ე.წ. ცხელი კარტოფილის სინდრომი.

აქ არის გარიგება.

ხელოვნური ინტელექტის მართვის სისტემა და ადამიანი ერთად მართავენ. ჩნდება საშინელი მდგომარეობა. ხელოვნური ინტელექტი დაპროგრამებულია იმისთვის, რომ თავი აარიდოს მართვის ამოცანას და გადასცეს ნივთები ადამიანს, როდესაც საშინელი მომენტი დადგება. ეს ალბათ „გონივრული“ ჩანს, რადგან, როგორც ჩანს, ჩვენ ვიყენებთ წესს ადამიანის ნაგულისხმევი „გამარჯვების“ შესახებ ნებისმიერ პოტენციურ პროფესიულ უთანხმოებაში.

მაგრამ ხელოვნური ინტელექტის მიტოვება შეიძლება იყოს უფრო ბოროტი ან მზაკვრული მიზნებისთვის. შესაძლოა, ავტომწარმოებელს ან თვითმართვადი ტექნიკურ ფირმას არ სურდეს, რომ მათი ხელოვნური ინტელექტი ჩაითვალოს „დამნაშავე მხარედ“, როდესაც ავტოავარია ხდება. ერთი შეხედვით თავიდან აცილების მიზნით, რომ არ მოხდეს ასე მიმაგრება, AI უეცრად გადასცემს კონტროლს ადამიანს. ვოილა, ადამიანი ახლა სავარაუდოდ მთლიანად პასუხისმგებელია მანქანაზე.

მთავარი ის არის, რომ დავუშვათ, ხელოვნური ინტელექტი აკეთებს ამ გადაცემას, ვთქვათ, ერთი წამი დარჩა ავარიის დაწყებამდე.

ნამდვილად ექნება ადამიანს დრო ავარიის თავიდან ასაცილებლად?

სავარაუდოდ არა.

დავუშვათ, ხელოვნური ინტელექტი აკეთებს გადაცემას რამდენიმე მილიწამში ან ნანოწამში დარჩენილი. მე შემიძლია ვთქვა, რომ ადამიანს აქვს არსებითად ნულოვანი შანსი რაიმე გააკეთოს ავარიის თავიდან ასაცილებლად.

ავტომწარმოებლის ან თვითმართვადი მანქანების ფირმის პერსპექტივიდან, მათ შეუძლიათ სცადონ მოიქცნენ ისე, თითქოს ხელები სუფთა ჰქონდათ, როდესაც ასეთი ავტოკატასტროფა მოხდება. მანქანას ადამიანი მართავდა. AI არ მართავდა მანქანას. ერთადერთი „ლოგიკური“ დასკვნა, როგორც ჩანს, არის ის, რომ ადამიანი დამნაშავე უნდა იყოს და AI უნდა იყოს სრულიად უდანაშაულო.

ეს ჭურვია.

ამაზე უფრო ღრმად განვიხილავ მომავალ სვეტში.

დასკვნა

პროფესიული უთანხმოება იქნება.

ძნელი წარმოსადგენია რაიმე რთული დავალება, რომელსაც ორი მხარე ასრულებდეს დავალებას და რომლისთვისაც არასოდეს წარმოიქმნება რაიმე პროფესიული უთანხმოება. როგორც ჩანს, ეს ფანტაზიის ქვეყანაა ან თუნდაც დიდი იშვიათი.

დღეს ჩვენ გვაქვს პროფესიული უთანხმოების უამრავი შემთხვევა, ადამიანთა შორის, რისთვისაც ყოველდღიურად გადაწყვეტილებები მშვიდობიანად და გონივრულად წყდება ასე თუ ისე. სინამდვილეში, ჩვენ ხშირად ვქმნით სიტუაციებს განზრახ, რათა ხელი შევუწყოთ და გამოვავლინოთ პროფესიული უთანხმოება. თქვენ შეიძლება ამტკიცებდეთ, რომ ეს აჩვენებს ცნობილ სიბრძნეს, რომ ზოგჯერ ორი თავი ერთზე უკეთესია.

რაც უფრო გავრცელდება ხელოვნური ინტელექტი, ჩვენ გვეყოლება უამრავი ხელოვნური ინტელექტის ადამიანზე ან ადამიანის AI-ის ორმხრივი დავალების შემსრულებელი და იქნება პროფესიული უთანხმოებები რომ მოხდება. ზარმაცი მიდგომაა ყოველთვის ადამიანზე გადადო. ეს შეიძლება არ იყოს ყველაზე შესაფერისი მიდგომა. AI შეიძლება იყოს უკეთესი არჩევანი. ან რომელიმე სხვა ზემოაღნიშნული წესი შეიძლება იყოს უფრო ჯანსაღი მიდგომა.

არსებობს ის ბრძენი ხაზი, რომელიც ხშირად მეორდება, რომ ჩვენ ყველას უნდა შევთანხმდეთ უთანხმოებაზე, თუმცა როცა საქმე ეხება მავთულს, ზოგჯერ უთანხმოება ცალსახად უნდა მოგვარდეს, წინააღმდეგ შემთხვევაში საქმე უთქმელ უბედურებამდე მიგვიყვანს. ჩვენ არ შეგვიძლია დავუშვათ უთანხმოება მხოლოდ ვაზზე. დრო შეიძლება იყოს მთავარი და სიცოცხლე შეიძლება იყოს საფრთხის წინაშე.

არსებობს მკაფიო მოთხოვნა გარკვეული გონივრული საშუალებების შესახებ, რათა გადაჭრას უთანხმოება, მაშინაც კი, თუ ეს არ არის აუცილებელი, მათ შორის, როდესაც ხელოვნური ინტელექტი და ადამიანი არ ხედავს თვალ-თვალში და არც ბაიტი-ბაიტი.

მე მჯერა, რომ თქვენ არ დაეთანხმებით ამ სრულიად მისაღები კამათს.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- პილოტი და თანაპილოტი არ შეთანხმდნენ აფრენამდე და უეცრად აირჩიეს ტაქსით დაბრუნდნენ ტერმინალში და წავიდნენ ცალ-ცალკე/