ხელოვნური ინტელექტის ეთიკა ფრთხილობს ხელოვნური ინტელექტის ასიმეტრიის გაუარესების გამო იმ ფონზე, როდესაც ადამიანები იღებენ ჯოხის მოკლე ბოლოს

ხანდახან ჯოხის არასწორ ბოლოზე ხარ.

ეს კოლოკვიალიზმი შეიძლება გამოყენებულ იქნას ასიმეტრიის ცნებაზე.

დიახ, მე ვისაუბრებ ასიმეტრიაზე. როგორც თქვენ ალბათ შეგხვედრიათ ამ მღელვარე სამყაროში, რომელშიც ჩვენ ვცხოვრობთ, არის შემთხვევები, როდესაც შეიძლება აღმოჩნდეთ, რომ ნაკლები ცოდნა გაქვთ თქვენთვის შედარებით მნიშვნელოვან საკითხზე. ეს ოფიციალურად მოიხსენიება როგორც ინფორმაციის ასიმეტრია.

მთავარი ის არის, რომ თქვენ გაქვთ ნაკლები ცოდნა ან ინფორმაცია, ვიდრე გსურთ გქონდეთ, გარდა ამისა, თქვენ ნამდვილად გაქვთ ნაკლები, ვიდრე ამ საკითხში ჩართული მეორე მხარე. თქვენ აშკარად არახელსაყრელ მდგომარეობაში ხართ მეორე მხარესთან შედარებით. მათ იციან ის, რაც შენ არ იცი. მათ შეუძლიათ გამოიყენონ ის, რაც იციან, განსაკუთრებით იმ თვალსაზრისით, რაც შენ არ იცი და მიიღონ უპირატესობა თქვენთან ნებისმიერ უხეში მსჯელობისა თუ მოლაპარაკების დროს.

ისე, ქალაქში არის ახალი ბავშვი, რომელიც ცნობილია როგორც AI ასიმეტრია.

ეს უახლესი გამოთქმა ეხება იმის შესაძლებლობას, რომ წახვიდეთ ვინმესთან, რომელიც შეიარაღებულია ხელოვნური ინტელექტით, მაშინ როცა თქვენ არც ისე შეიარაღებული ხართ.

მათ გვერდით აქვთ ხელოვნური ინტელექტი, ხოლო თქვენ გაქვთ, უბრალოდ, თქვენ. საქმეები გაუგებარია. სავარაუდო მინუსში ხარ. მეორე მხარე შეძლებს თქვენს გარშემო წრეების გაშვებას ხელოვნური ინტელექტის გაძლიერების გამო. ეს შეიძლება იყოს ცნობილ გამონათქვამში, რომ სიყვარულსა და ომში ყველაფერი სამართლიანია (გამოგონილი დიდი ხნის ანდაზა ევფუსი ჯონ ლილის მიერ, 1578), თუმცა ხელოვნური ხელოვნური ინტელექტის ასიმეტრიის დინამიკა და საშიშროება იწვევს ეთიკური ხელოვნური ინტელექტის რთულ საკითხებს. AI ეთიკისა და ეთიკური AI-ის მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

სანამ ხელოვნური ინტელექტის სფეროში და მის უხვად სირთულეებს AI ასიმეტრიასთან დაკავშირებით გადავიდეთ, მოდით, ჯერ გამოვიკვლიოთ ჩვეულებრივი ძველი საინფორმაციო ასიმეტრიის ყოველდღიური რეგულარული ვერსია. ეს შექმნის ეტაპს ბლოკზე იგავ-არაკის ახალ ბავშვში შესვლისთვის.

მოკლე და მიზანმიმართულად განმანათლებლმა ზღაპრმა შესაძლოა მადა გაგიზარდოს.

მეორე დღეს გზაში ყოფნისას საბურავი გამიფუჭდა და სწრაფად ვეძებდი შესაფერისი შემცვლელის პოვნას, რომლის დამონტაჟებაც მაშინვე შეიძლებოდა. ჩემი სმარტფონის გამოყენებით, მე გადავხედე ინტერნეტში ახლომდებარე საბურავების მაღაზიებს, რათა გამეგო, რა მანძილი უნდა გამეტარებინა ჩემი საბურავებით და იყო თუ არა მაღაზიები ღია. გარდა ამისა, მე შევაფასე მათი ონლაინ მომხმარებელთა მიმოხილვები და შევეცადე შემეგროვებინა რაიმე სასარგებლო იმის შესახებ, თუ რამდენ ხანს იყვნენ ისინი ბიზნესში და სხვა ფაქტორები, რამაც შეიძლება წარმოაჩინოს მათი ღირსება.

საბურავების ერთ-ერთ მაღაზიაში დარეკვისთანავე, კლერკმა მომცა მყუდრო შეთავაზება საბურავის ღირებულებისა და მისი მონტაჟისთვის. საბურავი არ იყო ზუსტად ის, რაც მე მქონდა მხედველობაში, მაგრამ კლერკმა დამარწმუნა, რომ ისინი იქნებოდნენ ერთადერთი მაღაზია ამ მხარეში, რომელიც დაუყოვნებლივ შეძლებდა სამუშაოს შესრულებას. კლერკის თქმით, არცერთ სხვა ახლომდებარე საბურავების მაღაზიას არ ექნებოდა ასეთი საბურავი მარაგში და ამ კონკურენტებს მინიმუმ ერთი დღე დასჭირდებოდათ ნახევრად შორეული საწყობიდან შესაფერისი საბურავის მისაღებად.

ინფორმაციული ასიმეტრიის შუაგულში ვიყავი.

კლერკმა თქვა, რომ მეტი იცოდა საბურავების მაღაზიების ადგილობრივი სტატუსის შესახებ და, კერძოდ, საბურავის ტიპი, რომელიც მე მჭირდებოდა. მე ვიყავი ისეთ უბანში, სადაც მხოლოდ გადიოდი და არ მქონდა პირველი ცოდნა ამ კონკრეტულ გეოგრაფიულ არეალში საბურავების მაღაზიების შესახებ. როგორც ვიცოდი, კლერკი ადგილზე იყო და მაძლევდა გაუხსნელ სიმართლეს.

მაგრამ მოხელე ასე აკეთებდა?

შეიძლება კი, შეიძლება არა.

შესაძლოა, კლერკს გულწრფელად სჯეროდა ყველაფრის, რასაც მე გადმომეცა. კლერკისთვის ეს სიმართლე იყო. ან იქნებ კლერკი გარკვეულწილად ავრცელებდა სიმართლეს. შეიძლებოდა ნათქვამი ყოფილიყო მართალი, თუმცა მისი გამოსახვის მანერა გულისხმობდა, რომ ეს იყო სრული და უდავო სიმართლე. რა თქმა უნდა, ეს ასევე შეიძლებოდა ყოფილიყო სრული ცელქი და კლერკი მხოლოდ საბურავების მაღაზიისთვის შილინგს აძლევდა ჩემი ბიზნესის მოსაპოვებლად. შეიძლება წვნიანი კომისია ყოფილიყო ხაზზე?

მე შემიძლია ვთქვა, რომ არავის უყვარს ასეთ აუტერდოგის პოზიციაზე ყოფნა.

სიტუაციის ფსონები სასიცოცხლო ფაქტორია იმაში, თუ რამდენად მნიშვნელოვანია ინფორმაციის ასიმეტრია. თუ საქმე ეხება სიკვდილ-სიცოცხლის ხასიათს, ძაღლების სახლში ყოფნა და მეორე მხარის დამოკიდებულება იმის შესახებ, რაც მათ იციან ან ამტკიცებენ, რომ იციან, ეს არის ესკიზური და ძალიან არასასურველი პოზა. როდესაც ფსონები დაბალია. მაგალითად, რესტორანში ვახშმის შეკვეთა და სერვერი გეტყვით, რომ თევზის კერძი ზეციურია, მაგრამ აქამდე არასდროს გიჭამიათ და არასრულფასოვნად ხართ ინფორმირებული, შეგიძლიათ ამ მცირე ინფორმაციის ასიმეტრიასთან ერთად დიდი შფოთვის გარეშე (მე ასევე დავუშვათ, რომ თქვენ ასევე ფსონს დებთ, რომ სერვერი არ გარისკავს უსიამოვნო რჩევის მიცემას და გამოტოვებს ღირსეული რჩევის მიღებას).

გაცვეთილი საბურავების ამბავს რომ დავუბრუნდე (სიტყვა!), მე არ მექნებოდა მყისიერი გზა გამეგო, მაძლევდა თუ არა კლერკი სანდო და ინფორმაციულ ინფორმაციას. ალბათ გაინტერესებთ რა მოხდა. გადავწყვიტე დამერეკა რამდენიმე სხვა ახლომდებარე საბურავების მაღაზიაში.

მზად ხარ იმისთვის რაც აღმოვაჩინე?

ყველა სხვა საბურავების მაღაზიას ჰქონდა ჩემი სასურველი საბურავი მარაგში და არ აპირებდა თვალის დახამხამება დამერწმუნებინა, რომ სხვა საბურავი ამეღო (როგორც პირველი კლერკი ცდილობდა ამის გაკეთებას). მათ ასევე შეეძლოთ სამუშაოს შესრულება იმავე ვადებში, როგორც საბურავების პირველ მაღაზიას, რომელსაც მე ალბათ დავურეკე. დაახლოებით იგივე ფასად.

ჩემი მხრიდან მისასალმებელი შვებით ამოისუნთქა, გარწმუნებთ.

ბედის ირონიით, მერფის ბედ-იღბლის კანონში, პირველი ადგილი, რომელსაც დავუკავშირდი, იყო ერთადერთი, რომელიც თითქოს ლანჩზე იყო. მოხარული ვარ, რომ ვცდილობდი მეტი ინფორმაციის მოპოვებას. ამან შეამცირა ინფორმაციის ასიმეტრიის უფსკრული. ჩემს თავს ტაშს ვუკრავდი, რომ იარაღს მივაჩერდი და პირველ ადგილს არ დავთანხმდი.

როგორც ითქვა, დამატებითი ინფორმაციის მოპოვებაში გარკვეული ხარჯი იყო. მე განვახორციელე დაახლოებით ოთხი ზარი, რომელთა სრულად შესრულებას თითოეულს დაახლოებით თხუთმეტიდან ოცი წუთი დასჭირდა. ამ თვალსაზრისით, დაახლოებით საათნახევარი დავხარჯე, როცა ვხვდებოდი, სად წავიყვანო მანქანა. მე რომ სასწრაფოდ წავსულიყავი ჩემი მანქანა პირველ ადგილზე, ახალი საბურავი თითქმის იქნებოდა ჩემს მანქანაზე იმ დროისთვის. მეორეს მხრივ, მე თითქმის აუცილებლად ვნანობდი იმ სწრაფ გადაწყვეტილებას, რომელიც მივიღე საზარელი ინფორმაციული ასიმეტრიის შეზღუდვის დროს.

ხანდახან უნდა გააღრჭიო კბილები და მიიღო საშინელი ინფორმაციის ასიმეტრია, როგორც ეს ხდება. თქვენ უბრალოდ იმედოვნებთ, რომ ნებისმიერი გადაწყვეტილება, რომელსაც მიიღებთ, საკმარისად კარგი იქნება. შესაძლოა, ეს არ იყოს „იდეალური“ გადაწყვეტილება და მოგვიანებით ინანოთ გაკეთებული არჩევანი. მეორე კუთხით არის ის, რომ თქვენ შეგიძლიათ სცადოთ ინფორმაციის განტოლების თქვენი მხარის გაძლიერება, თუმცა ეს სულაც არ არის ძვირადღირებული და ასევე შეიძლება დაღეჭოთ ძვირფასი დრო, იმისდა მიხედვით, არის თუ არა მნიშვნელოვანი დრო.

ახლა, როდესაც თქვენ უდავოდ დამშვიდდით იმის გაგებით, რომ ჩემი მანქანა კარგად მუშაობს თავისი სრულიად ახალი და სწორი საბურავით, შემიძლია გადავიტანო AI ასიმეტრიის გაჩენაზე.

განვიხილოთ AI ამბავი ვაი.

თქვენ ეძებთ საცხოვრებლის სესხის აღებას. არსებობს ონლაინ იპოთეკური მოთხოვნის ანალიზატორი, რომელსაც კონკრეტული ბანკი იყენებს. ონლაინ სისტემა იყენებს დღევანდელ მოწინავე AI შესაძლებლობებს. არ არის საჭირო ადამიანური სესხის გაცემის აგენტთან საუბარი. AI ყველაფერს აკეთებს.

ხელოვნური ინტელექტის სისტემა გიბიძგებთ უამრავ მოთხოვნაში. თქვენ გულმოდგინედ ავსებთ ფორმებს და პასუხობთ AI სისტემას. ეს AI არის ძალიან მოლაპარაკე. მიუხედავად იმისა, რომ თქვენ წარსულში შესაძლოა იყენებდეთ ჩვეულებრივი კომპიუტერზე დაფუძნებული ფორმების სისტემას, ეს AI ვარიანტი უფრო ჰგავს ადამიანის აგენტთან ურთიერთობას. არა მთლად, მაგრამ საკმარისია იმისთვის, რომ თითქმის დაიჯერო, რომ ადამიანი ამ აქტივობის მეორე მხარეს იყო.

მას შემდეგ რაც ყველაფერს გააკეთებ იმისათვის, რომ "განიხილო" შენი მოთხოვნა ამ AI-ით, საბოლოოდ, ის გაცნობებთ, რომ სამწუხაროდ სესხის მოთხოვნა არ არის დამტკიცებული. როგორც ჩანს, ხელოვნური ინტელექტი ბოდიშს ითხოვს, თითქოს AI-ს სურდა სესხის დამტკიცება, მაგრამ ის ბოროტი ადამიანები, რომლებიც მეთვალყურეობენ ბანკს, არ აძლევენ AI-ს ამის უფლებას. ჩემი გაშუქებისთვის იმის შესახებ, თუ რამდენად შეცდომაში შეჰყავს ამ ტიპის სავარაუდო ხელოვნური ინტელექტის ბოდიშის მოხდა, იხილეთ ბმული აქ.

თქვენ არ იცით, რატომ მიიღეთ უარი. AI არ გვთავაზობს რაიმე ახსნას. შესაძლოა, ხელოვნურმა ინტელექტუალმა შეცდომა დაუშვა ან გააფუჭა გამოთვლები. კიდევ უფრო უარესი, დავუშვათ, რომ AI-მ გამოიყენა ძალიან საეჭვო მოსაზრებები, როგორიცაა თქვენი რასა ან სქესი სესხის მიღებისას. თქვენ მხოლოდ ის იცით, რომ თქვენ, როგორც ჩანს, ტყუილად დაკარგეთ დრო და ამასობაში გადაეცით უამრავი პირადი მონაცემები AI-ს და ბანკს. მათმა AI-მ გაგაჯობა.

ეს იქნება ეტიკეტირებული, როგორც AI ასიმეტრიის მაგალითი.

ეს შენ იყავი ბანკის წინააღმდეგ. ბანკი AI-ით იყო შეიარაღებული. თქვენ არ იყავით თანაბრად შეიარაღებული. თქვენ გქონდათ თქვენი ჭკუა და თქვენი გონივრული დარტყმის სკოლა, მაგრამ უკანა ჯიბეში არ იყო AI. გონება მანქანის წინააღმდეგ. სამწუხაროდ, ამ შემთხვევაში მანქანამ გაიმარჯვა.

რა უნდა გააკეთო?

უპირველეს ყოვლისა, ჩვენ გვჭირდება სოციალურ საფუძველზე გავაცნობიეროთ, რომ AI ასიმეტრია იზრდება და ხდება თითქმის ყველგან. ადამიანები აწყდებიან AI-ს ყველა სისტემაში, რომლებთანაც ჩვენ ყოველდღიურად ვურთიერთობთ. ზოგჯერ ხელოვნური ინტელექტი ერთადერთი ელემენტია, რომელთანაც ჩვენ ვურთიერთობთ, მაგალითად, სესხის მოთხოვნის ამ მაგალითში. სხვა შემთხვევებში, ადამიანი შეიძლება იყოს იმ წრეში, რომელიც ეყრდნობა AI-ს, რათა დაეხმაროს მათ მოცემული სერვისის შესრულებაში. სესხთან დაკავშირებით, შესაძლოა, ბანკს დაელაპარაკო ადამიანურ აგენტთან AI-სთან ურთიერთობის ნაცვლად, მაგრამ რისთვისაც ადამიანის აგენტი იყენებს კომპიუტერულ სისტემას AI-ზე წვდომისთვის, რომელიც ხელმძღვანელობს ადამიანურ აგენტს სესხის მოთხოვნის პროცესის დროს. (და თქვენ თითქმის ყოველთვის დარწმუნებული ხართ, რომ ადამიანის აგენტი იქცევა ისე, თითქოს ისინი ციხეში არიან და მკაცრად უნდა გააკეთონ ის, რასაც ხელოვნური ინტელექტი „უბრძანებს“).

ნებისმიერ შემთხვევაში, AI კვლავ ნაზავია.

მეორე, ჩვენ უნდა ვეცადოთ და დავრწმუნდეთ, რომ ხელოვნური ინტელექტის ასიმეტრია მაინც კეთდება ხელოვნური ინტელექტის ეთიკურ საფუძველზე.

ნება მომეცით ავხსნა ეს ერთი შეხედვით უცნაური შენიშვნა. ხედავთ, თუ ჩვენ შეგვიძლია გარკვეულწილად დავრწმუნდეთ, რომ AI მოქმედებს ეთიკურად ჯანსაღი წესით, ჩვენ შეიძლება გვქონდეს ნუგეში არსებული ასიმეტრიის შესახებ. გარკვეულწილად ანალოგიურ, მაგრამ ასევე თავისუფალ საფუძველზე, თქვენ შეიძლება თქვათ, რომ თუ ჩემს ურთიერთობას საბურავების მაღაზიის პირველ გამყიდველთან ჰქონდა გარკვეული მკაცრი ეთიკური სახელმძღვანელო მითითებები და აღსრულებულიყო, შესაძლოა, მე არ მეთქვა ის ამბავი, რომელიც მითხრეს, ან სულაც მე. შესაძლოა, მაშინვე არ სჭირდებოდა იმის აღმოჩენა, მაჩუქეს თუ არა მაღალ ზღაპარს.

ცოტა ხანში უფრო მეტს აგიხსნით ხელოვნური ინტელექტის ეთიკის შესახებ.

მესამე, ჩვენ უნდა ვეძებოთ გზები AI ასიმეტრიის შესამცირებლად. თუ თქვენ გქონდათ AI, რომელიც თქვენს გვერდით იყო და ცდილობდა იყოთ თქვენი მწვრთნელი ან მფარველი, თქვენ შეგეძლოთ გამოიყენოთ ეს AI სხვა ხელოვნური ინტელექტის საწინააღმდეგოდ, რომლებთანაც თქვენ მიდიხართ. როგორც ამბობენ, ხანდახან დიდი აზრი აქვს ცეცხლთან ბრძოლას.

სანამ კიდევ ცოტა ხორცსა და კარტოფილს შევეხებით ხელოვნური ხელოვნური ინტელექტის ასიმეტრიის ველური და მატყლის მოსაზრებების შესახებ, მოდით დავადგინოთ რამდენიმე დამატებითი საფუძვლები ღრმად აუცილებელ თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ ხელოვნური ინტელექტის ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას AI ასიმეტრიაზე.

მოკლე მიმოხილვა ჩემი ზემოაღნიშნული სამი გამოვლენილი რეკომენდაციის შესახებ ასეთია:

1) გაეცანით, რომ ხელოვნური ინტელექტის ასიმეტრია არსებობს და იზრდება

2) შეეცადეთ დარწმუნდეთ, რომ AI ასიმეტრია შემოიფარგლება AI ეთიკით

3) შეეცადეთ შეებრძოლოთ AI ასიმეტრიას AI-ით შეიარაღებით

ჩვენ უფრო ახლოს განვიხილავთ ცეცხლთან ბრძოლის უკანასკნელ პუნქტს.

წარმოიდგინეთ, რომ სესხის აღებისას გქონდათ ხელოვნური ინტელექტი, რომელიც თქვენს მხარეს მუშაობდა. ეს შეიძლება იყოს AI-ზე დაფუძნებული აპლიკაცია თქვენს სმარტფონზე, რომელიც შექმნილია სესხის მისაღებად. ეს არ არის ერთ-ერთი ბანკის აპლიკაცია და დამოუკიდებლად არის შექმნილი თქვენი სახელით მოქმედებისთვის. მე დეტალურად აღვწერე ამ ტიპის აპლიკაციები ჩემს წიგნში ხელოვნური ინტელექტის საფუძველზე დაფუძნებული მფარველი ანგელოზის ბოტების შესახებ, იხ. ბმული აქ.

სესხზე განაცხადის შეტანის შემდეგ, თქვენ შეგიძლიათ მიმართოთ ამ აპს, რადგან თქვენ გადააბიჯებთ განაცხადის პროცესს სხვა AI-ს მიერ. ხელოვნური ინტელექტის ეს ორი სისტემა განსხვავებული და სრულიად განცალკევებულია ერთმანეთისგან. AI თქვენს სმარტფონზე "გაწვრთნილი" იყო იმისთვის, რომ იცოდეს ყველა ის ხრიკი, რომელსაც იყენებს სხვა AI. როგორც ასეთი, პასუხები, რომლებზეც თქვენ შედიხართ ბანკის AI-ში, დაფუძნებული იქნება იმაზე, რასაც თქვენი AI გირჩევთ.

კიდევ ერთი ვარიანტი შედგება იმაში, რომ თქვენი AI პასუხობს სხვა AI-ს მიერ დასმულ კითხვებს. რამდენადაც სხვა AI-ს შეუძლია გაარკვიოს, ეს თქვენ შედიხართ პასუხებში. ამის ნაცვლად, თქვენ უბრალოდ უყურებთ, თუ როგორ ხდება ურთიერთქმედებები ორ მებრძოლ AI სისტემას შორის. ეს საშუალებას გაძლევთ ნახოთ რას გვთავაზობს თქვენი AI. გარდა ამისა, თქვენ შეგიძლიათ პოტენციურად დაარეგულიროთ თქვენი AI იმის მიხედვით, კმაყოფილი ხართ თუ არა იმით, რასაც თქვენი AI აკეთებს თქვენი სახელით.

მე ვიწინასწარმეტყველე, რომ ჩვენ ყველანი ვაპირებთ თანდათანობით ვიარაღდებით AI-ით, რომელიც ჩვენს მხარეს იქნება AI ასიმეტრიის სიტუაციებში.

მოდით განვიხილოთ, როგორ გამოვა ეს.

ეს არის ქვაკუთხედი ზემოქმედება AI ასიმეტრიის მდგომარეობაზე, რომელიც მე ჩამოვაყალიბე:

  • AI ასიმეტრიის გაბრტყელება თქვენს სასარგებლოდ (გაგიყვანთ მაღლა, თანაბარ დონეებს მიღწევის იმედით)
  • AI ასიმეტრიის გააქტიურება თქვენს სასარგებლოდ (გაზრდით თქვენ უპირატესობამდე, როდესაც უკვე თანაბარი ხართ)
  • ხელოვნური ინტელექტის ასიმეტრიის გაძლიერება თქვენს არაჩვეულებრივ სასარგებლოდ (უფრო ფართო უპირატესობის მოპოვება, როცა უკვე უპირატესობაშია)
  • ხელოვნური ინტელექტის ასიმეტრიის უნებლიე დაქვეითება თქვენს სასიკეთოდ (როდესაც ადრე არსებული უპირატესობა გქონდა და ხელოვნურმა ინტელექტუალურმა ინტელექტუალმა უნებურად ჩამოგაგდო)

დროა ღრმად ჩავუღრმავდეთ ამ საინტერესო შესაძლებლობებს.

AI ასიმეტრიის გაბრტყელება თქვენს სასარგებლოდ

ხელოვნური ინტელექტის ასიმეტრიის გაბრტყელება არის ყველაზე აშკარა და ყველაზე ხშირად განხილული მოსაზრება, კერძოდ ის, რომ თქვენ შეიარაღდებოდით AI-ით, რათა შეეცადოთ თავიდან აიცილოთ ხელოვნური ინტელექტი, რომელსაც მეორე მხარე იყენებს მოცემულ საკითხში. ხელოვნური ინტელექტის ასიმეტრიის პარამეტრი თქვენთან დაიწყო გადაწყვეტილი მინუსით. შენს კუთხეში AI არ გქონდა. დაბალ მხარეზე იყავი. მეორე მხარეს ჰქონდა AI და ისინი უფრო მაღალ ადგილზე იყვნენ.

ამრიგად, თქვენ გონივრულად შეიარაღდით AI-ით, რომელიც მიზნად ისახავდა თქვენ და სხვა AI-ს თანაბარ პირობებში დაყენებას.

ერთი მნიშვნელოვანი და, ალბათ, გასაკვირი ნიუანსი, რომელიც უნდა გვახსოვდეს, არის ის, რომ ყოველთვის არ იქნება ასე, რომ გამოყენებული AI სისტემები თანაბრად დაბალანსდეს ერთმანეთის წინააღმდეგ. თქვენ შეიძლება შეიარაღოთ ხელოვნური ინტელექტით, რაც შეიძლება ითქვას, ნაკლებად ძლიერია ვიდრე AI, რომელსაც მეორე მხარე იყენებს. ამ შემთხვევაში, თქვენ გაზარდეთ თქვენი უარყოფითი პოზიცია, საბედნიეროდ, თუმცა ახლა სრულებით არ ხართ თანაბარი მეორე მხარეს და მის AI-ს.

ამიტომ მე ამას ვუწოდებ, როგორც ხელოვნური ინტელექტის ასიმეტრიის გაბრტყელებას. თქვენ შეიძლება შეამციროთ უფსკრული, თუმცა ბოლომდე ვერ დახუროთ. საბოლოო მიზანი იქნება ხელოვნური ინტელექტის გამოყენება თქვენს მხარეს, რომელიც მიგიყვანთ სრულიად თანაბარ პოზამდე. საქმე იმაშია, რომ ეს შეიძლება იყოს ან შეუძლებელი. მეორე მხარეს შეიძლება ჰქონდეს მართლაც ძვირადღირებული ხელოვნური ინტელექტი და თქვენ ცდილობთ კონკურენცია გაუწიოთ AI-ის ეკონომიურ მარტ ვერსიას.

ყველა AI არ არის ერთნაირი.

ხელოვნური ინტელექტის ასიმეტრიის გააქტიურება თქვენს სასარგებლოდ

ეს გარემოება დღეს ბევრს არ განიხილება, ნაწილობრივ იმიტომ, რომ ის ახლა იშვიათია. ოდესმე, ეს ჩვეულებრივი გახდება. წარმოდგენა არის ის, რომ დავუშვათ, რომ თქვენ ხართ ხელოვნური ინტელექტის გარეშე და მიუხედავად ამისა, თანაბარ ადგილზე ხართ იმ მხარესთან, რომელსაც აქვს AI.

Ყოჩაღ.

ადამიანებს აქვთ მათი ჭკუა.

მაგრამ შეიძლება მოგინდეთ უპირატესობის მოპოვება მეორე მხარესთან შედარებით. ხელოვნური ინტელექტით შეიარაღება მიგიყვანთ უმაღლეს ადგილზე. ახლა თქვენ გაქვთ თქვენი ჭკუა და თქვენი სანდო AI. თქვენ მოიპოვეთ უპირატესობა, რომელიც, სავარაუდოდ, გაიმარჯვებს მეორე მხარის AI-ზე.

ხელოვნური ინტელექტის ასიმეტრიის გაძლიერება თქვენს არაჩვეულებრივ სასარგებლოდ

მსგავსი ლოგიკის გამოყენებით, როგორც AI ასიმეტრიის გააქტიურების ასპექტი თქვენი სახელით, დავუშვათ, რომ თქვენ უკვე აღემატებით მეორე მხარის შესაძლებლობებს, რომელიც იყენებს AI-ს. ასე რომ, თქვენ არ იწყებთ თანაბარი პოზით. თქვენ საბედნიეროდ უკვე ზედა მხარეს ხართ.

თქვენ შეიძლება გსურდეთ მაინც მიიღოთ კიდევ უფრო დიდი უპირატესობა. ამიტომ, თქვენ შეიარაღებულიყავით AI-ით. ეს თქვენს თავსა და მხრებს მეორე მხარეს მაღლა აყენებს.

ხელოვნური ხელოვნური ინტელექტის ასიმეტრიის უნებლიე დაქვეითება თქვენს სასიკეთოდ

მეეჭვება, რომ გსურს გაიგო ამ შესაძლებლობის შესახებ. გთხოვთ გაითვალისწინოთ, რომ AI-სთან საქმე სულაც არ არის ვარდები და ნაყინის ნამცხვრები.

შესაძლოა, როცა AI-ით იარაღდებით, რეალურად ამცირებთ საკუთარ თავს. თუ უკვე მეორე მხარის AI-ზე ნაკლები იყავი, ახლა უფრო ღრმა ხვრელში ხარ. თუ თანაბარ პირობებში იყავით, ახლა არახელსაყრელ მდგომარეობაში ხართ. თუ თქვენ მეორე მხარეს ზემოთ იყავით, ახლა მისი ტოლი ან ქვემოთ ხართ.

როგორ შეიძლებოდა ასე მომხდარიყო?

შეიძლება შოკირებული დაფიქრდეთ, რომ თქვენს მიერ მიღებული ხელოვნური ინტელექტი შეცდომაში შეგიყვანთ. ეს ადვილად შეიძლება მოხდეს. მხოლოდ იმიტომ, რომ თქვენ გაქვთ AI თქვენს კუთხეში, არ ნიშნავს რომ ის სასარგებლოა. თქვენ შესაძლოა იყენებდეთ AI-ს და ის გვაწვდის რჩევებს, რომლებიც სულაც არ მიგაჩნიათ მიზანშეწონილად, მაგრამ მაინც გადაწყვეტთ მის გამოყენებას. თქვენი იმდროინდელი ლოგიკა იყო, რომ მას შემდეგ, რაც თქვენ გაგიჭირდათ ხელოვნური ინტელექტის მოპოვება, შეიძლება მასზეც იყო დამოკიდებული.

AI, რომელსაც იყენებთ, შეიძლება იყოს დეფექტური. ან შეიძლება ცუდად იყოს შემუშავებული. არსებობს უამრავი მიზეზი, რის გამოც ხელოვნური ინტელექტი შეიძლება მოგცემთ ურყევ რჩევებს. ისინი, ვინც ბრმად იღებენ ყველაფერს, რასაც ხელოვნური ინტელექტი ამბობს, რომ უნდა გააკეთონ, აუცილებლად აღმოჩნდებიან ტკივილის სამყაროში. მე ჩემს რუბრიკაში გავაშუქე ისეთი გაჭირვებები, როგორიცაა ბმული აქ.

დასკვნა ის არის, რომ აბსოლუტურად არ არსებობს გარანტია, რომ მხოლოდ იმის გამო, რომ თქვენ შეიარაღდებით AI-ით, თქვენ აპირებთ გაიმარჯვოთ AI Asymmetry თამაშში.

შესაძლოა, თანაბარ სათამაშო მოედანზე მიხვიდეთ. შესაძლოა უპირატესობა მოიპოვოთ. და, სამწუხაროდ, სიფრთხილე გმართებთ, რადგან შესაძლოა, AI-ით შეიარაღების დროს დაღმასვლას დაეცეს.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა. ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ტექნოლოგიის ოპტიმიზაციით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის გაკეთება AI-ს განვითარებისა და განვითარებისთვის სასიცოცხლოდ მნიშვნელოვანია შესაბამისი AI-ს წარმოებისთვის.

გარდა ხელოვნური ინტელექტის ეთიკის გამოყენებისა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენების რეგულირებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ფაქტობრივად, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ. იხილეთ მაგალითად ჩემი გაშუქება მისამართზე ბმული აქ მდე ბმული აქ.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რაიმეს ანათებს AI ასიმეტრიის შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI ასიმეტრია

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

მოდით გამოვსახოთ სცენარი, რომელიც ასახავს AI ასიმეტრიას.

დაფიქრდით, ერთი შეხედვით უმნიშვნელო საკითხზე, თუ სად მოძრაობენ თვითმართვადი მანქანები მგზავრების ასაყვანად. როგორც ჩანს, ეს უხვად უწყინარი თემაა.

თავდაპირველად, ვივარაუდოთ, რომ ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანები როუმინგში იქნებიან მთელ ქალაქებში. ნებისმიერს, ვისაც სურს მოითხოვოს თვითმართვადი მანქანით გასეირნება, არსებითად თანაბარი შანსი აქვს მოიწონოს იგი. თანდათანობით, ხელოვნური ინტელექტი იწყებს პირველ რიგში თვითმართვადი მანქანების როუმინგის შენარჩუნებას ქალაქის მხოლოდ ერთ მონაკვეთში. ეს განყოფილება უფრო დიდი ფულის გამომუშავებაა და ხელოვნური ინტელექტი დაპროგრამებულია იმისთვის, რომ სცადო და მაქსიმალურად შემოსავლები, როგორც ფართო საზოგადოებაში გამოყენების ნაწილი (ეს ხაზს უსვამს ოპტიმიზაციის საფუძველში არსებულ აზროვნებას, კერძოდ, ფოკუსირებას მხოლოდ ერთ კონკრეტულ მეტრზე და სხვა გადამწყვეტი ფაქტორების უგულებელყოფას პროცესში).

ქალაქის გაღატაკებულ ნაწილებში თემის წევრები ნაკლებად სავარაუდოა, რომ შეძლებენ თვითმართვადი მანქანით მგზავრობას. ეს იმიტომ ხდება, რომ თვითმართვადი მანქანები უფრო შორს იყვნენ და ტრიალებდნენ ქალაქის მაღალ შემოსავლიან ნაწილში. როდესაც მოთხოვნა მოდის ქალაქის შორეული ნაწილიდან, ნებისმიერი სხვა მოთხოვნა უფრო ახლო მდებარეობიდან უფრო პრიორიტეტული იქნება. საბოლოო ჯამში, თვითმართვადი მანქანის ყიდვა ნებისმიერ ადგილას, გარდა ქალაქის უფრო მდიდარი ნაწილისა, თითქმის შეუძლებელია, განსაკუთრებით მათთვის, ვინც ცხოვრობს რესურსებით შიმშილ ადგილებში.

გაქრა ყველასთვის ამაყი მობილურობა, რომელსაც თვითმართვადი მანქანები აცოცხლებენ.

თქვენ შეგიძლიათ ამტკიცებდეთ, რომ ხელოვნური ინტელექტი მთლიანად დაედო სტატისტიკური და გამოთვლითი მიკერძოებულობის ფორმას, რომელიც ჰგავს მარიონეტული დისკრიმინაციის ფორმას (ასევე ხშირად მოიხსენიებენ როგორც არაპირდაპირ დისკრიმინაციას). გააცნობიერე, რომ AI არ იყო დაპროგრამებული იმ ღარიბი უბნების თავიდან ასაცილებლად. მოდით ნათლად ვიყოთ ამის შესახებ ამ შემთხვევაში. არა, ამის ნაცვლად შეიქმნა მხოლოდ შემოსავლების ოპტიმიზაცია, ერთი შეხედვით მისაღები მიზანი, მაგრამ ეს გაკეთდა AI დეველოპერების მიერ სხვა პოტენციურ შედეგებზე ფიქრის გარეშე. ამ ოპტიმიზაციამ თავის მხრივ უნებლიედ და გარდაუვალად გამოიწვია არასასურველი შედეგი.

ოპტიმიზაციის აზროვნების ნაწილს რომ შეეტანათ ხელოვნური ინტელექტის ეთიკის მოსაზრებები, შესაძლოა წინასწარ მიხვდნენ, რომ თუ არ შექმნიდნენ AI-ს, რომ გაუმკლავდნენ ამ სახის გადაჭარბებულ ზომას მხოლოდ ერთი მეტრიკის მიხედვით, მათ შესაძლოა თავიდან აიცილონ ასეთი ცუდი შედეგები. ამ ტიპის საკითხების შესახებ მეტი ინფორმაციისთვის, რომლებსაც ავტონომიური მანქანებისა და თვითმართვადი მანქანების ფართოდ გამოყენება შეიძლება მოჰყვეს, იხილეთ ჩემი გაშუქება: ეს ბმული აქ, აღწერს ჰარვარდის მიერ ჩატარებულ კვლევას, რომელიც მე თანაავტორობით ვარ ამ თემებზე.

ნებისმიერ შემთხვევაში, ჩავთვალოთ, რომ ცხენი უკვე გასულია ბეღელიდან და სიტუაცია დაუყოვნებლივ არ ექვემდებარება ყოვლისმომცველ გადაწყვეტილებებს.

რა შეიძლება გააკეთონ მათ, ვისაც სურს ამ თვითმართვადი მანქანების გამოყენება?

ყველაზე აშკარა მიდგომა იქნება თემის ლიდერებთან მუშაობა, რათა ავტომწარმოებელმა ან თვითმართვამდე ტექნიკურმა ფირმამ გადახედოს, თუ როგორ დააყენეს AI. შესაძლოა ზეწოლა მოახდინოს ნებისმიერ ლიცენზირებაზე ან ნებართვაზე, რომელიც გაცემულია ამ თვითმართვადი მანქანების განლაგებისთვის ამ ქალაქში ან ქალაქში. ეს პოზიტიური ცვლილებების მოსატანად, სავარაუდოდ, სიცოცხლისუნარიანი საშუალებებია, თუმცა შესაძლოა გარკვეული დრო დასჭირდეს, სანამ ამ ძალისხმევამ შედეგი მოიტანა.

კიდევ ერთი კუთხე იქნება AI-ით შეიარაღება.

წარმოიდგინეთ, რომ ვიღაცამ ჭკვიანურად შეიმუშავა AI-ზე დაფუძნებული აპლიკაცია, რომელიც მუშაობს თქვენს სმარტფონზე და ეხება ავტომწარმოებლის ან ფლოტის ოპერატორის AI-ს, რომელიც იღებს მგზავრობის მოთხოვნებს. შესაძლოა, ხელოვნური ინტელექტი, რომელსაც თქვენ იყენებთ, იყენებს სხვა ხელოვნური ინტელექტის ძირითად ელემენტებს ისე, რომ თქვენს მიერ თვითმართვადი მანქანის მოთხოვნას ენიჭება გაძლიერებული პრიორიტეტი. გაითვალისწინეთ, რომ მე არ ვარაუდობ, რომ რაიმე უკანონო ხდება, მაგრამ სამაგიეროდ, რომ AI თქვენს მხარეს შეიქმნა სხვა AI-ში აღმოჩენილი „ფუნქციების“ ან თუნდაც ხარვეზების საფუძველზე.

დასკვნა

ამბავი თვითმართვადი მანქანების ფლოტის ოპერატორის ხელოვნური ინტელექტის წინააღმდეგ თავხედური ბრძოლის შესახებ ხელოვნური ინტელექტის ტექნიკით შეიარაღების გზით, აჩენს დამატებით AI ეთიკის წინააღმდეგობებს და მოსაზრებებს.

მაგალითად:

  • თუ ერთ ადამიანს შეუძლია გამოიყენოს ხელოვნური ინტელექტი, რათა უპირატესობა მიანიჭოს სხვა სისტემის ხელოვნურ ინტელექტს, რამდენად შორს შეიძლება წავიდეს ეს ხელოვნური ინტელექტის ეთიკის საზღვრების გადალახვის თვალსაზრისით (მე ვარწმუნებ თვითმართველ მანქანებს, რომ მოვიდნენ ჩემთან და ჩემს მეგობრებთან, ყველა დანარჩენის გამორიცხვით)?
  • ასევე, არის თუ არა რაიმე სახის ხელოვნური ინტელექტის ეთიკის მოსაზრება, რომ თუ ვინმემ იცის ან არის შეიარაღებული ხელოვნური ინტელექტის შესახებ, რომ ებრძოლოს სხვა AI-ს, დარჩენილ ადამიანებს, რომლებსაც არ აქვთ ეს დამაბალანსებელი AI, უნდა იყვნენ როგორმე გაფრთხილებული AI-ზე და შეძლებენ საკუთარი თავის შეიარაღებას. შესაბამისად ასევე?

საბოლოო ჯამში, ეს ყველაფერი მიგვიყვანს მომავალთან, რომელიც, როგორც ჩანს, საშინელია, რომელიც შედგება ხელოვნური ინტელექტის შეიარაღების რბოლისგან. ვის ექნება ხელოვნური ინტელექტი, რომელიც მათ სჭირდებათ გადასარჩენად და ვის არა? ყოველთვის იქნება კიდევ ერთი ხელოვნური ინტელექტი, რომელიც ჩნდება და გამოიწვევს საპირწონე AI-ს საჭიროებას?

კარლ სეიგანმა, პატივცემულმა მეცნიერმა, ასეთი ბრძნული სიბრძნე მოგვაწოდა განსაკუთრებით კატაკლიზმური იარაღის რბოლების შესახებ: „ბირთვული შეიარაღების რბოლა ჰგავს ორ მოსისხლე მტერს, რომლებიც წელის ღრმად დგანან ბენზინში, ერთი სამი ასანთი, მეორე კი ხუთი“.

ჩვენ გადამწყვეტი მიზანი უნდა გვქონდეს, რომ შევინარჩუნოთ ფეხები მშრალი და გონივრული თავი, როდესაც საქმე ეხება AI იარაღის რბოლას.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- ჯოხი/