ხელოვნური ინტელექტის ეთიკა მსჯელობს გამოსყიდვის ფონდების კანონიერი უფლებამოსილების შესახებ, რათა უზრუნველყოს ანგარიშვალდებულება AI ცუდად მოქმედებისთვის

ვინ არის დამნაშავე?

ეს შეიძლება ცალსახა კითხვად მოგეჩვენოთ, თუმცა აბოტისა და კოსტელოს ლეგენდარული დუეტის ცნობილი კომედიის შემთხვევაში ბეისბოლის გუნდის შესახებ, „ვინ“ შეიძლება დამაბნეველი იყოს. შეიძლება ბუნდოვნად იცნობდეთ ვინ არის პირველი კომედიური რუტინა, რომელიც მათ ყველა დროის ერთ-ერთ ყველაზე გამძლე სკეტად აქციეს (სპოილერის გაფრთხილება მათთვის, ვისაც ეს არ გაუგიათ).

ებოტი ეუბნება კოსტელოს, რომ ვინ არის პირველზე, რა არის მეორეზე და მე არ ვიცი მესამეზე. ჭკვიანური ხრიკი იმაში მდგომარეობს, რომ პირველ სარდაფს ჰქვია ვინ, მეორე სარდაფს ჰქვია რა, ხოლო მესამე ბაზისმენს სახელად არ ვიცი. რა თქმა უნდა, ამ ფრაზებს ასევე აქვთ თავისი ჩვეულებრივი მნიშვნელობა და ამგვარად, ებოტის ნათქვამის ინტერპრეტაციის მცდელობა შეიძლება სრულიად დამაბნეველი იყოს. მართლაც, კოსტელო სვამს ერთი შეხედვით უვნებელ კითხვას, ვინ არის პირველი, რაზეც პასუხი მტკიცედ არის ნათქვამი დიახ. მაგრამ კოსტელოსთვის ამას აზრი არ აქვს, რადგან ის ელოდა სახელს და სანაცვლოდ მიიღო გამაოგნებელი დიახ, როგორც პასუხი.

გადაცემის ცვლა, როდესაც საქმე ეხება ხელოვნური ინტელექტის (AI) გამოჩენას, ერთ-ერთი ყველაზე შემაშფოთებელი კითხვა, რომელსაც მუდმივად სვამენ, გულისხმობს იმას, თუ ვინ ან შესაძლოა რა იქნება პასუხისმგებელი, როცა AI ცდება.

მე ადრე განვიხილეთ სისხლის სამართლის პასუხისმგებლობა, როდესაც ხელოვნური ინტელექტი იწვევს ან ახორციელებს დანაშაულებრივ ქმედებებს, იხილეთ ჩემი გაშუქება აქ ბმული აქ. ასევე არის სამოქალაქო პასუხისმგებლობის საკითხი, როგორიცაა, თუ ვის ან რას შეიძლება უჩივლოთ, როდესაც AI-მ არასწორად გაგიკეთათ, რაზეც აქ ვისაუბრებ. ამ ყველაფერს აქვს მნიშვნელოვანი AI ეთიკის მოსაზრებები. AI ეთიკისა და ეთიკური AI-ის მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ტექნოლოგიების ოპტიმიზაციაზე. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ხელოვნური ინტელექტის განვითარებისა და დარგის განუყოფელი ქცევა სასიცოცხლო მნიშვნელობისაა შესაბამისი AI-ს წარმოებისთვის, მათ შორის (შესაძლოა გასაკვირი ან ირონიულად) შეფასება იმისა, თუ როგორ მიიღება AI ეთიკა ფირმების მიერ.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ფაქტობრივად, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონებს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

მწვავე დებატები მიმდინარეობს იმაზე, შეუძლია თუ არა არსებულ კანონებს ადეკვატურად შეეხოს AI სისტემების გაჩენას საზოგადოებაში. სამართლებრივი პასუხისმგებლობა, როგორც წესი, მოითხოვს, რომ ვირს კუდი მიამაგროთ, ვინ არის პასუხისმგებელი მავნე ქცევაზე. ხელოვნური ინტელექტის შემთხვევაში, შეიძლება იყოს საკმაოდ გაურკვეველი გზა, რომელიც აკავშირებს კონკრეტულ პიროვნებას ან პირებს AI-სთან, რომლებმაც შეასრულეს რაიმე მავნე მოქმედება. ხელოვნური ინტელექტი შეიძლება დიდწილად მიუკვდომელი იყოს იმ წყაროსთან ან გამომგონებლთან, რომელმაც შეადგინა AI.

კიდევ ერთი მოსაზრება არის ის, რომ მაშინაც კი, თუ ხელოვნური ინტელექტის ფესვები შეიძლება ვინმეს მივაკვლიოთ, საკითხავი ის არის, შეიძლება თუ არა პირმა ან პირებმა გონივრულად განჭვრიტონ ის უარყოფითი შედეგი, რომელიც საბოლოოდ AI-მ გამოიწვია. განჭვრეტადობის არსი არის ჩვეულებრივ შესამჩნევი ფაქტორი სამართლებრივი პასუხისმგებლობის შეფასებისას.

შეიძლება გაგიჩნდეთ ცდუნება, იფიქროთ, რომ თქვენ შეგიძლიათ უბრალოდ მიჰყვეთ თვით AI-ს და დაასახელოთ AI, როგორც კანონიერი მხარე, რომელიც პასუხისმგებელია ან პასუხისმგებელია ნებისმიერი ზიანისთვის, რომელიც სავარაუდოდ მიყენებულია. ზოგადად, გაბატონებული სამართლებრივი შეხედულებაა, რომ AI ჯერ კიდევ არ მიუღწევია იურიდიული პიროვნების დონეს. ამრიგად, თქვენ ვერ შეძლებთ მკაცრად რომ ვთქვათ, ეძებთ AI-ს გადახდას და დაგჭირდებათ ადამიანების პოვნა, რომლებიც მუშაობდნენ კულისებში ბერკეტებზე, როგორც ეს იყო (ინტელექტის ინტელექტის იურიდიული პიროვნების ჩემი ანალიზისთვის იხ. ბმული აქ).

მთელ ამ პოტენციურ სამართლებრივ აურზაურში დგას იდეა, რომელიც განიხილება, როგორც შესაძლო გამოსავალი, ან მოკლევადიან საფუძველზე, ან შესაძლოა გრძელვადიან პერსპექტივაზე. იდეა არის ის, რომ შესაძლოა შეიქმნას სპეციალური საკომპენსაციო ფონდი, რათა უზრუნველყოს ფინანსური დახმარება მათთვის, ვინც დაზარალდა ხელოვნური ინტელექტის გამო. თუ სხვაგვარად ვერ ახერხებთ ხელოვნური ინტელექტის კომპენსაციის მიღებას და ვერ დაასახელებთ იმ პირებს, რომლებიც სავარაუდოდ პასუხისმგებელნი უნდა იყვნენ, შემდეგი საუკეთესო ვარიანტი შეიძლება იყოს საკომპენსაციო ფონდის გამოყენება, რომელიც მიზნად ისახავს დაეხმაროს ხელოვნურ ინტელექტისგან დაზარალებულებს.

ასეთი ფონდი იქნება დაზღვევის მსგავსი ფორმა, როგორც ნათქვამია დამაფიქრებელ კვლევით ნაშრომში: „ეს არსებითად იქნება დაზღვევის მექანიზმი გაურკვევლობისგან: მკაფიო და გამჭვირვალე ჩარჩო სწრაფი კომპენსაციისთვის იმ შემთხვევებში, როდესაც პასუხისმგებლობის სარჩელი აქვს გაურკვეველია ან არ არის წარმატების პერსპექტივა საზიანო ქცევის გაუთვალისწინებელი ბუნების, თავად ზიანის (ტიპის) ან პროცედურის გადაჭარბებული ხარჯებისა და/ან სირთულის გამო“ (ოლივია ერდელიისა და გაბორ ერდელიის სტატია, „AI პასუხისმგებლობის თავსატეხი“ და ფონდზე დაფუძნებული მუშაობა“, ჟურნალი ხელოვნური ინტელექტის კვლევის, 2021).

საკომპენსაციო ფონდი იქნება ყოვლისმომცველი ხელოვნური ინტელექტის საგარანტიო სქემის (AIGS) ნაწილი და თან ახლავს რამდენიმე მსუბუქი შეხებით ცვლილებები იურიდიული პასუხისმგებლობის შესახებ არსებულ კანონებში. მსუბუქი შეხება, სავარაუდოდ, უფრო ადვილი იქნებოდა და არ მოითხოვდა მძიმე იურიდიულ და სოციალურ შფოთვას, თუკი არსებულ სამართლებრივ რეჟიმებში დემონსტრაციული ცვლილებების უფრო შემზარავი სერია განხორციელდებოდა. მკვლევარების აზრით: ”ეს ასახავს ჩვენს რწმენას, რომ – მიუხედავად ასეთი სწრაფი გამოსავლის მიმზიდველობისა – შეუცვლელი პასუხისმგებლობის არსებული წესების გამოყენება AI ან ა პროტექციონისტულად მოტივირებული პასუხისმგებლობის ნებისმიერ ფასად დადგენის მიზნით მკაცრი პასუხისმგებლობის გამოყენება არ არის სწორი პასუხი სამი მიზეზის გამო: პირველი, იმის უგულებელყოფა, რომ ეს წესები მორგებულია სხვადასხვა გარემოებებზე და, შესაბამისად, შეიძლება იყოს შეუსაბამო AI-სთვის, ისინი ეწინააღმდეგება დელიკატურად დაბალანსებულ მიზნებს. სამართლებრივი პასუხისმგებლობის სისტემა. მეორეც, ისინი აფერხებენ AI ინოვაციას ზედმეტად დამსჯელი მიდგომის მიღებით. მესამე, მკაცრი პასუხისმგებლობის არასათანადო გამოყენება უბრალოდ აცილებს განჭვრეტადობისა და ხარვეზის პრობლემებს დოგმატურად არათანმიმდევრული გზით, ვიდრე მათ გამოსწორებას“ (ზემოთ მოყვანილი ნაშრომის მიხედვით).

ასეთი AI კომპენსატორული ფონდების სასარგებლოდ არგუმენტები მოიცავს:

  • ამცირებს ხანგრძლივ და ძვირადღირებულ იურიდიულ სასამართლო პროცესების აუცილებლობას ხელოვნური ინტელექტის მიერ მიყენებული ზიანის დასაძლევად
  • ამშვიდებს ადამიანებს, რომ მათ შეუძლიათ გამოიყენონ AI და მიიღონ კომპენსაცია ზიანის მიყენების შემთხვევაში
  • ხელს უწყობს ხელოვნური ინოვაციების ინოვაციას AI ინოვატორების წინაშე არსებული სამართლებრივი გაურკვევლობის შემსუბუქებით
  • შეიძლება გამოყენებულ იქნას ბევრად უფრო სწრაფად, ვიდრე არსებულ კანონებში მასიური ცვლილებების შეტანა
  • გვთავაზობს შედარებით მკაფიო წამალს, რომელიც საიმედო და ადვილად ხელმისაწვდომია
  • სხვა

იმავდროულად, ისინი, ვინც ეწინააღმდეგებიან AI კომპენსატორული სახსრების მიდგომას, ამბობენ:

  • მოდით, ხელოვნური ინტელექტის შემქმნელები ზედმეტად გამოვიყენოთ და მივცეთ მათ ანგარიშვალდებულებაზე უარის თქმა
  • ხელს შეუწყობს ხელოვნური ინტელექტის შემქმნელებს შექმნან ხელოვნური ინტელექტი, რომელსაც მოკლებულია კეთილსინდისიერი უსაფრთხოება და სათანადო კონტროლი
  • შესაძლოა ადამიანებს უბიძგოს, რომ აცხადებენ ხელოვნური ინტელექტის ზიანს, რათა მათ შეძლონ სახსრების გამოყენება
  • გვერდს უვლის და ძირს უთხრის ჩვენი კანონების გადახედვის ნამდვილ აუცილებლობას, რათა საკმარისად მართოს AI
  • ეს შეიძლება გახდეს ბიუროკრატიული კოშმარი, რომელიც ძირს უთხრის და ბოროტად იყენებს სახსრებს
  • სხვა

როგორც ცხადია, ამ სრულიად საკამათო ცნების როგორც მომხრეები, ასევე მოწინააღმდეგეები არიან.

თქვენ გაგიჭირდებათ მოკლედ გამორიცხოთ ხელოვნური ინტელექტის კომპენსატორული ფონდი, როგორც პოტენციური მიდგომა ხელოვნური ინტელექტის შესახებ მზარდი შეშფოთების მიმართ, რომელიც ზიანს აყენებს. არც შემოთავაზებული გამოსავალია სლემ დანკი.

ერთი თვალსაზრისი ისაა, რომ ხელოვნური ინტელექტის შემქმნელებს უნდა ჩადონ თანხები ფონდებში, როგორც მათი ძალისხმევის ნაწილი ხელოვნური ინტელექტის შემუშავებისა და გავრცელებისას. ეს შეიძლება იქნას გაგებული, როგორც ერთგვარი გადასახადი ან გადასახადი, რომელიც მათ მოეთხოვებათ, როგორც ნაწილი იმისთვის, რომ შეძლონ თავიანთი ხელოვნური ინტელექტის სამყაროში გაშვება. მაგრამ ეს დამატებული ღირებულება პოტენციურად თრგუნავს სტარტაპების ძალისხმევას, რომლებიც ცდილობენ გადალახონ დღევანდელი ხელოვნური ინტელექტის საზღვრები? და როგორ უნდა დამუშავდეს იმაში, რომ ხელოვნური ინტელექტის შემქმნელებმა გადაიხადეს საფასური ან გადასახადი?

უამრავი კითხვა ჩნდება და საჭიროებს გადაჭრას:

  • რომელ ქვეყნებში იქნება საუკეთესოდ განხორციელებული ხელოვნური ინტელექტის კომპენსატორული ფონდი?
  • შეიძლება თუ არა შეიქმნას ურთიერთდაკავშირებული AI კომპენსატორული სახსრების გლობალური სახე?
  • როგორი იქნება დეტალური და მოქმედი მექანიზმები, რომლებიც დაკავშირებულია ასეთ ფონდებთან?
  • როგორ უნდა დაფინანსდეს ხელოვნური ინტელექტის საკომპენსაციო ფონდები (საჯარო, კერძო, საქველმოქმედო)?
  • იქნება ეს უბრალო დაზღვევის საფუძველი თუ სხვა მიდგომა იქნება მიღებული?
  • ა.შ.

სფერო, რომელსაც უკვე ჰქონდა AI კომპენსატორული სახსრების იდეა, შედგება ავტონომიური სისტემებისგან, როგორიცაა ავტონომიური მანქანები და თვითმართვადი მანქანები. თვითმართვადი მანქანებისა და ხელოვნური ხელოვნური ინტელექტის ავტონომიური სისტემების შესახებ ჩემი გაშუქებისთვის იხ ბმული აქ.

აქ არის ჩანახატი, თუ როგორ შეიძლება ეს იმუშაოს AI-ზე დაფუძნებული თვითმართვადი მანქანებისთვის.

დავუშვათ, თვითმართვადი მანქანა დაეჯახა ველოსიპედის მხედარს. ველოსიპედის მხედარი დაზიანებულია. ველოსიპედის მძღოლმა შეიძლება მოიძიოს სამართლებრივი პასუხისმგებლობა ავტონომიური მანქანის ავტომწარმოებლის დევნის გზით. ან შეიძლება მიმართონ თვითმართვადი ტექნიკურ ფირმას, რომელმაც შექმნა ხელოვნური ინტელექტის მართვის სისტემა. თუ თვითმართვადი მანქანა ფუნქციონირებს როგორც ფლოტი, სხვა იურიდიული გზა იქნება ფლოტის ოპერატორის დევნა. AI-ზე საჩივრის შეტანის მცდელობა ამ ეტაპზე არ არის ვარიანტი, რადგან AI-ს იურიდიული პირობა ჯერ არ არის დადგენილი.

ამ მხარის წინააღმდეგ სამართლებრივი ზომების მიღების ნაცვლად, სხვა გამოსავალი იქნება განაცხადის შეტანა ან პრეტენზია შესაბამისი ხელოვნური ინტელექტის საკომპენსაციო ფონდში. ფონდს ექნება ფორმალიზებული პროცესები, რომლებიც მოიცავდა სარჩელის განხილვას და შემდეგ განსაზღვრავს რა მოხდება, თუ რაიმე კომპენსაციის გადახდა შეიძლება მიეცეს მოსარჩელეს. შესაძლოა არსებობდეს გასაჩივრების პროცესი, რომელიც ეხმარება მოსარჩელეებს, რომლებიც თვლიან, რომ მათ ან არასწორად უარყვეს ფონდი, ან არასაკმარისად აუნაზღაურეს ფონდმა.

თეორიულად, ხელოვნური ინტელექტის საკომპენსაციო ფონდი იქნება ბევრად უფრო სწრაფი გზა მიყენებული ზიანის კომპენსაციის მისაღებად. თქვენ წარმოიდგინეთ, რამდენად შრომატევადი შეიძლება იყოს სასამართლო პროცესი, რომლის დროსაც სასამართლოში გასაჩივრებული ფირმები შეიძლება ცდილობდნენ საქმის გაჭიანურებას.

ადვოკატებმა შეიძლება ხაზგასმით აღვნიშნოთ, რომ ხელოვნური ინტელექტის საკომპენსაციო ფონდმა შეიძლება მისცეს უფლება სხვა მხარეებს, როგორიცაა ხელოვნური ინტელექტის შემქმნელები, თავიდან აიცილონ მკაფიო ჯარიმა საჯარო გზებზე თვითმართვადი მანქანის გაშვებისთვის, რომელიც ველოსიპედის მხედარს დაეჯახა. კიდევ რა შეიძლება აირჩიონ ამ ფირმებმა „უყურადღებოდ“? მათ თავებზე ჩამოკიდებული კანონიერი ხმლის მოსალოდნელი აჩრდილის გარეშე, ჩვენ ყოველდღიურად შეგვეძლო აღმოვჩნდეთ საფრთხის შემცველი შესაძლებლობებით სავსე ხელოვნური ინტელექტის წინაშე.

მრგვალი და მრგვალი არგუმენტები მიდის.

დასკვნა

AI ეთიკა შეგვახსენებს, რომ ჩვენ ყოველთვის უნდა გავითვალისწინოთ ხელოვნური ინტელექტის ეთიკური და სამართლებრივი შედეგები. ხელოვნური ინტელექტის საკომპენსაციო ფონდების ამ შემთხვევაში, შემოთავაზებული ცნება დაზღვევის მსგავსი სახსრების კომპენსაციისთვის, რომლებიც ზიანდება ხელოვნური ინტელექტის გამო, მიმზიდველად გამოიყურება. თანხები, როგორც ჩანს, იქ ელოდება, მზად იქნება გამოსაყენებლად და რაც შეიძლება მალე ანაზღაურებას.

ურთიერთგაგება იმის შესახებ, შეიძლება თუ არა ამან გახსნას კარიბჭე ხელოვნური ინტელექტის შესაქმნელად, რომელსაც აქვს უფრო და უფრო ნაკლები უსაფრთხოების კონტროლი, არის საშინელი და ძალიან რეალური შეშფოთება. ჩვენ, ალბათ, არ გვჭირდება ნავთის დამატება ცეცხლზე, რომელიც შესაძლოა უკვე გარკვეულწილად დაწყებული იყოს.

შეგვიძლია როგორმე მაინც დავანებოთ ხელოვნური ინტელექტის შემქმნელებს შესაბამისი ეთიკური ხელოვნური ინტელექტის შემუშავება და ამავდროულად შექმნან ხელოვნური ინტელექტის კომპენსატორული ფონდები?

ზოგი იტყვის, რომ დიახ, შეგვიძლია. არსებული კანონების გადამუშავებით ხელოვნური ინტელექტის კომპენსატორულ ფონდებთან შესაბამისობაში მოყვანის გზით, მათ, ვინც ზიანდება ხელოვნური ინტელექტის გამო, პოტენციურად ექნება ორმაგი გზა მათი სამართლიანი კომპენსაციის მოსაძიებლად.

ვინ არის პირველზე?

დიახ, ეს არის ის, ვინც (როგორც ჩვენში) პირველმა შეამჩნია, რომ ჩვენ უნდა ვიფიქროთ ხელოვნური ინტელექტის კომპენსატორული სახსრების პოტენციურ გამოყენებაზე და შევცვალოთ არსებული კანონები, თუნდაც მსუბუქად, რათა გავუმკლავდეთ როგორც კარგი ხელოვნური ინტელექტის, ასევე კარგი ხელოვნური ინტელექტის შეტევას. ცუდი AI.

არ არის დაბნეულობა ამ სასიცოცხლო მნიშვნელობის შესახებ.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- ანგარიშვალდებულება/