ხელოვნური ინტელექტის ეთიკა, რომელიც ებრძვის AI-ზე დაფუძნებული ავტონომიური იარაღის სისტემების ცეცხლოვან ერთ-ორ დარტყმას და AI-ზე მართული ავტონომიური სისტემების ექსპლუატაციას, რომლებიც ეშმაკურად არის შეიარაღებული

ეს საოცარი მოცეკვავე ოთხფეხა რობოტები.

დარწმუნებული ვარ, რომ თქვენ გინახავთ ოთხფეხა რობოტული სისტემების ვირუსული ვიდეოები, რომლებიც ცეკვავენ და ტრიალებენ ერთი შეხედვით ლაღი და ძაღლის მსგავსი საყვარელი გზებით. როგორც ჩანს, გვიხარია იმ AI-ზე მომუშავე რობოტების ხილვა, როდესაც ისინი აძვრებიან დაბრკოლებებზე და, როგორც ჩანს, დელიკატურ დასაყრდენს იკავებენ ყუთების თავზე დგომისას ან კარადების დახვეწილ ზედა ნაწილებზე საეჭვოდ მოთავსების შემდეგ. მათი მომუშავეები ხანდახან აჭიანურებენ ან უბიძგებენ გაბრწყინებულ ოთხფეხა რობოტებს, რაც საოცრად უსამართლოდ გამოიყურება და ადვილად აღძრავს თქვენს რისხვას იმ მოაზროვნე ჰუმანოიდების უხეში მოპყრობის გამო.

მაინტერესებს თუ გინახავთ სრულიად განსხვავებული კალიბრის არც თუ ისე ვირუსული ვიდეოები.

Მოემზადე.

ფართოდ არის განთავსებული ვიდეოები, სადაც ნაჩვენებია იგივე ტიპის ოთხფეხა რობოტები, რომლებიც აღჭურვილია ამა თუ იმ სახის გამოხატული იარაღით.

მაგალითად, ავტომატი ან მსგავსი ცეცხლსასროლი იარაღი დამონტაჟებულია სხვაგვარად ნაცნობი მოცეკვავე და მოცეკვავე რობოტის თავზე. ოთხფეხა რობოტსა და იარაღის სროლის მექანიზმს შორის არის ელექტრონული კავშირი. ახლა შეიარაღებული კომპიუტერით ფეხით მოსიარულე მოწყობილობა ნაჩვენებია მიმავალ გზაზე, სადაც იყო მოთავსებული ბულგარული სამიზნე, და ტყვიამფრქვევი სასტიკად ისვრის სამიზნეს. შემდგომში ნაწილობრივ განადგურებული სამიზნის მიმაგრების შემდეგ, ოთხფეხა რობოტი ცეკვავს და ტრიალდება მიმდებარე დაბრკოლებების გარშემო და რიგდება, რათა იგივე მოქმედება განმეორებით გაიმეოროს სხვა ახალ სამიზნეებზე.

არც ისე მთლად ის, რისი ნახვასაც შეიძლება ელოდით. ეს, რა თქმა უნდა, კარგავს სიმსუბუქეს და შედარებით სიხარულს იმ გულახდილი ყურებისგან, რომლებიც ასრულებენ თავიანთ საქმეს იმ მოფერებულ ოთხფეხა რობოტებს. კეთილი იყოს თქვენი მობრძანება ერთი შეხედვით მკაცრ რეალობაში უვნებელი ავტონომიური სისტემები გარდაიქმნება ან გარდაიქმნება მკვეთრად იარაღად. დიდი ძალისხმევის წყალობით, თქვენ შეგიძლიათ ღამით განიხილოთ "არაიარაღო" ავტონომიური სისტემა, რომელიც აღჭურვილია სრული იარაღის შესანახად.

ზოგიერთ შემთხვევაში ეს თითქმის ადვილია.

მე ვაპირებ განვიხილო ეს მწვავედ საკამათო თემა და გავაშუქო საკმაოდ სერიოზული AI ეთიკის პრობლემები, რომლებიც წარმოიქმნება. ჩვენ გავემგზავრებით ავტონომიურ სისტემებში, AI, ავტონომიურ სატრანსპორტო საშუალებებში, შეიარაღებაზე და დაკავშირებული ეთიკური AI საბრძოლო საკითხებში. AI ეთიკისა და ეთიკური AI-ის მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

დავიწყოთ რამდენიმე ძირითადი საკვანძო ქვით.

განხილვის მიზნით, მიიღეთ, რომ არსებობს ორი ძირითადი გზა ავტონომიური სისტემების კატეგორიზაციისთვის, რომლებიც შეიარაღებული იყო იარაღით:

1) ავტონომიური იარაღის სისტემები (დიზაინის მიხედვით)

2) ავტონომიური სისტემები, რომლებიც შეიარაღებულია (შემდგომში)

ამ ორ კატეგორიას შორის მნიშვნელოვანი განსხვავებაა.

პირველ შემთხვევაში, ჩვენ განვსაზღვრავთ ა იარაღის ავტონომიური სისტემა თავიდანვე იყოს კომპიუტერიზებული ქმნილება, რომელიც მიზანმიმართულად არის განკუთვნილი იარაღად. დეველოპერებმა გაითვალისწინეს, რომ მათ სურდათ შეექმნათ იარაღი. მათი აშკარა სწრაფვა არის იარაღის წარმოება. მათ იცოდნენ, რომ მათ შეეძლოთ იარაღის ინტეგრირებული კომბინირება ავტონომიური სისტემების უახლეს ტექნოლოგიებთან. ეს არის იარაღი, რომელიც მოძრაობს მაღალტექნოლოგიური ტალღაზე, რომელიც აღწევს ავტონომიურ მოძრაობას და ავტონომიურ მოქმედებებს (უფრო დეტალურად განვიხილავ ცოტა ხანში).

ამის საპირისპიროდ, მეორე ინსტანციაში განვიხილავთ ავტონომიური სისტემების საკითხს, რომლებსაც საერთოდ არ აქვთ განსაკუთრებული მიდრეკილება იარაღის მიმართ. ეს არის ავტონომიური სისტემები, რომლებიც მუშავდება სხვა მიზნებისთვის. წარმოიდგინეთ ავტონომიური სატრანსპორტო საშუალება, როგორიცაა თვითმართვადი მანქანა, რომელიც გამოყენებული იქნება ყველასთვის მობილურობის უზრუნველსაყოფად და დახმარებას უწევს ათასობით წლიური დაღუპვის შემცირებას, რაც ხდება ადამიანის მიერ და ადამიანის მიერ მართული მანქანების გამო (იხილეთ ჩემი სიღრმისეული გაშუქება ზე ბმული აქ). როგორც ჩანს, იარაღი არ არის მხედველობაში იმ ოპტიმისტურ საზოგადოებაში, რომლებიც აძლიერებენ მცდელობებს, გამოიყვანონ ადამიანები საჭესთან და სანაცვლოდ, AI დააყენონ მძღოლის სავარძელში.

მაგრამ ეს უვნებელი ავტონომიური სისტემები შეიძლება იყოს შეიარაღებული, თუ ადამიანებს ეს სურთ.

მე მივმართავ ამ მეორე კატეგორიას მაშინ როგორც ავტონომიური სისტემები, რომლებიც შეიარაღებულია. ავტონომიური სისტემა თავდაპირველად და კეთილსინდისიერად შეიქმნა სავარაუდოდ არაიარაღური მიზნისთვის. ამის მიუხედავად, მეოცნებე ალტრუისტული იმედი ვიღაცამ სადღაც გაანადგურა, რომელსაც გაუჩნდა დამაჯერებელი აზრი, რომ ეს ჩანაფიქრი შეიძლება იყოს შეიარაღებული. უეცრად, ავტონომიური სისტემა, რომელიც მოწყენილი ჩანდა, სასიკვდილო იარაღად იქცა იარაღის რაიმე სახის შესაძლებლობების მონიშვნით (როგორიცაა ზემოთ ნახსენები ოთხფეხა ძაღლის მსგავსი რობოტები, რომლებსაც აქვთ ავტომატი ან მსგავსი ცეცხლსასროლი იარაღი დამატებული) .

სამწუხაროდ, ეს ორი კატეგორია გარკვეულწილად ერთსა და იმავე ადგილზე მთავრდება, კერძოდ, უზრუნველყოფს იარაღისთვის ავტონომიური სისტემების გამოყენების შესაძლებლობას პოტენციურად სასიკვდილო საფუძველზე.

ამ საბოლოო წერტილამდე მისვლის პროცესი, სავარაუდოდ, განსხვავებული იქნება.

პირდაპირი შეიარაღებული ავტონომიური სისტემებისთვის, რომლებიც მიმაგრებული იყო იარაღად, იარაღის ასპექტები, როგორც წესი, წინა და ცენტრალურია. შეიძლება ითქვას, რომ ავტონომიური სისტემის ასპექტები მოქცეულია ნებისმიერი იარაღის ქვაკუთხედზე, რომელიც განიხილება. დეველოპერების მიერ აზროვნების პროცესი გარკვეულწილად იმ ხაზთანაა, თუ როგორ შეუძლია იარაღს გამოიყენოს ავტონომიური სისტემების გამოჩენა.

სხვა პერსპექტივა, როგორც წესი, საერთოდ არ არის ამ აზროვნების. დეველოპერებს სურთ შექმნან უახლესი ავტონომიური სისტემა, შესაძლოა კაცობრიობის გასაუმჯობესებლად. ამ დეველოპერებმა თავიანთი გულწრფელი გული და სული ჩადეს ავტონომიური სისტემის შესაქმნელად. ეს არის მათი გამოგონების საფუძველი. მათ შეიძლება ვერ წარმოედგინათ, რომ ვინმე მათ სასწაულებრივად მომგებიანი ხელსაწყოს უზურპაციას ან ძირს დაუთმობდა. ისინი ბედნიერად აღფრთოვანებულნი არიან იმ სოციალური სარგებლით, რომლებიც დაკავშირებულია ავტონომიურ სისტემასთან ფორმირებასა და წარმოებასთან.

რაღაც მომენტში, დავუშვათ, რომ მესამე მხარეები აცნობიერებენ, რომ ავტონომიური სისტემა შეიძლება ხელახლა გადაიზარდოს იარაღად. შესაძლოა, ისინი ატყუებენ დეველოპერებს, რათა მათ ჰქონდეთ ავტონომიური სისტემა, როგორც ამბობენ, მაღალი მიზნებისთვის. დახურულ კარს მიღმა, ეს ბოროტმოქმედები ირჩევენ ავტონომიურ სისტემას იარაღების მოპოვების შესაძლებლობას. ვოილა, უდანაშაულობა გადაიქცა პირდაპირ იარაღად.

საქმეები ასე არ უნდა განვითარდეს.

შესაძლოა, დეველოპერებს უთხრეს, რომ ისინი ავითარებდნენ უდანაშაულო ავტონომიურ სისტემას, მაგრამ მათ, ვინც აფინანსებდა ან ხელმძღვანელობდა ძალისხმევას, სხვა მიზნები ჰქონდა მხედველობაში. შესაძლოა, ავტონომიური სისტემის ძალისხმევა მართლაც უდანაშაულოდ დაიწყო, მაგრამ შემდეგ, როდესაც გადასახადები უნდა გადაეხადა, ხელმძღვანელობამ შეწყვიტა გარიგება დაფინანსების წყაროსთან, რომელსაც სურს ავტონომიური სისტემები საზიზღარი მიზეზების გამო. კიდევ ერთი შესაძლებლობა არის ის, რომ დეველოპერებმა იცოდნენ, რომ მოგვიანებით გამოყენება შეიძლება იყოს იარაღისთვის, მაგრამ ისინი მიხვდნენ, რომ გადალახავდნენ ამ შემზარავ ხიდს, როდესაც ის ოდესმე გაჩნდებოდა. და ა.შ.

არსებობს ბევრი და ბევრი განსხვავებული გზა, თუ როგორ ხდება ეს ყველაფერი.

შეიძლება თქვენთვის საინტერესო აღმოჩნდეთ, რაც მე აღვწერე წინა სვეტებში, რომ იზრდება AI ეთიკის ცნობიერება ორმაგი გამოყენება თანამედროვე ხელოვნური ინტელექტის ელემენტები, იხ ბმული აქ. ნება მომეცით მოკლედ მოგაწოდოთ სისწრაფე.

ხელოვნური ინტელექტის სისტემა, რომელიც კარგზეა გათვალისწინებული, ზოგჯერ შეიძლება ცუდის ზღვარზე იყოს, შესაძლოა, საკმაოდ მარტივი ცვლილებების გამო და, შესაბამისად, განიხილება, როგორც ორმაგი დანიშნულების ბუნება. ახლახანს სიახლეებში იყო ხელოვნური ინტელექტის სისტემა, რომელიც აშენდა ქიმიკატების აღმოსაჩენად, რომლებიც შესაძლოა მკვლელები იყვნენ, რისთვისაც დეველოპერებს სურდათ დარწმუნდნენ, რომ ჩვენ შეგვეძლო თავიდან ავიცილოთ ან ვიყოთ სიფრთხილე ასეთი არასწორად მოფიქრებული ქიმიკატების მიმართ. ირკვევა, რომ ხელოვნური ინტელექტის გარკვეულწილად ადვილად დამუშავება შესაძლებელია, რათა თავდადებული აღმოაჩინოს ეს მკვლელი ქიმიკატები და, ამრიგად, პოტენციურად მისცეს ცოდვილებს საშუალება, იცოდნენ, თუ რა სახის ქიმიკატები პოტენციურად მოამზადონ თავიანთი ბოროტი ბოროტი გეგმებისთვის.

ავტონომიურ სისტემებს შეუძლიათ აშკარად მოერგოს ორმაგი დანიშნულების კონვერტში.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა. ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ოპტიმიზაციის გზით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის განუყოფელი ქცევა ხელოვნური ინტელექტის განვითარებისა და განვითარებისთვის სასიცოცხლოდ მნიშვნელოვანია შესაბამისი ხელოვნური ინტელექტის წარმოებისთვის, მათ შორის (შესაძლოა გასაკვირი ან ირონიულად) შეფასებისთვის, თუ როგორ მიიღება AI ეთიკა ფირმების მიერ.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. სინამდვილეში, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივაღწევთ AI კანონებიდან ზოგიერთს, ჩვენ დავაკლებთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

ავტონომია და იარაღი, როგორც ორი მცნება

არის გამონათქვამი, რომელსაც ზოგი იყენებს ყველა სახის შეიარაღებული ავტონომიური სისტემების შესახებ წინასწარ გაფრთხილებისთვის, რომლებიც ერთობლივად გამოიგონეს, როგორც სასაკლაოები.

ეს აჩენს დამატებით ასპექტს, რომელიც უნდა განვიხილოთ.

უნდა იყოს თუ არა ავტონომიური იარაღის სისტემა და/ან ავტონომიური სისტემა, რომელიც შეიარაღებულია, ლეტალური ან მკვლელი რობოტის უპირატესობა იყოს?

ზოგიერთი ამტკიცებს, რომ ჩვენ შეგვიძლია გადამწყვეტი არალეტალური ასევე შეიარაღებული ავტონომიური სისტემები. ამრიგად, ამ თვალსაზრისით, სრულიად შეუსაბამო ჩანდეს ისეთი ფრაზების გამოყენება, როგორიცაა slaughterbots ან მკვლელი რობოტები. არალეტალური ვარიანტი, სავარაუდოდ, შეძლებს დათრგუნოს ან მოახდინოს ზიანი, რომელიც არ არის ლეტალური შედეგი. ასეთი სისტემები არ კლავენ, ისინი ნაკლებად ტრავმის გამომწვევი შესაძლებლობებია. ნუ გადააჭარბებთ შესაძლებლობებს, თქვით მათ, ვინც ამტკიცებს, რომ ჩვენ არ უნდა ვიყოთ დაკავებულები აშკარა მკვლელობის მანქანის ტროპით.

ამრიგად, შეიძლება გვქონდეს ეს:

  • ლეტალური ავტონომიური იარაღის სისტემები
  • ლეტალური ავტონომიური სისტემები, რომლებიც შეიარაღებული იყო
  • არალეტალური ავტონომიური იარაღის სისტემები
  • არალეტალური ავტონომიური სისტემები, რომლებიც შეიარაღებულია

რა თქმა უნდა, საპირისპირო არგუმენტი არის ის, რომ ნებისმიერ ავტონომიურ სისტემას, რომელიც იქნა შეიარაღებული, როგორც ჩანს, აქვს პოტენციალი ლეტალურობის სფეროში გადასვლის, მაშინაც კი, თუ სავარაუდოა, რომ მხოლოდ არალეტალური საფუძველზე გამოიყენოს. არალეტალურიდან მომაკვდინებელზე გადასვლის დამატებითი ორი ნაბიჯი სწრაფად განხორციელდება, როცა უკვე გექნებათ ხელში იარაღი ავტონომიურ სისტემაში. თქვენ გაგიჭირდებათ იმის გარანტია, რომ არალეტალური ადამიანი არ მოხვდება სასიკვდილო ასპარეზზე (თუმცა ზოგიერთი ცდილობს ამის გაკეთებას მათემატიკური თვალსაზრისით).

ვიდრე ავტონომიური სისტემებისა და შეიარაღების ამ ზოგად თემას უფრო შორს ჩავუდგებით, შეიძლება სასარგებლო იყოს კიდევ ერთი რამის აღნიშვნა, რომელიც, თუმცა აშკარაა, სულაც არ არის თვალსაჩინოდ.

Აქ არის:

  • არსებობს AI ასპექტი, რომელიც ავტონომიური სისტემის ნაწილია
  • არსებობს იარაღის ასპექტი, რომელიც არის ამ განტოლების იარაღის მხარე
  • AI ასევე შეიძლება იყოს დაკავშირებული იარაღთან

მოდით გავხსნათ ეს.

ჩვენ ვივარაუდებთ, რომ დღევანდელი ავტონომიური სისტემები მოითხოვს AI-ს, როგორც ავტონომიური ასპექტების წარმოჩენის ძირითად კომპიუტერიზებულ საშუალებას. მე აღვნიშნავ ამას, რადგან თქვენ შეგიძლიათ სცადოთ იმის მტკიცება, რომ ჩვენ შეიძლება გამოვიყენოთ AI-თან დაკავშირებული ტექნოლოგიები და ტექნიკა ავტონომიური სისტემების გასაკეთებლად, რაც მართალია, მაგრამ ნაკლებად სავარაუდოა. ძირითადად, AI მიდრეკილია ავტონომიის უფრო მეტ დონეს და უმეტესობა იყენებს AI მაღალტექნოლოგიას შესაბამისად.

კარგი, ასე რომ, ჩვენ მივიღეთ AI-ზე დაფუძნებული შესაძლებლობა, რომელიც გარკვეულწილად შედის ავტონომიურ სისტემაში და მოქმედებს ავტონომიური სისტემის წარმართვისა და კონტროლისთვის.

შეინახეთ ეს თქვენს ხელზე, როგორც წესი.

როგორც ჩანს, აშკარაა, რომ ჩვენ ასევე გვჭირდება რაიმე სახის იარაღი, წინააღმდეგ შემთხვევაში რატომ განვიხილავთ აქ ავტონომიური სისტემების თემას მდე იარაღი. ასე რომ, დიახ, ცხადია, არსებობს ამა თუ იმ სახის იარაღი.

არ ვაპირებ ჩავუღრმავდე იმ ტიპის იარაღს, რომელიც შეიძლება გამოყენებულ იქნას. თქვენ შეგიძლიათ უბრალოდ შეცვალოთ ნებისმიერი იარაღი, რომელიც მოგახსენებთ. შეიძლება იყოს ზუსტი იარაღი. შესაძლოა არსებობდეს მასობრივად ორიენტირებული დესტრუქციული იარაღი. ეს შეიძლება იყოს ტყვიებით ან ჭურვებით. ეს შეიძლება იყოს ქიმიკატები ან ატომური აქროლადი კომპონენტები. სია უსასრულოა.

დამატებითი განხილვა არის თუ არა ხელოვნური ინტელექტი ურთიერთდაკავშირებული იარაღთან. ხელოვნური ინტელექტი შესაძლოა უბრალოდ იარაღს სასეირნოდ მიჰქონდეს. ოთხფეხა რობოტის შემთხვევაში, რომელიც ისროდა იარაღს, შესაძლოა, იარაღს ისვრის ადამიანი, რომელსაც აქვს დისტანციური მართვის პულტი დაკავშირებული იარაღის გამომწვევთან. ძაღლისმაგვარი რობოტი ნავიგაციას უწევს სცენაზე და შემდეგ დისტანციური ადამიანის გადასაწყვეტია ჩახმახი.

მეორეს მხრივ, ხელოვნური ინტელექტი შეიძლება იყოს ტრიგერის გამწევი, როგორც ეს იყო. ხელოვნური ინტელექტი შესაძლოა შექმნილი ყოფილიყო არა მხოლოდ ნავიგაციისა და მანევრირებისთვის, არამედ იარაღის გასააქტიურებლადაც. ამ თვალსაზრისით, ხელოვნური ინტელექტი აკეთებს ყველაფერს A-დან Z-მდე. არ არის დამოკიდებული დისტანციურ ადამიანზე, რომ შეასრულოს იარაღის მხარე. AI დაპროგრამებულია ამის ნაცვლად.

იმის გასარკვევად, რომ ამ კონკრეტულ შემთხვევაში, ავტონომიური სისტემები, რომლებიც შეიარაღებულია, გვაქვს ასეთი შესაძლებლობები:

  • ავტონომიური სისტემა: AI მართავს ავტონომიურ სისტემას მთლიანად დამოუკიდებლად
  • ავტონომიური სისტემა: AI მართავს ავტონომიურ სისტემას, მაგრამ ადამიანის ჩარევაც შეუძლია
  • შეიარაღება: დისტანციური ადამიანი მართავს იარაღს (AI არა)
  • შეიარაღება: AI მართავს იარაღს, მაგრამ ადამიანის ჩარევაც შეუძლია
  • შეიარაღება: AI იარაღს მთლიანად დამოუკიდებლად მართავს

მე ადრე გავაშუქე ადამიანის ჩარევის ვარიაციები ავტონომიურ სისტემებთან და ავტონომიურ მანქანებთან დაკავშირებით, იხ. ბმული აქ.

როდესაც უყურებთ მხიარულად ორიენტირებულ ვიდეოებს მოცეკვავე და მოციმციმე ოთხფეხა რობოტების შესახებ, ისინი, როგორც წესი, უნდა იყვნენ რობოტები, რომლებსაც ექსკლუზიურად ნავიგაციურად მართავს AI (ეს არის ჩვეულება ან სათანადო ეტიკეტი მათ შორის, რომლებიც ღრმად არიან ამ საკითხებში). ეს არის ის, რაც თქვენ ასევე სამართლიანად შეიძლება ვივარაუდოთ. რა თქმა უნდა, თქვენ ეს ნამდვილად არ იცით. შესაძლოა, რობოტებს დისტანციური ოპერატორი ხელმძღვანელობს. ასევე არსებობს შესაძლებლობა, რომ AI-მ ხელმძღვანელობის ნაწილს გააკეთოს და დისტანციური ადამიანის ოპერატორიც ამას აკეთებს, შესაძლოა დაეხმაროს AI-ს, თუ რობოტი რთულ მდგომარეობაში მოხვდება და ვერ შეძლებს გამოთვლით გამოთვალოს სიცოცხლისუნარიანი საშუალება თავისუფლად მოძრაობს.

არსი აქ არის ის, რომ არსებობს მრავალი გემოვნება იმისა, თუ როგორ შეიძლება AI და ავტონომიური სისტემები და იარაღის შერევა. ზოგიერთს აქვს AI, რომელიც მართავს ავტონომიურ სისტემას, მაგრამ არ მუშაობს იარაღზე. ადამიანი შესაძლოა დისტანციურად მართავს იარაღს. კიდევ ერთი კუთხით არის ის, რომ იარაღი შესაძლოა წინასწარ იყოს გააქტიურებული და ავტონომიური სისტემა აწვდის გააქტიურებულ იარაღს, ამდენად, AI უშუალოდ არ მონაწილეობდა იარაღის გაშვებაში და სანაცვლოდ მოქმედებდა როგორც მიწოდების მანქანა. და შესაძლოა, ხელოვნური ინტელექტი არის ანდაზური ჯეკი ყველა ვაჭრობისთვის და ახორციელებს ავტონომიური სისტემის ასპექტების მთელ სპექტრს იარაღის გამოყენებასთან დაკავშირებითაც.

აიღე შენი არჩევანი.

იმავდროულად, გთხოვთ, იცოდეთ, რომ ადამიანის მარყუჟი არის დიდი ფაქტორი, როდესაც საქმე ეხება დებატებს ამ თემაზე.

ზოგიერთის გამყოფი ხაზი არის ის, რომ თუ ხელოვნური ინტელექტი ახორციელებს დამიზნებას და სროლას (ან რასაც იარაღს გულისხმობს), მაშინ მთელი ნაკრები და კაბუდლი გადაკვეთს არა-არა მიწაზე. ეს ერთი შეხედვით განსხვავდება ჩვეულებრივი ცეცხლი და დაივიწყე იარაღისგან, რომელსაც აქვს წინასწარ დამიზნებული ადამიანის მიერ განსაზღვრული შერჩევა, როგორიცაა საპატრულო თვითმფრინავი, რომელსაც აქვს რაკეტა მზად სამიზნეზე გასასროლად. უკვე ადამიანის მიერ არჩეული.

ზოგს აინტერესებს, რატომ არ უნდა იყოს შეიარაღებული ავტონომიური სისტემები, რომლებიც ყოველთვის არ შეიცავენ ადამიანის ციკლს ავტონომიური სისტემის სტატუსში ყოფნის პროცესში. როგორც ჩანს, ჩვენ უკეთესად ვიქნებოდით, თუ მკაცრი მოთხოვნა იყო, რომ ყველა ასეთ შეიარაღებულ ავტონომიურ სისტემას უნდა ჰქონოდა ადამიანის მარყუჟში, ან ამას აკეთებდნენ ავტონომიური სისტემის მუშაობისთვის ან იარაღის მუშაობისთვის (ან ორივესთვის). . ამ ხელოვნური ინტელექტის მიქსში ადამიანის სავარაუდო დარწმუნებული და სტაბილური ხელის შენარჩუნება შეიძლება სრულიად გამჭრიახი ჩანდეს.

მოემზადეთ იმ მიზეზების გრძელი ჩამონათვალისთვის, თუ რატომ არ არის ეს აუცილებელი.

განვიხილოთ ეს სირთულეები:

  • Human-in-the-loop შეიძლება არ იყოს საკმარისად სწრაფი იმისთვის, რომ დროული რეაგირება მოახდინოს
  • Human-in-the-loop შეიძლება არ ჰქონდეს საკმარისი ინფორმაცია პასუხისმგებლობისთვის
  • Human-in-the-loop შესაძლოა არ იყოს ხელმისაწვდომი საჭირო დროს
  • Human-in-the-Loop შესაძლოა გადაუწყვეტელი იყოს და საჭიროების შემთხვევაში არ იმოქმედოს
  • ადამიანმა შეიძლება მიიღოს "არასწორი" გადაწყვეტილება (შედარებით)
  • Human-in-the-loop შესაძლოა არ იყოს ხელმისაწვდომი სისტემიდან საჭირო დროს
  • Human-in-the-loop შეიძლება დაბნეული და გადატვირთული იყოს
  • ა.შ.

თქვენ უდავოდ გაგიჩნდებათ ცდუნება, გადახედოთ ადამიანთა სისუსტეებისა და შეზღუდვების ჩამონათვალს და შემდეგ მიხვიდეთ საზეიმო დასკვნამდე, რომ აშკარად აზრი აქვს ადამიანის ციკლში ამოკვეთას და ყოველთვის AI-ს გამოყენებას. ეს შეიძლება იყოს ადამიანის მარყუჟის გამორიცხვით, ან შესაძლოა AI-ს შეეძლოს გადალახოს ჩანერგილი ადამიანის მარყუჟის დიზაინი. იხილეთ ჩემი ანალიზი იმის შესახებ, თუ როგორ შეიძლება გამოიწვიოს უთანხმოებამ AI-სა და ადამიანის მარყუჟში საეჭვო სიტუაციებამდე. ბმული აქ.

ხშირად, ამ სახის რეალურ დროში ადამიანზე ორიენტირებული უარყოფითი მხარეების დამამცირებელი სია თავისთავად ტოვებს და ტოვებს შთაბეჭდილებას, რომ ხელოვნური ინტელექტი გარკვეულწილად უფრო გონივრული არჩევანი უნდა იყოს, ვიდრე ადამიანის მარყუჟის ქონა. . ნუ ჩავარდებით იმ მოღალატე ხაფანგში. არსებობს დამამშვიდებელი ვაჭრობა ჩართული.

განვიხილოთ AI-ს ეს შედეგები:

  • ხელოვნური ინტელექტი შეიძლება წააწყდეს შეცდომას, რამაც გამოიწვია მისი შეცდომა
  • ხელოვნური ინტელექტი შესაძლოა გადატვირთული იყოს და ჩაკეტილი იყოს უპასუხოდ
  • AI შეიძლება შეიცავდეს დეველოპერის შეცდომებს, რომლებიც იწვევს არარეგულარულ ქცევას
  • AI შესაძლოა დაზიანდეს იმპლანტირებული ბოროტმოქმედის ვირუსით
  • AI შესაძლოა რეალურ დროში დაიპყროს კიბერჰაკერებმა
  • AI შეიძლება ჩაითვალოს არაპროგნოზირებად სირთულის გამო
  • AI-მ შესაძლოა გამოთვლით მიიღოს "არასწორი" გადაწყვეტილება (შედარებით)
  • ა.შ.

მე მჯერა, რომ თქვენ ხედავთ, რომ არსებობს ურთიერთდამოკიდებულებები ადამიანის ციკლის გამოყენებასა და მხოლოდ AI-ზე დამოკიდებულს შორის. იმ შემთხვევაში, თუ თქვენ ცდუნებას მიგაჩნიათ, რომ მზა გამოსავალი ორივეს გამოყენებაა, მინდა ხაზგასმით აღვნიშნო, რომ თქვენ შეგიძლიათ მიიღოთ საუკეთესო ორივე სამყაროდან, მაგრამ ასევე შეგიძლიათ მიიღოთ ყველაზე უარესი ორივე სამყაროდან. არ იფიქროთ, რომ ის ყოველთვის და აუცილებლად იქნება საუკეთესო ორივე სამყაროში.

თქვენ შეიძლება გარკვეულწილად გაგიკვირდეთ AI-ის ზემოთ ჩამოთვლილმა ერთ-ერთმა უარყოფითმა მხარემ, კერძოდ, რომ AI შეიძლება იყოს არაპროგნოზირებადი. ჩვენ მიჩვეული ვართ გვჯეროდეს, რომ ხელოვნური ინტელექტი უნდა იყოს მკაცრად ლოგიკური და მათემატიკურად ზუსტი. როგორც ასეთი, თქვენ ასევე შეიძლება ველოდოთ, რომ AI იქნება სრულად პროგნოზირებადი. ჩვენ უნდა ვიცოდეთ ზუსტად რას გააკეთებს AI. პერიოდი, მოთხრობის დასასრული.

ბოდიში ამ ბუშტის აფეთქებისთვის, მაგრამ პროგნოზირებადობის ეს მითი არასწორი ტერმინია. თანამედროვე ხელოვნური ხელოვნური ინტელექტის ზომა და სირთულე ხშირად უაზროა, რომელიც სრულყოფილად პროგნოზირებადობას ეწინააღმდეგება. ეს ჩანს ეთიკური AI აჟიოტაჟში მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოყენების შესახებ. მოკლედ აგიხსნით.

ასევე, შეგიძლიათ გადახედოთ ჩემს უახლეს ანალიზს მომავალი ტენდენციების მცდელობის შესახებ, რათა უზრუნველყოს შემოწმებადი და მათემატიკურად დასამტკიცებლად სწორი AI სისტემები AI უსაფრთხოების უახლესი გზით. ბმული აქ.

Ruminating გზის წესებზე

მე აღვნიშნე სამიზნეების და დამიზნების ცნება, რომელიც საკმაოდ მძიმედ დატვირთული ტერმინოლოგიაა, რომელიც დიდ ყურადღებას იმსახურებს.

ჩვენ შეგვიძლია ვიფიქროთ ამაზე:

  • სამიზნეები, რომლებიც ადამიანები არიან
  • სამიზნეები, რომლებიც არ არიან ადამიანები, არამედ ცოცხალი არსებები
  • მიზნები, რომლებიც განიმარტება როგორც საკუთრება

დავუშვათ, რომ გვაქვს ავტონომიური სისტემა, რომელიც შეიარაღებულია. ხელოვნური ინტელექტი გამოიყენება ავტონომიური სისტემის მართვისთვის და გამოიყენება იარაღისთვის. ხელოვნური ინტელექტი აკეთებს ყველაფერს A-დან Z-მდე. არ არსებობს დებულება ადამიანის ციკლში. დამიზნების თვალსაზრისით, AI ირჩევს სამიზნეებს. არ არსებობს წინასწარი დამიზნება, რომელიც დადგენილია ადამიანების მიერ. ამის ნაცვლად, ხელოვნური ინტელექტი დაპროგრამებულია იმისთვის, რომ ზოგადად გაარკვიოს, არის თუ არა ადამიანები, რომლებიც უნდა იყოს მიზანმიმართული (შესაძლოა მტრული ქმედებების სკანირება, გარკვეული სახის უნიფორმები და ა.შ.).

ჩემთან ერთად აქამდე?

ეს სცენარი არის თითქმის ის, რაც იწვევს ყველაზე დიდ აჟიოტაჟს შეიარაღებული ავტონომიური სისტემების შესახებ.

გამოცხადებული შეშფოთება არის ის, რომ AI აკეთებს (მინიმუმ) სამ რამეს, რისი გაკეთებაც არ უნდა იყოს ნებადართული:

  • ადამიანების დამიზნება სამიზნეებად
  • დამიზნება ადამიანის მარყუჟის გამოყენების გარეშე
  • პოტენციურად არაპროგნოზირებადიly

გაითვალისწინეთ, რომ ხაზგასმულია წუხილი იმის შესახებ, რომ AI არაპროგნოზირებადია. შესაძლოა, მიუხედავად იმისა, რომ ხელოვნური ინტელექტი დაპროგრამებული იყო გარკვეული ტიპის ადამიანებზე სამიზნეზე, ხელოვნური ინტელექტის პროგრამირება არ არის ის, რაც ჩვენ გვეგონა, და AI საბოლოოდ მიზნად ისახავს „მეგობრებს“ გარდა იმათგან, რომლებიც AI უნდა განემარტა, როგორც „მტრები“. ” (ან, შესაძლოა ამის ნაცვლად). გარდა ამისა, მაშინაც კი, თუ ჩვენ ვირჩევთ ადამიანის ციკლის დებულების ჩართვას, ხელოვნური ინტელექტის არაპროგნოზირებადობა შეიძლება ნიშნავდეს იმას, რომ როდესაც ხელოვნური ინტელექტი უნდა დაუკავშირდეს ადამიანის ციკლს, ის ვერ გააკეთებს. ასე და მოქმედებს ადამიანის ყოველგვარი ჩარევის გარეშე.

შეიძლება დაგაინტერესოთ, რომ წითელი ჯვრის საერთაშორისო კომიტეტმა (ICRC) შემოგვთავაზა სამპუნქტიანი ყოვლისმომცველი პოზიცია ავტონომიური იარაღის სისტემების შესახებ, რომელიც განიხილავს ამ ტიპის შეშფოთებას (ICRC ვებსაიტზე):

1. „არაპროგნოზირებადი ავტონომიური იარაღის სისტემები მკაფიოდ უნდა იყოს მართული გარეთგანსაკუთრებით მათი განურჩეველი ეფექტის გამო. ეს საუკეთესოდ მიიღწევა ავტონომიური იარაღის სისტემების აკრძალვით, რომლებიც შექმნილია ან გამოიყენება ისე, რომ მათი ეფექტი არ იყოს საკმარისად გაგებული, პროგნოზირებული და ახსნილი.

2. „ეთიკური მოსაზრებების გათვალისწინებით, კაცობრიობის დასაცავად და საერთაშორისო ჰუმანიტარული სამართლის წესების დაცვის მიზნით მშვიდობიანი მოსახლეობისა და მებრძოლების hors de combat დაცვის მიზნით, უნდა გამოირიცხოს ავტონომიური იარაღის სისტემების გამოყენება ადამიანების დასამიზნებლად. ეს საუკეთესოდ მიიღწევა ავტონომიური იარაღის სისტემების აკრძალვით, რომლებიც შექმნილია ან გამოიყენება ადამიანების წინააღმდეგ ძალის გამოსაყენებლად“.

3. „სამოქალაქო და სამოქალაქო ობიექტების დასაცავად, საერთაშორისო ჰუმანიტარული სამართლის წესების დასაცავად და კაცობრიობის დაცვის მიზნით, უნდა დარეგულირდეს ავტონომიური იარაღის სისტემების დიზაინი და გამოყენება, რომლებიც არ იქნება აკრძალული, მათ შორის: შეზღუდვები სამიზნეების ტიპებზე, როგორიცაა მათი შეზღუდვა ისეთი ობიექტებით, რომლებიც ბუნებით სამხედრო მიზნებს წარმოადგენს; შეზღუდვები ხანგრძლივობის, გეოგრაფიული ფარგლების და გამოყენების მასშტაბის შესახებ, მათ შორის ადამიანთა განსჯის და კონტროლის შესაძლებლობა კონკრეტულ თავდასხმასთან დაკავშირებით; გამოყენების სიტუაციების შეზღუდვები, როგორიცაა მათი შეზღუდვა იმ სიტუაციებში, სადაც მშვიდობიანი მოქალაქეები ან სამოქალაქო ობიექტები არ იმყოფებიან; რმოთხოვნები ადამიანისა და მანქანის ურთიერთქმედებისთვისგანსაკუთრებით ეფექტური ადამიანური ზედამხედველობისა და დროული ჩარევისა და დეაქტივაციის უზრუნველსაყოფად“.

ამასთან დაკავშირებით, გაერთიანებული ერების ორგანიზაციამ (გაერო) ჟენევის გარკვეული ჩვეულებრივი იარაღის შესახებ კონვენციის (CCW) მეშვეობით დაადგინა თერთმეტი არასავალდებულო სახელმძღვანელო პრინციპი სასიკვდილო ავტონომიურ იარაღზე, ონლაინ გამოქვეყნებული ოფიციალური ანგარიშის მიხედვით (მოიცავს შესაბამის საერთაშორისო ჰუმანიტარულ საკითხებს. კანონი ან IHL დებულებები):

(ა) საერთაშორისო ჰუმანიტარული სამართალი აგრძელებს სრულად გამოყენებას ყველა იარაღის სისტემაზე, მათ შორის ლეტალური ავტონომიური იარაღის სისტემების პოტენციურ განვითარებასა და გამოყენებაზე;

(ბ) იარაღის სისტემების გამოყენების შესახებ გადაწყვეტილებებზე ადამიანის პასუხისმგებლობა უნდა შენარჩუნდეს, რადგან ანგარიშვალდებულება არ შეიძლება გადაეცეს მანქანებს. ეს გასათვალისწინებელია იარაღის სისტემის მთელი სასიცოცხლო ციკლის განმავლობაში;

(გ) ადამიანი-მანქანის ურთიერთქმედება, რომელსაც შეიძლება ჰქონდეს სხვადასხვა ფორმები და განხორციელდეს იარაღის სასიცოცხლო ციკლის სხვადასხვა ეტაპებზე, უნდა უზრუნველყოფდეს, რომ ლეტალური ავტონომიური იარაღის სისტემების სფეროში განვითარებად ტექნოლოგიებზე დაფუძნებული იარაღის სისტემების პოტენციური გამოყენება. შესაბამისობა მოქმედ საერთაშორისო სამართალთან, კერძოდ, IHL-სთან. ადამიანისა და მანქანის ურთიერთქმედების ხარისხისა და მასშტაბის განსაზღვრისას, გასათვალისწინებელია მთელი რიგი ფაქტორები, მათ შორის ოპერაციული კონტექსტი და მთლიანად იარაღის სისტემის მახასიათებლები და შესაძლებლობები;

(დ) CCW-ის ფარგლებში წარმოქმნილი იარაღის სისტემის შემუშავების, განლაგებისა და გამოყენების პასუხისმგებლობა უზრუნველყოფილი უნდა იყოს მოქმედი საერთაშორისო სამართლის შესაბამისად, მათ შორის, ასეთი სისტემების ფუნქციონირებით ადამიანთა ბრძანებისა და კონტროლის პასუხისმგებელი ჯაჭვის ფარგლებში;

ე) სახელმწიფოთა საერთაშორისო სამართლის ვალდებულებების შესაბამისად, ახალი იარაღის, საშუალების ან საბრძოლო მეთოდის შესწავლისას, შემუშავების, შეძენის ან გამოყენებისას, უნდა განისაზღვროს, იქნება თუ არა მისი გამოყენება ზოგიერთ ან ყველა ვითარებაში. აკრძალულია საერთაშორისო კანონმდებლობით;

(ვ) ახალი იარაღის სისტემების შემუშავებისას ან შეძენისას, რომელიც ეფუძნება განვითარებად ტექნოლოგიებს სასიკვდილო ავტონომიური იარაღის სისტემების სფეროში, ფიზიკური უსაფრთხოება, შესაბამისი არაფიზიკური გარანტიები (მათ შორის კიბერუსაფრთხოება ჰაკერების ან მონაცემთა გაყალბებისგან), ტერორისტული ჯგუფების მიერ შეძენის რისკი. და გასათვალისწინებელია გავრცელების რისკი;

(ზ) რისკის შეფასება და შემარბილებელი ღონისძიებები უნდა იყოს ნებისმიერი იარაღის სისტემაში განვითარებადი ტექნოლოგიების დიზაინის, განვითარების, ტესტირებისა და განლაგების ციკლის ნაწილი;

(თ) გასათვალისწინებელია განვითარებადი ტექნოლოგიების გამოყენება სასიკვდილო ავტონომიური იარაღის სისტემების სფეროში IHL-ის და სხვა მოქმედი საერთაშორისო სამართლებრივი ვალდებულებების დაცვის მიზნით;

(i) პოტენციური პოლიტიკის ზომების შემუშავებისას, ლეტალური ავტონომიური იარაღის სისტემების სფეროში განვითარებადი ტექნოლოგიები არ უნდა იყოს ანთროპომორფიზაცია;

(კ) დისკუსიებმა და ნებისმიერი პოტენციური პოლიტიკის ღონისძიება, რომელიც მიიღება CCW-ის კონტექსტში, არ უნდა შეაფერხოს ინტელექტუალური ავტონომიური ტექნოლოგიების მშვიდობიანი გამოყენების პროგრესს ან წვდომას;

(ლ) CCW გთავაზობთ შესაბამის ჩარჩოს სასიკვდილო ავტონომიური იარაღის სისტემების სფეროში განვითარებადი ტექნოლოგიების საკითხის მოსაგვარებლად კონვენციის მიზნებისა და მიზნების კონტექსტში, რომელიც ცდილობს ბალანსი დამყარდეს სამხედრო აუცილებლობასა და ჰუმანიტარულ მოსაზრებებს შორის.

უბედურება, რომელშიც ჩვენ აღმოვჩნდებით

ომის ეს სხვადასხვა კანონები, შეიარაღებული კონფლიქტის კანონები, ან IHL (საერთაშორისო ჰუმანიტარული კანონები) ემსახურება როგორც სასიცოცხლო და ყოველთვის პერსპექტიულ სახელმძღვანელოს იმის გასათვალისწინებლად, თუ რა შეიძლება ვეცადოთ გავაკეთოთ ავტონომიური სისტემების გამოჩენასთან დაკავშირებით, რომლებიც შეიარაღებულნი არიან, იქნება ეს საკვანძო დიზაინით თუ ფაქტობრივი მეთოდებით.

ჩვენ შეგვიძლია გულწრფელად ვისურვოთ, რომ ლეტალური იარაღის ავტონომიური სისტემების აკრძალვა მკაცრად და მორჩილად იყოს დაცული. პრობლემა ის არის, რომ ბევრი სატვირთო ოთახი აუცილებლად მოიძებნება ნებისმიერ ყველაზე გულწრფელ აკრძალვაში. როგორც ამბობენ, წესების დარღვევაა. შეგიძლიათ დადოთ ფსონი, რომ იქ, სადაც საქმეები უსუსურია, რიფრაფი აღმოფხვრის ხარვეზებს და შეეცდება თვალის დახამხამება წესების გარშემო.

აქ არის რამდენიმე პოტენციური ხარვეზი, რომლებიც განხილვის ღირსია:

  • პრეტენზიები არალეტალური. Გააკეთოს არალეტალური ავტონომიური იარაღის სისტემები (როგორც ჩანს, კარგია, რადგან ის აკრძალვის საზღვრებს მიღმაა), რომელიც შემდეგ შეგიძლიათ ცოტა ხნით გადახვიდეთ ლეტალურად (თქვენ მხოლოდ ბოლო წუთს გადალახავთ აკრძალვას).
  • მხოლოდ ავტონომიური სისტემის პრეტენზიები. დაიცავით აკრძალვა ლეტალურად ორიენტირებული ავტონომიური სისტემების შექმნით, იმავდროულად, მიაღწიეთ იმდენ პროგრესს ყოველდღიური ავტონომიური სისტემების შემუშავებაში, რომლებიც (ჯერ) არ არის შეიარაღებული, მაგრამ თქვენ შეგიძლიათ ცოტა ხნით გადააკეთოთ იარაღად.
  • პრეტენზიები არ არის ინტეგრირებული როგორც ერთი. შექმენით ავტონომიური სისტემები, რომლებიც საერთოდ არ არის შეიარაღებული და, როცა დრო მოვა, პიგჯიბექი იარაღდება, რომ თქვენ შეგიძლიათ სცადოთ კამათი, რომ ისინი ორი ცალკეული ელემენტია და, შესაბამისად, ამტკიცებთ, რომ ისინი არ განეკუთვნება "ყველა-ერთში" რუბრიკას. ავტონომიური იარაღის სისტემა ან მისი ბიძაშვილი.
  • ამტკიცებს, რომ ეს არ არის ავტონომიური. შექმენით იარაღის სისტემა, რომელიც არ ჩანს ავტონომიური ტევადობის. დატოვეთ ადგილი ამ, სავარაუდოდ, არაავტონომიურ სისტემაში ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ავტონომიის შემცირებისთვის. საჭიროების შემთხვევაში, შეაერთეთ ავტონომია და მზად ხართ გადახვიდეთ (აქამდე, როგორც ჩანს, აკრძალვას არ არღვევდით).
  • სხვა

უამრავი სხვა გამოხატული სირთულეა ლეტალური ავტონომიური იარაღის სისტემების პირდაპირი აკრძალვის მცდელობისას. კიდევ რამდენიმე მათგანს გავაშუქებ.

ზოგიერთი ექსპერტი ამტკიცებს, რომ აკრძალვა არ არის განსაკუთრებით სასარგებლო და ამის ნაცვლად უნდა არსებობდეს მარეგულირებელი დებულებები. იდეა ისაა, რომ ეს კონტრაპტიები დაშვებული იქნება, მაგრამ მკაცრად კონტროლირებადი. ასახულია კანონიერი გამოყენების ლიტანიობა, დამიზნების კანონიერ გზებთან, შესაძლებლობების კანონიერ ტიპებთან, კანონიერ პროპორციულობასთან და ა.შ.

მათი აზრით, პირდაპირი აკრძალვა ჰგავს თავის ქვიშაში ჩადებას და ვითომ ოთახში სპილო არ არსებობს. თუმცა, ეს კამათი ადუღებს მათ, ვინც ეწინააღმდეგება არგუმენტს, რომ აკრძალვის დაწესებით თქვენ შეგიძლიათ მკვეთრად შეამციროთ ცდუნება ამ ტიპის სისტემების მიმართ. რა თქმა უნდა, ზოგი აკრძალავს აკრძალვას, მაგრამ იმედია, უმეტესობა ამას არ გააკეთებს. ამის შემდეგ შეგიძლიათ ყურადღება გაამახვილოთ ფანტასტიებზე და არ მოგიწიოთ თქვენი ყურადღების მიქცევა ყველას მიმართ.

მრგვალდება ეს დებატები.

კიდევ ერთი ხშირად გამოთქმული საზრუნავი არის ის, რომ მაშინაც კი, თუ კარგი დაიცავს აკრძალვას, ცუდი არ იქნება. ეს კარგ პოზაში აყენებს. ცუდებს ექნებათ ასეთი ტიპის შეიარაღებული ავტონომიური სისტემები და კარგებს არა. მას შემდეგ რაც გამოვლინდება, რომ ცუდებს აქვთ ისინი, კარგს უკვე გვიანი იქნება. მოკლედ, ერთადერთი ჭკვიანური საქმეა ცეცხლთან საბრძოლველად მომზადება.

ასევე არსებობს კლასიკური შეკავების წინააღმდეგობა. თუ კარგები ირჩევენ იარაღებით აღჭურვილი ავტონომიური სისტემების შექმნას, ეს შეიძლება გამოყენებულ იქნას იმისთვის, რომ ცუდებმა შეაჩერონ ბრძოლაში შეღწევა. ან კარგი იქნება უკეთ შეიარაღებული და ამით ცუდებს დაიცავს, ან კარგი იქნება მზად, როცა ცუდები შესაძლოა გამოავლინონ, რომ ისინი ფარულად ქმნიდნენ ამ სისტემებს მთელი ამ ხნის განმავლობაში.

ამ მრიცხველების საწინააღმდეგოა ის, რომ შეიარაღებული ავტონომიური სისტემების შექმნით თქვენ აწარმოებთ შეიარაღების რბოლას. მეორე მხარეც იგივეს ეძებს. მაშინაც კი, თუ მათ ტექნოლოგიურად ვერ შეძლებენ ასეთი სისტემების ხელახლა შექმნას, ისინი ახლა შეძლებენ მოიპარონ „კარგების“ გეგმები, შეცვალონ მაღალტექნოლოგიური გონების ინჟინერია ან მიბაძონ რასაც, როგორც ჩანს, ცდად და ჭეშმარიტად თვლიან. სამუშაოს შესრულების გზა.

აჰა, ზოგიერთი მიპასუხებს, ამ ყველაფერმა შეიძლება გამოიწვიოს კონფლიქტების შემცირება ერთი შეხედვით ურთიერთდახმარებით. თუ მხარე A-მ იცის, რომ B მხარეს აქვს ეს ლეტალური ავტონომიური სისტემების იარაღი, ხოლო B მხარემ იცის, რომ A მხარეს აქვს ისინი, ისინი შეიძლება მჭიდროდ იჯდეს და არ მოხდეს აფეთქება. მას აქვს ორმხრივად უზრუნველყოფილი განადგურების (MAD) ვიბრაციების მკაფიო აურა.

და ასე შემდეგ.

AI ავტონომიაში

მოდით დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

იყავით ძალიან ფრთხილად დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციასთან დაკავშირებით.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ამ დამატებული ფუნდამენტური ფონით, ჩვენ კიდევ ერთხელ მივმართავთ ავტონომიურ სისტემებსა და იარაღების თემას. ადრე ვნახეთ, რომ AI შედის ავტონომიური სისტემის კომპონენტში და ასევე შეუძლია შევიდეს შეიარაღების კომპონენტში. დღევანდელი AI არ არის მგრძნობიარე. ეს გამეორების ღირსია და მე ხაზს ვუსვამ ამ საკითხებში დამატებითი ინფორმაციის მისაღებად.

მოდით გამოვიკვლიოთ რამდენიმე სცენარი, რათა დავინახოთ, როგორ არის ეს გადამწყვეტი მოსაზრება. მე მომენტალურად გადავალ ამ თემაზე ომისდროინდელ ორიენტაციას და ვაჩვენებ, თუ როგორ გადის იგი ბევრ სხვა სოციალურ გარემოში. შესაბამისად, დადექით.

AI-ზე დაფუძნებული ავტონომიური სისტემა, როგორიცაა ავტონომიური მანქანა, რომელსაც ჩვენ ვიტყვით, არანაირი კავშირი არ აქვს იარაღთან, თავის გზას ადგას ნორმალურ ლოკაციაში. ადამიანი მოდის ავტონომიური მანქანის გამოსაყენებლად. პირი შეიარაღებულია წინამორბედი იარაღით. ამ კონკრეტულ სცენარში განხილვისთვის ჩავთვალოთ, რომ ადამიანს აქვს რაღაც არასასურველი მხედველობაში. ადამიანი ჯდება ავტონომიურ მანქანაში (იარაღს ატარებს, დამალული თუ დაუფარავი, ნებისმიერ შემთხვევაში).

ავტონომიური მანქანა მიდის ნებისმიერ დანიშნულების ადგილზე, რომელსაც მხედარი ითხოვს. ამ შემთხვევაში, ხელოვნური ინტელექტი უბრალოდ პროგრამულად გადაჰყავს ამ მგზავრს ერთი პიკაპის ადგილიდან დანიშნულ დანიშნულებამდე, ისევე, როგორც ამას აკეთებდა ათობით ან ასობით მოგზაურობის დროს, ყოველდღე.

ეს რომ ყოფილიყო ადამიანის მძღოლი და ადამიანის მიერ მართული სატრანსპორტო საშუალება, სავარაუდოდ, არსებობს გარკვეული შანსი, რომ ადამიანი მძღოლი გააცნობიეროს, რომ მგზავრი შეიარაღებულია და, როგორც ჩანს, არასასურველი ზრახვები აქვს. ადამიანმა მძღოლმა შესაძლოა უარი თქვას მანქანის მართვაზე. ან ადამიანი მძღოლმა შეიძლება მიიყვანოს პოლიციის განყოფილებაში. ან შესაძლოა ადამიანმა მძღოლმა სცადოს შეიარაღებული მგზავრის დამორჩილება (აღნიშნული შემთხვევები არსებობს) ან მგზავრს იარაღის გამოყენებისგან თავის დაკავება. ეს საკმაოდ რთულია და ვარიაციების ნებისმიერი რაოდენობა შეიძლება არსებობდეს. თქვენ გაგიჭირდებათ იმის მტკიცება, რომ არსებობს მხოლოდ ერთი სწორი პასუხი ასეთი სიტუაციის გადასაჭრელად. სამწუხაროდ, სიტუაცია შემაშფოთებელი და აშკარად საშიშია.

AI ამ შემთხვევაში ნაკლებად სავარაუდოა, რომ იყოს დაპროგრამებული რომელიმე ამ ტიპის შესაძლებლობისთვის. მოკლედ, შეიარაღებულ მგზავრს შეუძლია გამოიყენოს თავისი იარაღი, ამას აკეთებს ავტონომიური სატრანსპორტო საშუალების შიგნიდან, მართვის დროს. ხელოვნური ინტელექტის მართვის სისტემა გააგრძელებს მოგზაურობას და ავტონომიური მანქანა გააგრძელებს მგზავრობის მითითებულ აღნიშვნას (იმ შემთხვევაში, თუ დანიშნულების ადგილი სხვაგვარად არ განიხილებოდა საზღვრებს გარეთ).

თანამედროვე ხელოვნური ინტელექტის მართვის სისტემების უმეტესობა გამოთვლით ფოკუსირებული იქნება მხოლოდ გზაზე და არა მხედრის ძალისხმევაზე.

შეიძლება ამაზე უარესიც იყოს.

დავუშვათ, ვინმეს სურს გადაიტანოს სასურსათო პროდუქტების თაიგული იქ, სადაც დამატებითი საკვებია გაჭირვებულებისთვის. ადამიანი ითხოვს ავტონომიურ მანქანას და დებს სასურსათო ჩანთებს მანქანის უკანა სავარძელში. ისინი არ აპირებენ მგზავრობისას და მხოლოდ ავტონომიურ მანქანას იყენებენ მათთვის საკვების ჩანთების მიწოდებისთვის.

მშვენივრად გამოიყურება.

წარმოიდგინეთ, რომ საზიზღარი ადამიანი ირჩევს ავტონომიურ მანქანაში იარაღის განთავსებას, ვიდრე სასურსათო ჩანთების უფრო მშვიდობიანი ცნება. ვფიქრობ, შეგიძლიათ გამოიცნოთ რა შეიძლება მოხდეს. ეს არის შეშფოთება, რომელსაც მე არაერთხელ მოვუწოდებ ჩემს სვეტებში და წინასწარ ვაფრთხილებ, რომ ადრე უნდა გავუმკლავდეთ, ვიდრე გვიან.

ამ ტიპის სცენარებზე შემოთავაზებული პასუხი არის ის, რომ შესაძლოა ყველა ავტონომიური მანქანა შეიძლება იყოს დაპროგრამებული, რათა გამოიყენოს თავისი კამერები და სხვა სენსორები, რათა დადგინდეს, არის თუ არა პოტენციური მგზავრი შეიარაღებული და აქვს თუ არა ბოროტი განზრახვები. შესაძლოა AI დაპროგრამებული იყოს ამის გასაკეთებლად. ან ხელოვნური ინტელექტი ელექტრონულად და ჩუმად აფრთხილებს დისტანციურ ადამიანურ ოპერატორს, რომელიც შემდეგ კამერების მეშვეობით ვიზუალურად და სხვაგვარად შეისწავლის და შესაძლოა დაუკავშირდეს მგზავრს. ეს ყველაფერი არის ჭიების რთული და პოტენციურად გაუგებარი ჭიების ნაწილი, რომელიც იწვევს კონფიდენციალურობის საკითხებს და სხვა პოტენციურ ეთიკურ AI შეშფოთებას. იხილეთ ჩემი გაშუქება აქ ბმული აქ.

სხვა გარკვეულწილად მსგავსი ალტერნატივა არის ის, რომ AI შეიცავს რაიმე სახის ჩაშენებულ ეთიკის პროგრამირებას, რომელიც ცდილობს AI-ს საშუალება მისცეს გამოიტანოს ეთიკური ან მორალური გადაწყვეტილებები, რომლებიც ჩვეულებრივ დაცულია გადაწყვეტილების მიმღებთათვის. მე შევისწავლე AI-ში ჩაშენებული გამოთვლითი ეთიკის პროგნოსტიატორების წარმოების სახეები, იხ. ბმული აქ მდე ბმული აქ.

დავუბრუნდეთ ბრძოლის ველზე სცენარს, წარმოიდგინეთ, რომ სასიკვდილო ავტონომიური იარაღის სისტემა მოძრაობს საბრძოლო ზონის თავზე. AI მუშაობს ავტონომიურ სისტემაზე. AI მუშაობს იარაღზე ბორტზე. ჩვენ ადრე გვქონდა ჩაფიქრებული შესაძლებლობა, რომ ხელოვნური ინტელექტი დაპროგრამებული ყოფილიყო ერთი შეხედვით მტრული მოძრაობების ან სხვა ინდიკატორების ადამიანური სამიზნეების სკანირებისთვის, რომლებიც ითვლება მოქმედ მებრძოლებად.

უნდა ჰქონდეს თუ არა ამ იგივე AI-ს რაიმე სახის ეთიკურზე ორიენტირებული კომპონენტი, რომელიც ცდილობს გამოთვლით განიხილოს, თუ რა შეიძლება გააკეთოს ადამიანი-ში-ში-ში, იმოქმედოს გარკვეული გაგებით ადამიანის მარყუჟის არსებობის ნაცვლად?

ზოგი ამბობს, დიახ, მოდით გავაგრძელოთ ეს. ზოგი საშინლად უკან იხევს და ამბობს, რომ ეს ან შეუძლებელია, ან სხვაგვარად არღვევს კაცობრიობის სიწმინდეს.

ჭიების კიდევ ერთი ქილა.

დასკვნა

მათთვის, ვინც დაინტერესებულია ამ თემით, კიდევ ბევრი რამ არის განსახილველი.

სწრაფად გასინჯავ ერთ მღელვარე თავსატეხს.

ჩვენ ჩვეულებრივ ველით, რომ ადამიანი საბოლოოდ პასუხს აგებს იმაზე, რაც მოხდება ომის დროს. თუ ხელოვნური ინტელექტი აკონტროლებს იარაღის ავტონომიურ სისტემას ან აკონტროლებს ავტონომიურ სისტემას, რომელიც, სავარაუდოდ, შეიარაღებულია, და ეს სისტემა ბრძოლის ველზე აკეთებს რაღაცას, რომელიც ითვლება არაკეთილსინდისიერად, ვინ ან რა უნდა იყოს ამაში დამნაშავე?

თქვენ შეიძლება ამტკიცებდეთ, რომ AI უნდა იყოს პასუხისმგებელი. მაგრამ, თუ ასეა, რას ნიშნავს ეს? ჩვენ ჯერ კიდევ არ მივიჩნევთ დღევანდელ AI-ს იურიდიული პიროვნების განსახიერებად, იხილეთ ჩემი განმარტება აქ ბმული აქ. AI-ის შემთხვევაში ვირზე კუდის დამაგრება არ არის. შესაძლოა, თუ AI ოდესმე გახდება მგრძნობიარე, შეგიძლიათ სცადოთ ამის გაკეთება. მანამდე, ეს ცოტა ხელმისაწვდომია (პლუს, რა სახის ჯარიმები ან შედეგები შეიძლება დაექვემდებაროს AI-ს, იხილეთ ჩემი ანალიზი: ბმული აქ მდე ბმული აქ, მაგალითად).

თუ ხელოვნური ინტელექტი არ არის პასუხისმგებელი ეჭვმიტანილი, მაშინ ბუნებრივია შეგვიძლია ვთქვათ, რომ რასაც ადამიანმა ან ადამიანებმა შეიმუშავეს ხელოვნური ინტელექტი, პასუხისმგებლობა უნდა აგოს. შეგიძლიათ ამის გაკეთება, თუ ხელოვნური ინტელექტი მხოლოდ ავტონომიურ სისტემას ამუშავებდა და რამდენიმე ადამიანი მოვიდა, რამაც მას შეიარაღება შეუწყო? მიჰყვებით ხელოვნური ინტელექტის დეველოპერებს? ან მათ, ვინც განათავსა AI? ან უბრალოდ იარაღის მომტანი მსახიობი?

მჯერა, რომ გესმით აზრი, რომ ჩემს გულიან დისკუსიაში მხოლოდ აისბერგის წვერს შევეხე.

ახლა მოდით წავიდეთ წინ და დავასრულოთ ეს დისკურსი. ალბათ გახსოვთ, რომ ჯონ ლილი შემოვიდა Euphues: ჭკუის ანატომია 1578 წელს სამახსოვროდ განაცხადა, რომ სიყვარულსა და ომში ყველაფერი სამართლიანია.

ექნებოდა თუ არა მას მხედველობაში ავტონომიური იარაღის სისტემების გაჩენა და ასევე ავტონომიური სისტემების გამოჩენა, რომლებიც შეიარაღებულია?

ჩვენ, რა თქმა უნდა, დაუყოვნებლივ უნდა დავაყენოთ ეს ჩვენს გონებაში.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- იარაღის-სისტემები-და-ეშმაკეულად-იარაღირებული-აი-ის-ის მართვადი-ავტონომიური სისტემების-ექსპლუატაცია/