რა არის პენტაგონის განახლებული პოლიტიკა მკვლელ რობოტებთან დაკავშირებით?

პენტაგონმა გამოსცა განახლება მისი დირექტივის 3000.09, რომელიც მოიცავს იმას, რასაც ისინი ასახელებენ ავტონომია იარაღის სისტემებში და სხვები ეძახიან "მკვლელი რობოტები. ამჟამინდელი დრონები, როგორიცაა საჰაერო ძალები და CIA MQ-9 Reapers იმართება დისტანციური მართვის საშუალებით: ადამიანი იჯდა ვიდეო ეკრანის წინ ამოიცნობს სამიზნეებს მიწაზე ათასობით მილის მოშორებით, ათავსებს მათ საჯვარზე და ათავისუფლებს ჯოჯოხეთის ცეცხლის რაკეტა ან სხვა იარაღი. ავტონომიური იარაღი განსხვავებულია: ისინი ირჩევენ საკუთარ სამიზნეებს ადამიანის ჩარევის გარეშე. საჭიროა მკაფიო წესები იმის შესახებ, თუ როდის და როგორ შეიძლება მათი გამოყენება და ახალი დირექტივა მათ კიდევ ერთი ნაბიჯით უახლოვდება.

ათი წლის წინ, როდესაც გამოვიდა 3000.09-ის პირველი ვერსია, ავტონომიური იარაღი სამეცნიერო ფანტასტიკას ჰგავდა. ახლა ისინი ძალიან რეალურია. ამის შესახებ გაერო ამტკიცებდა თურქეთის მიერ მიწოდებული უპილოტო თვითმფრინავები სამიზნეებს ავტონომიურად უტევდნენ 2020 წელს ლიბიაში და რუსეთი ახლა უკრაინაში დევნილ საბრძოლო მასალებს განათავსებს ავტონომიური შესაძლებლობა.

ბევრი აქტივისტი, როგორიცაა აქცია მკვლელი რობოტების შესაჩერებლად, მინდა ავტონომიური იარაღის პირდაპირი აკრძალვა და დაჟინებით მოითხოვს, რომ ნებისმიერი დისტანციური იარაღი დარჩეს მნიშვნელოვანი ადამიანის კონტროლი ნებისმიერ დროს. გაერო მსჯელობს იმაზე, თუ როგორ აკონტროლეთ ასეთი იარაღი მრავალი წლის განმავლობაში.

თუმცა, როგორც ახალი დირექტივა ცხადყოფს, პენტაგონი განსხვავებულ ხაზს იცავს.

”DoD მუდმივად ეწინააღმდეგებოდა პოლიტიკის სტანდარტს "მნიშვნელოვანი ადამიანის კონტროლის", როდესაც საქმე ეხება როგორც ავტონომიურ სისტემებს, ასევე AI სისტემებს. გრეგორი ალენი, AI მმართველობის პროექტის დირექტორი სტრატეგიული და საერთაშორისო კვლევების ცენტრი, მითხრა. „დოდ ხელოვნების სასურველი ტერმინი არის „ადამიანის განსჯის შესაბამისი დონე“, რაც ასახავს იმ ფაქტს, რომ ზოგიერთ შემთხვევაში – ავტონომიური სათვალთვალო თვითმფრინავი და ზოგიერთი სახის ავტონომიური კიბერიარაღი, მაგალითად – ადამიანის კონტროლის შესაბამისი დონე შეიძლება იყოს მცირე. .”

რა ვითარებაში იქნება ნებადართული ავტონომიური იარაღი? ალენი თვლის, რომ დირექტივის წინა ვერსია იმდენად გაურკვეველი იყო, რომ ხელი შეუშალა ამ სფეროში რაიმე განვითარებას.

„დაბნეულობა იმდენად ფართოდ იყო გავრცელებული - მათ შორის DoD-ის ზოგიერთ მაღალ ხელმძღვანელს შორის - რომ ოფიციალური პირები თავს იკავებდნენ ზოგიერთი სისტემის შემუშავებისგან, რომლებიც არა მხოლოდ პოლიტიკით იყო დაშვებული, არამედ აშკარად გათავისუფლებული იყო უფროსი განხილვის მოთხოვნისაგან“, - ამბობს ალენი.

არც ერთი იარაღი არ წარდგენილ იქნა ავტონომიური იარაღის განხილვის პროცესში, რომელიც ასახულია ორიგინალში 3000.09 გამოქვეყნებიდან ათი წლის განმავლობაში.

ალენმა დაწერა ნარკვევი ამის შესახებ CSIS-ისთვის შარშან, აღწერა ოთხი სფერო, რომელიც საჭიროებდა მუშაობას - ფორმალურად განსაზღვრა ავტონომიური იარაღის სისტემები, თქვა, რას ნიშნავს „AI-ჩართული“ პოლიტიკაში, როგორ გაუმკლავდება განხილვის პროცესი მანქანათმცოდნეობის მოდელების გადამზადებას და იმის გარკვევა, თუ რა ტიპის იარაღს მოითხოვს. გაიაროს რთული განხილვის პროცესი.

"DoD-მ ყველა მათგანი განახორციელა", - ამბობს ალენი.

პრინციპში, ამან უნდა უზრუნველყოს ის, რასაც DoD უწოდებს „ძლიერი და მუდმივი ვალდებულება იყო გამჭვირვალე გლობალური ლიდერი ავტონომიური სისტემების სამხედრო გამოყენებასთან დაკავშირებით პასუხისმგებელი პოლიტიკის ჩამოყალიბებაში“.

თუმცა, არის გარკვეული დამატებები, რომლებიც შეიძლება ჩაითვალოს ხარვეზებად, როგორიცაა გათავისუფლება უმაღლესი განხილვისაგან ავტონომიური იარაღის დამცავი თვითმფრინავების მიმართ, რომლებიც არ მიზნად ისახავს ადამიანებს („ანტიმატერიალური იარაღი“) და რომლებსაც ექნებათ ნებადართული სამიზნე რაკეტები, სხვა დრონები. და პოტენციურად სხვა სისტემები.

„სიტყვა „დაცვა“ უამრავ საქმეს აკეთებს. ზაკ კალენბორნი, მითხრა ჯორჯ მეისონის უნივერსიტეტის Schar-ის პოლიტიკისა და მმართველობის სკოლის პოლიტიკის თანამშრომელმა. თუ თვითმფრინავი მოქმედებს მტრის ტერიტორიაზე, თითქმის ნებისმიერი იარაღი შეიძლება ჩაითვალოს როგორც პლატფორმის „დაცვა“.

კალენბორნი ასევე აღნიშნავს, რომ მიუხედავად იმისა, რომ ეფექტური ავტონომიური იარაღი, როგორიცაა სახმელეთო ნაღმები, გამოიყენება საუკუნეზე მეტი ხნის განმავლობაში, ლანდშაფტი სწრაფად იცვლება ხელოვნური ინტელექტისა და კონკრეტული მანქანათმცოდნეობის მიღწევების გამო. ამან წარმოშვა სისტემები, რომლებიც ძალიან ქმედუნარიანია, მაგრამ ტექნიკურად მყიფე - როდესაც ისინი მარცხდებიან, ისინი საოცრად მარცხდებიან ისე, როგორც, მაგალითად, არც ერთი ადამიანი კუს თოფში შეცდომით.

”ინტელექტის ხელოვნური ინტელექტის მეშვეობით ავტონომია ნამდვილად იმსახურებს მეტ შეშფოთებას, თუ გავითვალისწინებთ ამჟამინდელ დომინანტური მიდგომების მტვრევადობასა და ახსნადობის ნაკლებობას”, - ამბობს კალენბორნი.

განახლება არ არის დიდი. მაგრამ ეს აჩვენებს პენტაგონის მუდმივ ერთგულებას ეფექტური ავტონომიური იარაღის შემუშავებისადმი და რწმენას, რომ მათ შეუძლიათ შეასრულონ საერთაშორისო ჰუმანიტარული სამართლის - განასხვავებენ სამოქალაქო პირებს სამხედრო პერსონალისაგან, ცდილობენ თავიდან აიცილონ მშვიდობიანი მოსახლეობის ზიანი და მხოლოდ პროპორციული და აუცილებელი ძალის გამოყენება.

კამპანიის მონაწილეები თვლიან, რომ ხელოვნური ინტელექტი არ ექნება საჭირო გაგებას ომის დროს მორალური გადაწყვეტილების გამოსატანად და რისკავს ისეთი სამყაროს შექმნას, სადაც ომი ავტომატიზირებულია და ადამიანები ვეღარ აკონტროლებენ. სხვები თვლიან, რომ აშშ-ს არმია იქნება აჯობა მოწინააღმდეგეებს ავტონომიური იარაღით თუ ხელოვნური ინტელექტი არ არის ჩართული ტაქტიკურ დონეზე და ეს არის ძალიან დიდი ადამიანის ჩართულობა ანელებს სამხედრო რობოტებს.

კამათი, სავარაუდოდ, გაგრძელდება მაშინაც კი, როდესაც ავტონომიური იარაღის გამოჩენა დაიწყება და შედეგებს ყურადღებით მოჰყვება. ნებისმიერ შემთხვევაში, როგორც ჩანს, მკვლელი რობოტები მოდიან.

წყარო: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/