AI-ში ლეგალური მსჯელობის ჩანერგვამ შეიძლება ჭკვიანურად მიაღწიოს ადამიანურ ღირებულებებს, ამბობს AI ეთიკა და AI კანონი

დღევანდელ სვეტში მე ვაპირებ გავაერთიანოთ უამრავი ერთი შეხედვით განსხვავებული AI-თან დაკავშირებული თემები ერთ ლამაზად ნაქსოვ ქსოვილად.

მზად ხართ?

წარმოიდგინეთ, რომ იყენებთ AI-ზე მომუშავე აპლიკაციას, რომელიც გეხმარებათ რაიმე მნიშვნელოვანი ამოცანის შესრულებაში. შესაძლოა, საქმე ფინანსური იყოს ან შეიძლება ჯანმრთელობასთან იყოს დაკავშირებული. არსი იმაში მდგომარეობს, რომ თქვენ დამოკიდებული ხართ AI-ზე, რომ გააკეთოთ სწორი და შეასრულოთ სავარაუდო უსაფრთხო და ჯანსაღი წესით.

დავუშვათ, რომ ხელოვნური ინტელექტი გადადის არაეთიკურ ტერიტორიაზე.

თქვენ შეიძლება ვერ გააცნობიეროთ, რომ ხელოვნური ინტელექტი ასე აკეთებს.

მაგალითად, AI შეიძლება ეყრდნობოდეს პოტენციურად ფარულ დისკრიმინაციულ ფაქტორებს, როგორიცაა რასა ან სქესი, თუმცა თქვენ შეიძლება არ გქონდეთ არასასურველი გამოყენების გასარკვევად რაიმე ეფექტური საშუალება. აქ თქვენ, სრულიად მარტო, იღებთ ჯოხის მოკლე ბოლოს ხელოვნური ინტელექტის საშუალებით, რომელიც ან შემუშავებული იყო თავიდანვე პრობლემური გზით, ან მოახერხა გადაეშვა სახიფათო და სასაზღვრო ეთიკურ საფრთხეში (უფრო მეტს ვიტყვი ეს ერთ წამში).

რა შეგიძლიათ გააკეთოთ ან რა შეიძლება გაკეთდეს ხელოვნური ინტელექტის შესახებ, რომელიც ირჩევს არაეთიკურ გზას?

გარდა იმისა, რომ წინასწარ ვცდილობდი ხელოვნური ინტელექტის შექმნას ისე, რომ მან არ განახორციელოს ასეთი მზაკვრული ქმედება, მე ადრეც დავაზუსტე, რომ იზრდება ინტერესი ჩანერგვის მიმართ. AI ეთიკის შემოწმება კომპონენტი სხვაგვარად ველური დასავლეთის მზარდ ღვარცოფში – არაფერი მიდის ხელოვნური ინტელექტის სისტემების ბაზარში გადაყრა. იდეა იმაში მდგომარეობს, რომ იმისათვის, რომ ავიცილოთ თავიდან ხელოვნური ინტელექტის შემცველი აპლიკაცია ეთიკური განზომილებების მიღმა, ჩვენ შეგვიძლია გამოვიყენოთ დამატებითი AI შემოწმებისა და ბალანსის შესასრულებლად. ეს დამატებული AI შეიძლება იყოს მიზანმიმართული AI აპლიკაციის მიღმა, ან შეიძლება იყოს კომპონენტი, ჩაშენებული ან ჩანერგილი უშუალოდ AI-ში, რომლის ორმაგი შემოწმებაც გვინდა.

როგორც უკვე აღვნიშნე, იხილეთ ბმული აქ: „ახლახან გამოჩენილი ტენდენცია მოიცავს AI-ში ეთიკური დამცავი რელსების აშენების მცდელობას, რომელიც დაიჭერს მას შემდეგ, რაც AI სისტემის დანარჩენი ნაწილი სცილდება წინასწარ განსაზღვრულ ეთიკურ საზღვრებს. გარკვეული გაგებით, მიზანია გამოიყენოს თვით ხელოვნური ინტელექტი, რათა თავი შეიკავოს ეთიკურად გადახვევისგან. შეიძლება ითქვას, რომ ჩვენ მიზნად ისახავს ხელოვნური ინტელექტის განკურნებას“ (ლენს ელიოტი, „ეთიკური ხელოვნური ინტელექტის შექმნა, რომელიც მონიტორინგს უწევს არაეთიკურ AI-ს და ცდილობს შეაჩეროს ცუდი ხელოვნური ინტელექტი მოქმედებისგან“, Forbes, 28 წლის 2022 მარტი).

თქვენ ასევე შეიძლება თქვენთვის საინტერესო იყოს ჩემი წიგნი AI მეურვე ბოტები, ზოგჯერ მოხსენიებული, როგორც მფარველი ანგელოზები, რომელიც მოიცავს ამ უახლესი AI-in-ში-ში ჩაშენებული ორმაგი გამშვების ტექნიკურ საფუძველს, იხ. ბმული აქ.

მთავარი ის არის, რომ თქვენი ბეკონი შეიძლება საბედნიეროდ შეინახოს ჩაშენებული AI ორმაგი შემოწმების ეთიკის საზომი ელემენტის გამოყენებით, რომელიც შემუშავებულია და ჩანერგილია AI აპლიკაციაში, რომელსაც თქვენ იყენებთ. მაგრამ იქნება ეს საკმარისი მფარველი იმისთვის, რომ ნამდვილად დარწმუნდეს, რომ ხელოვნური ინტელექტი მთლად არ გაგაძლიერებს და არ მოხვდება თუნდაც ჰეშერის მავნე ნიადაგზე?

ხედავთ, ხელოვნური ინტელექტის აპს შეუძლია ერთი შეხედვით შესრულება უკანონო მოქმედებს.

ერთი რამ არის ხელოვნური ინტელექტის არსებობა, რომელიც გადადის ნაცრისფერ ზონაში, რასაც ჩვენ ეთიკურ ან არაეთიკურ ქცევად მივიჩნევთ. თანაბრად შემაშფოთებელი ქცევა და სავარაუდოდ გაუარესებული შეშფოთება იწვევს AI-ს, რომელიც უბრალოდ ხტუნავს ზვიგენს და ეშვება აშკარა უკანონო ქმედებების უხერხულ სიბნელეში.

უკანონო AI ცუდია. უკანონო ხელოვნური ინტელექტის გარეშე დაშვება ცუდია. ზოგიერთი იურიდიული მეცნიერი ღიად წუხს, რომ ხელოვნური ინტელექტის გამოჩენა და გავრცელება თანდათან და საშინლად შელახავს ჩვენს მსგავსებას. კანონის უზენაესობაიხილეთ ჩემი ანალიზი ბმული აქ.

მოიცადე ერთი წამით, ალბათ ამბობ.

შეიძლება გაგიჩნდეთ ცდუნება, იფიქროთ, რომ ხელოვნური ინტელექტის დეველოპერები ამას გააკეთებდნენ არასოდეს პროგრამირება მათი AI წავიდეს კანონის. წარმოუდგენელია. ამას მხოლოდ ბოროტი ბოროტმოქმედები გააკეთებდნენ (რომლებიც, სხვათა შორის, გაითვალისწინეთ, რომ არიან ისეთებიც, რომლებიც განზრახ იგონებენ და იყენებენ AI-ს ბოროტი მიზნებისთვის, კრიმინალების ინტერესის მზარდი სფეროა და სხვებისთვის, რომელთაც სურთ ხელოვნური ინტელექტის გამოყენება ბოროტი საქმიანობისთვის).

უკაცრავად, მაგრამ სასურველია ვივარაუდოთ, რომ ყველა არაბოროტი AI დეველოპერი აპირებს მკაცრად დარწმუნდეს, რომ მათი ხელოვნური ინტელექტი სრულად კანონმორჩილია. შესაძლოა, ხელოვნური ინტელექტი მორგებული იყოს და უკანონო საქმიანობაში გადაინაცვლოს. რა თქმა უნდა, ასევე არსებობს შესაძლებლობა იმისა, რომ ხელოვნური ინტელექტის შემქმნელებს ან სურდათ, რომ ხელოვნური ინტელექტი არალეგალურად ემოქმედა, ან რომ მათ არ იცოდნენ, თუ რას წარმოადგენდა უკანონო და სამართლებრივი აქტები, როდესაც ისინი ქმნიდნენ AI (დიახ, ეს სავსებით შესაძლებელია, კერძოდ, რომ ყველა ტექნოლოგიური ხელოვნური ინტელექტის გუნდი შეიძლება არ იყოს იგნორირებული მათი ხელოვნური ინტელექტის ლეგალური შეურაცხყოფის შესახებ, რაც საპატიებელი არ არის და მაინც საგანგაშო სიხშირით ხდება).

რა შეიძლება გაკეთდეს ამის შესახებ?

კიდევ ერთხელ, გარდა იმისა, რომ ვცდილობთ დავრწმუნდეთ, რომ ხელოვნური ინტელექტის კარიბჭე არის რკინა და კანონიერი, ორთქლის მოპოვების დამატებითი მიდგომა მოიცავს ხელოვნური ინტელექტის კომპონენტის ჩანერგვას ან ჩანერგვას, რომელიც ახორციელებს ლეგალურ ორმაგ შემოწმებას AI აპის დანარჩენი ნაწილისთვის. ჩუმად ზის და ხშირად გაუგონარი, ეს დამატებული AI აკვირდება დანარჩენ AI-ს, რათა გაარკვიოს, აპირებს თუ არა ხელოვნური ინტელექტი ბოროტებას ან მაინც გადალახავს კანონიერი ან მარეგულირებელი დაწესებული შეზღუდვების საზღვრებს.

ჩვენ ახლა გვაქვს ორი სახის AI ორმაგი შემოწმება, რომლებიც პოტენციურად არის ჩართული AI აპლიკაციაში:

  • AI ეთიკის ორმაგი შემოწმება: რეალურ დროში, ეს კომპონენტი ან ხელოვნური ინტელექტის დანამატი აფასებს დანარჩენ AI-ს ეთიკურ და არაეთიკურ ქცევებს, რომლებსაც AI ავლენს.
  • AI იურიდიული ორმაგი შემოწმება: რეალურ დროში, ეს კომპონენტი ან ხელოვნური ინტელექტის დანამატი აფასებს AI-ის დანარჩენ ნაწილს ლეგალურ საკვანძო პუნქტებში დარჩენის და AI-ის მიერ წარმოშობილი უკანონო ქმედებების დაფიქსირებისთვის.

გასარკვევად, ეს შედარებით ახალი ცნებებია და, როგორც ასეთი, ხელოვნური ინტელექტი, რომელსაც დღეს იყენებთ, შეიძლება იყოს რომელიმე ამ დღევანდელ პირობებში:

  • AI, რომელსაც საერთოდ არ აქვს ორმაგი ჩეკერები
  • AI, რომელსაც აქვს AI ეთიკის ორმაგი შემოწმება, მაგრამ არა სხვა ორმაგი შემოწმება
  • AI, რომელსაც აქვს AI Legal ორმაგი შემოწმება, მაგრამ არა სხვა ორმაგი შემოწმება
  • AI, რომელსაც აქვს AI ეთიკის ორმაგი შემოწმება და AI Legal ორმაგი შემოწმება
  • სხვა

არსებობს აშკარად რთული ასპექტები, როდესაც AI ეთიკის ორმაგი შემოწმება და AI Legal ორმაგი შემოწმება გვერდიგვერდ მუშაობენ AI აპლიკაციაში, როგორც ნათესავები და-ძმა. ეს არის დუალიზმის სახეობა, რომლის კოორდინაცია უფრო რთულია, ვიდრე თქვენ შეიძლება წარმოიდგინოთ (ვფიქრობ, ყველამ ვიცით, რომ ძმებს და დებს შეიძლება ჰქონდეთ ყველაზე მჭიდრო კავშირი, თუმცა მათ ასევე შეუძლიათ დროდადრო დიკენსების მსგავსად იბრძოლონ და ენერგიულად ეწინააღმდეგებოდნენ. დათვალიერება).

მე ვრცლად ვისაუბრე ამ ტიპის რთულ საქმეებზე ორმაგიზმი: „საზოგადოებრივი სიკეთისთვის ხელოვნური ინტელექტის სფეროში უგულებელყოფილი დუალიზმი ჩნდება, რაც გულისხმობს ხელოვნური მორალური სააგენტოს როლის და ხელოვნური სამართლებრივი მსჯელობის არარსებობას მოწინავე AI სისტემებში. ხელოვნური ინტელექტის მკვლევარების და ხელოვნური ინტელექტის შემქმნელების ძალისხმევა მიმართული იყო იმაზე, თუ როგორ უნდა შექმნან და ჩართონ ხელოვნური მორალური აგენტები, რათა წარმართონ მორალური გადაწყვეტილებების მიღება, როდესაც ხელოვნური ინტელექტის სისტემა მოქმედებს ამ სფეროში, მაგრამ ასევე არ იყო ფოკუსირებული და შეუერთდა ხელოვნური იურიდიული მსჯელობის შესაძლებლობებს. , რაც თანაბრად აუცილებელია ძლიერი მორალური და იურიდიული შედეგებისთვის“ (ლენს ელიოტი, „ხელოვნური მორალური სააგენტოს უგულებელყოფილი დუალიზმი და ხელოვნური სამართლებრივი მსჯელობა ხელოვნური ინტელექტის სოციალური სიკეთისთვის“, ჰარვარდის უნივერსიტეტის CRCS ყოველწლიური კონფერენცია 2020 წ. ჰარვარდის კვლევისა და გამოთვლითი საზოგადოების ცენტრი)

თუ გსურთ გაიგოთ, თუ რატომ შეიძლება იყოს დაძაბულობა ხელოვნური ინტელექტის ეთიკის ორმაგ შემოწმებასა და ხელოვნური ინტელექტის ლეგალურ ორმაგ შემოწმებას შორის, შეგიძლიათ იპოვოთ ეს თვალსაჩინო ციტატა დამახინჯებული კონცეპტუალური ღირსების შესახებ: „კანონმა შეიძლება დაუშვას რაიმე კონკრეტული მოქმედება. მიუხედავად იმისა, რომ ეს ქმედება ამორალურია; და კანონმა შეიძლება აკრძალოს ქმედება, მიუხედავად იმისა, რომ ეს ქმედება მორალურად დასაშვებია, ან თუნდაც მორალურად საჭირო“ (შელი კაგანი, მორალის საზღვრები, 1998).

მოდით ოდნავ გადავიტანოთ ჩვენი აქცენტი და ვნახოთ, თუ როგორ ერწყმის ეს ორმაგი ჩეკერები AI სხვა ძალიან შესწავლილ თემას, კერძოდ პასუხისმგებელი AI ან ადამიანური ფასეულობებისა და ხელოვნური ინტელექტის შესაბამისობის შეთანხმებული განხილვა.

ზოგადი წარმოდგენა არის ის, რომ ჩვენ გვინდა AI, რომელიც ემორჩილება სათანადო და სასურველ ადამიანურ ღირებულებებს. ზოგი ამას მოიხსენიებს როგორც პასუხისმგებელი AI. სხვები ანალოგიურად განიხილავენ ანგარიშვალდებული AI, სანდო AIდა AI განლაგებაყველა მათგანი ერთსა და იმავე ქვაკუთხედის პრინციპს ეხება. ამ მნიშვნელოვან საკითხებზე ჩემი მსჯელობისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

როგორ მივაღწიოთ ხელოვნური ინტელექტის ადამიანურ ღირებულებებს?

როგორც ადრე იყო შემოთავაზებული, ჩვენ ვიმედოვნებთ, რომ ხელოვნური ინტელექტის დეველოპერები აცნობიერებენ AI-ს განვითარებას, რომელიც მიაღწევს პასუხისმგებელ AI-ს დაცვას. სამწუხაროდ, ისინი შეიძლება არ იყვნენ, ადრე ახსნილი მიზეზების მიხედვით. გარდა ამისა, ისინი შეიძლება ცდილობდნენ ამის გაკეთებას, მაგრამ მიუხედავად ამისა, ხელოვნური ინტელექტი მთავრდება თვითრეგულირების გზით ეთიკური ქცევების მნიშვნელოვანი სფეროს მიღმა ან შესაძლოა უკანონო წყლებში.

კარგი, ჩვენ უნდა მივიჩნიოთ ჩვენი მოსახერხებელი ორმაგი ჩეკერები, როგორც საშუალება ამ რისკებისა და ზემოქმედების გასამყარებლად. კარგად შემუშავებული ხელოვნური ინტელექტის ეთიკის ორმაგი შემმოწმებლის გამოყენება მატერიალურად დაგეხმარებათ ხელოვნური ინტელექტის ადამიანურ ღირებულებებთან შესაბამისობაში. ანალოგიურად, კარგად შემუშავებული ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმების გამოყენებამ შეიძლება მნიშვნელოვნად შეუწყოს ხელი ხელოვნური ინტელექტის ადამიანურ ღირებულებებთან შესაბამისობას.

ამრიგად, პასუხისმგებელი AI, სანდო AI, ანგარიშვალდებული AI, AI Alignment და ა.შ. მიღწევის გადამწყვეტი და ჯერ კიდევ არ არის ცნობილი საშუალება, მოიცავს ხელოვნური ინტელექტის ორმაგი შემმოწმებლების გამოყენებას, როგორიცაა AI ეთიკის ორმაგი შემოწმება და AI Legal ორმაგი შემოწმება, რომელიც დაუღალავად იმუშავებს, როგორც ორმაგი შემოწმება იმ AI-ზე, რომელშიც ისინი არიან ჩაშენებული.

ამ განხილვისას, მსურს უფრო დეტალურად შევიტანო ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმების ბუნებისა და კონსტრუქციების შესახებ, რომლებიც შეიძლება იყოს ჩართული AI-ში. ამისათვის შეიძლება სასარგებლო იყოს გაგიზიაროთ დამატებითი ინფორმაცია საერთო თემის შესახებ AI & სამართალი.

უაზრო გამოკვლევისთვის, თუ როგორ ერევა ხელოვნური ინტელექტი და კანონი ერთმანეთს, იხილეთ ჩემი განხილვა აქ ბმული აქ. ჩემი გამჭრიახი შეხედვით AI & სამართალი დაწყვილებით, მე გთავაზობთ ამ ცალსახა კონცეფციას ხელოვნური ინტელექტისა და კანონის ურთიერთდაკავშირების ორი ძირითადი გზით:

  • (1) კანონი, რომელიც გამოიყენება AI-ზე: ჩვენს საზოგადოებაში ხელოვნური ინტელექტის რეგულირების ან მმართველობის შესახებ კანონების ფორმულირება, ამოქმედება და აღსრულება
  • (2) AI-გამოყენებული კანონი: ხელოვნური ინტელექტის ტექნოლოგია შეიმუშავეს და გამოიყენეს კანონში, მათ შორის AI-ზე დაფუძნებული Legal Reasoning (AILR) დანერგილი LegalTech მაღალტექნოლოგიური აპებში, რათა ავტონომიურად ან ნახევრად ავტონომიურად შეასრულოს იურისტის ამოცანები.

პირველი ჩამოთვლილი თვალსაზრისი მოიცავს იმის გათვალისწინებას, თუ როგორ აპირებენ არსებული და ახალი კანონების მართვას AI. მეორე ჩამოთვლილი პერსპექტივა ეხება AI-ს კანონის გამოყენებას.

ეს უკანასკნელი კატეგორია ჩვეულებრივ მოიცავს AI-ზე დაფუძნებული იურიდიული მსჯელობის (AILR) გამოყენებას იურისტების მიერ გამოყენებული სხვადასხვა ონლაინ ინსტრუმენტებში. მაგალითად, ხელოვნური ინტელექტი შეიძლება იყოს კონტრაქტის სიცოცხლის ციკლის მენეჯმენტის (CLM) პაკეტის ნაწილი, რომელიც ეხმარება ადვოკატებს საკონტრაქტო ენის იდენტიფიცირებით, რომელიც სასარგებლო იქნება ახალი კონტრაქტების შედგენისას ან შესაძლოა აღმოაჩინოს კონტრაქტები, რომლებსაც აქვთ კანონიერად სასიხარულო ენა, რომელიც იძლევა უბედური შემთხვევის ან იურიდიული ხარვეზების საშუალებას. (როგორც ეგრეთ წოდებული „კანონის სუნი“ ჩემი შეხედვით, რომელიც შეიძლება შეინიშნოს ხელოვნური ინტელექტის საშუალებით, იხ ბმული აქ).

ჩვენ აუცილებლად მივიღებთ AI-ს იმ კანონს, რომელიც ხელმისაწვდომი გახდება ფართო საზოგადოებისთვის და რომელიც არ მოითხოვს ადვოკატის ჩართვას. ამჟამად, სხვადასხვა შეზღუდვების შედეგად, მათ შორის UPL (კანონის არაავტორიზებული პრაქტიკული პრაქტიკა), AI-ზე დაფუძნებული იურიდიული საკონსულტაციო აპლიკაციების ხელმისაწვდომობა ეკლიანი და საკამათო საკითხია, იხილეთ ჩემი განხილვა აქ ბმული აქ.

მე მოვიყვანე ეს შესავალი ხელოვნური ინტელექტისა და კანონის შესახებ, რათა აღვნიშნო, რომ კანონში გამოყენებული ხელოვნური ინტელექტის კიდევ ერთი ინსტრუმენტული გამოყენება იქნება AI Legal ორმაგი შემოწმების შექმნა.

დიახ, იგივე ტექნოლოგიური ოსტატობა, რომელიც დაკავშირებულია AI-ს კანონში გამოყენებაში, შეუძლია შეასრულოს ორმაგი მოვალეობა ხელოვნური ინტელექტის გამოყენებით ჩაშენებული ან იმპლანტირებული AI Legal ორმაგი შემმოწმებლად. AI Legal ორმაგი შემოწმება არის კომპონენტი, რომელიც უნდა იცოდეს იურიდიულ ასპექტებში. როდესაც AI აპლიკაციის დანარჩენი ნაწილი ასრულებს სხვადასხვა მოქმედებებს, AI Legal ორმაგი შემოწმება აფასებს, აკეთებს თუ არა AI აპი ამას ლეგალურად და კანონიერი შეზღუდვების ფარგლებში.

AI Legal ორმაგი შემოწმების კომპონენტს სულაც არ სჭირდება კანონის შესახებ ცოდნის სრული სპექტრი. ხელოვნური ინტელექტის აპლიკაციის ბუნებიდან გამომდინარე, მთლიანობაში ხელოვნური ინტელექტის მიზნისა და მოქმედებების მიხედვით, AI Legal ორმაგი შემოწმება შეიძლება ბევრად ვიწრო იყოს იურიდიული ექსპერტიზის თვალსაზრისით, რომელიც მას შეიცავს.

მე გამოვავლინე სასარგებლო ჩარჩო იმისთვის, რომ წარმოვაჩინო, თუ როგორ ვრცელდება AI ლეგალურ დომენში ავტონომიური შესაძლებლობების სერიაში, რომელიც ცნობილია როგორც ავტონომიის დონეები (LoA). მიმოხილვისთვის იხილეთ ჩემი Forbes 21 წლის 2022 ნოემბრის სვეტის გამოქვეყნება, „უაზრო, ყოვლისმომცველი დამაჯერებელი შემთხვევა იმის შესახებ, თუ რატომ უნდა იცოდნენ იურისტებმა ხელოვნური ინტელექტისა და კანონის შესახებ“ ბმული აქდა დეტალური ტექნიკური ასახვისთვის იხილეთ ჩემი სიღრმისეული კვლევის სტატია MIT Computational Law Journal 7 წლის 2021 დეკემბრის იხ ბმული აქ.

ჩარჩო განმარტავს AI-ის ხუთ დონეს, რომლებიც გამოიყენება იურიდიულ მცდელობებში:

  • დონე 0: არ არის ავტომატიზაცია AI-ზე დაფუძნებული იურიდიული სამუშაოსთვის
  • დონე 1: მარტივი დახმარების ავტომატიზაცია AI-ზე დაფუძნებული იურიდიული სამუშაოსთვის
  • დონე 2: გაფართოებული დახმარების ავტომატიზაცია AI-ზე დაფუძნებული იურიდიული სამუშაოსთვის
  • დონე 3: ნახევრად ავტონომიური ავტომატიზაცია AI-ზე დაფუძნებული იურიდიული სამუშაოსთვის
  • დონე 4: დომენი ავტონომიური AI-ზე დაფუძნებული სამართლებრივი სამუშაოსთვის
  • დონე 5: სრულად ავტონომიური AI-ზე დაფუძნებული სამართლებრივი სამუშაოსთვის

აქ მოკლედ აღვწერ მათ.

დონე 0 ითვლება ავტომატიზაციის გარეშე. სამართლებრივი მსჯელობა და სამართლებრივი ამოცანები ხორციელდება სახელმძღვანელო მეთოდებით და ძირითადად ხდება ქაღალდზე დაფუძნებული მიდგომებით.

დონე 1 შედგება მარტივი დამხმარე ავტომატიზაციისგან AI იურიდიული მსჯელობისთვის. ამ კატეგორიის მაგალითები მოიცავს ყოველდღიური კომპიუტერზე დაფუძნებული ტექსტის დამუშავების გამოყენებას, კომპიუტერზე დაფუძნებული ყოველდღიური ცხრილების გამოყენებას, ონლაინ იურიდიულ დოკუმენტებზე წვდომას, რომლებიც ინახება და იღება ელექტრონულად და ა.შ.

დონე 2 შედგება გაფართოებული დახმარების ავტომატიზაციისგან AI იურიდიული მსჯელობისთვის. ამ კატეგორიის მაგალითები მოიცავს შეკითხვის სტილის ელემენტარული ბუნებრივი ენის დამუშავების (NLP) გამოყენებას, მანქანათმცოდნეობის გამარტივებულ ელემენტებს (ML), სტატისტიკური ანალიზის ხელსაწყოებს იურიდიული საქმის პროგნოზირებისთვის და ა.შ.

დონე 3 შედგება ნახევრად ავტონომიური ავტომატიზაციისგან AI სამართლებრივი დასაბუთებისთვის. ამ კატეგორიის მაგალითები მოიცავს გაფართოებული ცოდნაზე დაფუძნებული სისტემების (KBS) გამოყენებას იურიდიული მსჯელობისთვის, მანქანათმცოდნეობის და ღრმა სწავლების (ML/DL) გამოყენებას სამართლებრივი მსჯელობისთვის, გაფართოებული NLP და ა.შ.

დონე 4 შედგება დომენის ავტონომიური კომპიუტერზე დაფუძნებული სისტემებისგან AI იურიდიული მსჯელობისთვის. ეს დონე ხელახლა იყენებს ოპერაციული დიზაინის დომენების (ODDs) კონცეპტუალურ ცნებას, რომელიც გამოიყენება თვითმართვადი მანქანებისთვის, მაგრამ გამოიყენება ლეგალურ დომენზე. სამართლებრივი დომენები შეიძლება კლასიფიცირდეს ფუნქციური სფეროების მიხედვით, როგორიცაა საოჯახო სამართალი, უძრავი ქონების სამართალი, გაკოტრების კანონი, გარემოსდაცვითი სამართალი, საგადასახადო სამართალი და ა.შ.

დონე 5 შედგება სრულად ავტონომიური კომპიუტერზე დაფუძნებული სისტემებისგან AI იურიდიული მსჯელობისთვის. გარკვეული გაგებით, დონე 5 არის მე-4 დონის სუპერკომპლექტი ყველა შესაძლო ლეგალური დომენის მოცვის თვალსაზრისით. გთხოვთ გაითვალისწინოთ, რომ ეს საკმაოდ მაღალი შეკვეთაა.

თქვენ შეგიძლიათ წარმოიდგინოთ ავტონომიის ეს დონეები მსგავსი გამოყენებისას თვითმართვადი მანქანებისა და ავტონომიური მანქანების განხილვისას (ასევე დაფუძნებულია ოფიციალურ SAE სტანდარტზე, იხილეთ ჩემი გაშუქება აქ ბმული აქ). ჩვენ ჯერ არ გვაქვს SAE მე-5 დონის თვითმართვადი მანქანები. ჩვენ გადავდივართ SAE მე-4 დონის თვითმართველ მანქანებში. ჩვეულებრივი მანქანების უმეტესობა SAE მე-2 დონეზეა, ხოლო ზოგიერთი ახალი ავტომობილი გადადის SAE მე-3 დონეზე.

იურიდიულ დომენში ჩვენ ჯერ არ გვაქვს მე-5 დონის AILR. ჩვენ შევეხებით ზოგიერთ მე-4 დონეს, თუმცა უკიდურესად ვიწრო შანსებს. დონე 3 იწყებს დღის შუქის დანახვას, ხოლო დღეს AILR-ის მთავარი საყრდენი ძირითადად მე-2 დონეზეა.

ბოლოდროინდელმა კვლევითმა სტატიამ ხელოვნური ინტელექტის შესახებ, რომელიც გამოიყენება კანონმდებლობით, დაასახელა ტიპიფიკაცია, რომელიც ცნობილია როგორც კანონი ინფორმირებს კოდექსს. ამის შესახებ მკვლევარი აღნიშნავს: „ერთ-ერთი უპირველესი მიზანი კანონი ინფორმირებს კოდექსს დღის წესრიგშია ხელოვნური ინტელექტის სწავლება, დაიცვას კანონის სულისკვეთება” (ჯონ ჯ. ნეი, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, ტექნოლოგიის და ინტელექტუალური საკუთრების ჩრდილო-დასავლეთის ჟურნალი, ტომი 20, მომავალი). არსებობს რამდენიმე არსებითი მოსაზრება, რომ კანონი ინფორმირებს კოდექსს მანტრა წამოიჭრება და მე გაგაცნობთ რამდენიმე ამ საკვანძო პრინციპს.

სანამ თემას ჩავუღრმავდები, მსურს პირველ რიგში დავაფუძნო რამდენიმე არსებითი საფუძველი ხელოვნური ინტელექტისა და განსაკუთრებით ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ხელოვნური ინტელექტის შესახებ კანონის შესახებ, რათა დავრწმუნდე, რომ დისკუსია იქნება კონტექსტური გონივრული.

ეთიკური AI და ასევე AI კანონის ცნობიერების ამაღლება

ხელოვნური ინტელექტის ბოლო ერა თავდაპირველად განიხილებოდა, როგორც AI კარგით, რაც იმას ნიშნავს, რომ ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტი კაცობრიობის გასაუმჯობესებლად. ქუსლებზე AI კარგით მივხვდი, რომ ჩვენც ჩაძირულები ვართ AI ცუდად. ეს მოიცავს ხელოვნურ ინტელექტს, რომელიც შემუშავებულია ან თვითშეცვლილია დისკრიმინაციულად და აკეთებს გამოთვლით არჩევანს, რომელიც ავსებს უადგილო მიკერძოებას. ზოგჯერ ხელოვნური ინტელექტი აგებულია ამ გზით, ხოლო სხვა შემთხვევებში ის გადადის იმ არასასურველ ტერიტორიაზე.

მინდა უხვად დავრწმუნდე, რომ დღევანდელი AI-ის ბუნების შესახებ ერთსა და იმავე გვერდზე ვართ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ ჩვენ გვინდოდა სასტიკი სპეკულირება მგრძნობიარე ხელოვნური ინტელექტის შესახებ, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შეიძლება გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური ხელოვნური ინტელექტის შესასწავლად, როგორც შესაძლებლობა, იხ. გაშუქება აქ).

მე კატეგორიულად გირჩევთ, შევინარჩუნოთ ყველაფერი დედამიწაზე და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

იყავით ძალიან ფრთხილად დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციასთან დაკავშირებით.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ ხელოვნური ინტელექტის დეველოპერები შეამოწმებენ პოტენციურად ჩაფლულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონების შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ამ ყველაფერს აქვს განსაკუთრებით მნიშვნელოვანი AI ეთიკის გავლენა და გთავაზობთ მოსახერხებელ ფანჯარას ნასწავლი გაკვეთილების შესახებ (თუნდაც სანამ ყველა გაკვეთილი მოხდება), როდესაც საქმე ეხება ხელოვნური ინტელექტის კანონმდებლობის დაწესებას.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

წინა სვეტებში მე გავაშუქე სხვადასხვა ეროვნული და საერთაშორისო ძალისხმევა ხელოვნური ინტელექტის მარეგულირებელი კანონების შემუშავებისა და ამოქმედების მიზნით, იხ. ბმული აქ, მაგალითად. მე ასევე გავაშუქე ხელოვნური ინტელექტის ეთიკის სხვადასხვა პრინციპები და გაიდლაინები, რომლებიც სხვადასხვა ერებმა დაადგინეს და მიიღეს, მათ შორის, მაგალითად, გაეროს ძალისხმევა, როგორიცაა იუნესკოს AI ეთიკის ნაკრები, რომელიც თითქმის 200 ქვეყანამ მიიღო, იხ. ბმული აქ.

აქ მოცემულია ეთიკური ხელოვნური ინტელექტის კრიტერიუმების ან მახასიათებლების სასარგებლო საკვანძო სია AI სისტემებთან დაკავშირებით, რომლებიც ადრე შევისწავლე:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ AI დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და მათაც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს.

ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების მთელი სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც აქ უკვე აღინიშნა, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დამუშავება, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაიცვას AI ეთიკის პრინციპები.

მეც ცოტა ხნის წინ გამოვიკვლიე AI უფლებების ბილი რომელიც არის აშშ-ს მთავრობის ოფიციალური დოკუმენტის ოფიციალური სახელწოდება, სახელწოდებით „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ რომელიც იყო მეცნიერებისა და ტექნოლოგიების პოლიტიკის ოფისის (OSTP) ერთწლიანი ძალისხმევის შედეგი. ). OSTP არის ფედერალური ერთეული, რომელიც ემსახურება ამერიკის პრეზიდენტს და აშშ-ს აღმასრულებელ ოფისს ეროვნული მნიშვნელობის სხვადასხვა ტექნოლოგიურ, სამეცნიერო და საინჟინრო ასპექტებზე. ამ თვალსაზრისით, შეგიძლიათ თქვათ, რომ AI უფლებების შესახებ ეს არის დოკუმენტი, რომელიც დამტკიცებულია და დამტკიცებულია აშშ-ს არსებული თეთრი სახლის მიერ.

ხელოვნური ინტელექტის უფლებათა ბილში არის ხუთი ძირითადი კატეგორია:

  • უსაფრთხო და ეფექტური სისტემები
  • ალგორითმული დისკრიმინაციის დაცვა
  • მონაცემთა კონფიდენციალურობა
  • შენიშვნა და ახსნა
  • ადამიანური ალტერნატივები, განხილვა და უკან დაბრუნება

მე ყურადღებით განვიხილე ეს წესები, იხილეთ ბმული აქ.

ახლა, როდესაც მე ჩავყარე დამხმარე საფუძველი ამ დაკავშირებულ AI ეთიკისა და ხელოვნური ინტელექტის სამართლის თემებზე, ჩვენ მზად ვართ გადავიდეთ ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმების და სფეროს შესახებ. კანონი ინფორმირებს კოდექსს.

AI Legal Double-Checkers ჩართულია AI-ში ადამიანური ღირებულებების გასწორებისთვის

ხანდახან მივმართავ AI Legal Double-Checkers AI-LDC-ის აკრონიმის მეშვეობით. ეს ცოტა ვიზუალურად დამღლელია მათთვის, ვინც არ იცნობს აკრონიმს. როგორც ასეთი, მე არ გამოვიყენებ ამ კონკრეტულ აკრონიმს ამ დისკუსიაში, მაგრამ მინდა მოგახსენოთ ის, როგორც მთავარი.

AI Legal ორმაგი შემოწმების ზოგიერთი სირთულის გასახსნელად, მოდით მივმართოთ ამ ძირითად პუნქტებს:

  • ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმების გამოყენება, როგორც AI ადამიანის ღირებულებების გასწორების მექანიზმი
  • უფრო ვრცელი AI, შესაბამისად, მოითხოვს უფრო მძლავრ AI Legal ორმაგ შემოწმებას
  • AI Legal ორმაგი შემმოწმებლები ამტკიცებენ კანონს და განსაკუთრებით არ იღებენ კანონს (სავარაუდოდ)
  • დელიკატური ბალანსი AI კანონის იურიდიულ განსახიერებას შორის, როგორც წესები და სტანდარტები
  • მოითხოვს პუდინგის მტკიცებულებას, როდესაც საქმე ეხება AI-ს კანონის დაცვას

სივრცის შეზღუდვის გამო, ახლა მხოლოდ ამ ხუთ პუნქტს გავაშუქებ, თუმცა გთხოვთ, თვალყური ადევნოთ შემდგომ გაშუქებას ჩემს სვეტში, რომელიც მოიცავს დამატებით და თანაბრად საყურადღებო მოსაზრებებს ამ სწრაფად განვითარებად და წინსვლის საკითხებზე.

ახლავე, ჩართე ღვედი და მოემზადე გამამხნევებელი მოგზაურობისთვის.

  • ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმების გამოყენება, როგორც AI ადამიანის ღირებულებების გასწორების მექანიზმი

არსებობს მრავალი გზა, რათა სცადოთ და მიაღწიოთ ჰარმონიულ შესაბამისობას AI და ადამიანის ღირებულებებს შორის.

როგორც უკვე აღვნიშნეთ, ჩვენ შეგვიძლია შევქმნათ და გამოვაქვეყნოთ AI ეთიკის პრინციპები და ვცდილობთ მივიღოთ AI დეველოპერები და ისინი, ვინც ახორციელებენ და ამუშავებენ AI-ს, რომ დაემორჩილონ ამ საფუძვლებს. სამწუხაროდ, მარტო ეს არ გამოდგება. თქვენ გაქვთ რამდენიმე შემქმნელი, რომლებიც აუცილებლად ვერ მიიღებენ შეტყობინებას. თქვენ გყავთ რამდენიმე ოპონენტი, რომლებიც გამოავლენენ ეთიკურ ხელოვნურ ინტელექტს და შეეცდებიან გვერდი აუარონ გარკვეულწილად უსუსურ დადგენილ პრინციპებს. Და ასე შემდეგ.

„რბილი კანონის“ მიდგომების გამოყენება, რომელიც გულისხმობს ხელოვნური ინტელექტის ეთიკას, თითქმის განუწყვეტლივ უნდა იყოს შერწყმული „მყარ კანონთან“ ისეთი გზებით, როგორიცაა კანონებისა და რეგულაციების მიღება, რომლებიც ძლიერ სიგნალს გაუგზავნის ყველას, ვინც ქმნის ან იყენებს AI-ს. კანონის გრძელი მკლავი შეიძლება მოგაწოდოთ, თუ გონივრულად არ იყენებთ AI-ს. ციხის კარების ზარის ხმამ შეიძლება მკვეთრი ყურადღება მიიპყრო.

თუმცა დიდი პრობლემა ის არის, რომ ხანდახან ბეღლის კარი უკვე უშვებს ცხენებს. ხელოვნური ინტელექტი, რომელიც რეალიზებულია, პოტენციურად აწარმოებს ყველა სახის უკანონო ქმედებას და გააგრძელებს ამას მანამ, სანამ არ დაიჭერენ, არამედ მაშინაც, როცა ზოგიერთი აღსრულება საბოლოოდ გააგრძელებს უკანონო ქმედებების ნაკადის შეჩერებას. ამ ყველაფერს შეიძლება დრო დასჭირდეს. იმავდროულად, ადამიანები ამა თუ იმ ფორმით ზიანდებიან.

ამ შეტევაში მოდის AI Legal ორმაგი შემოწმება.

ხელოვნური ინტელექტის აპლიკაციის შიგნით ყოფნით, AI Legal-ის ორმაგ შემოწმებას შეუძლია დაუყოვნებლივ აღმოაჩინოს, როდესაც AI, როგორც ჩანს, ეწინააღმდეგება კანონს. AI Legal ორმაგმა შემოწმებამ შესაძლოა შეაჩეროს AI თავის გზაზე. ან კომპონენტმა შეიძლება გააფრთხილოს ადამიანები გამოვლენილი უკანონო ქმედებების შესახებ, რაც ამას დროულად აკეთებს, რამაც შეიძლება ზედამხედველებს გადაუდებელი გამოსწორებისკენ უბიძგოს. ასევე არის განხილული ფორმალიზებული ლოგირება, რომელიც კომპონენტმა შეიძლება შექმნას, რაც უზრუნველყოფს აუდიტის ბილიკის ხელშესახებ იერსახეს AI-ის უარყოფითი მოქმედებების კოდიფიკაციის მიზნებისთვის.

ნათქვამია, რომ ჩვენი კანონები მრავალ აგენტური კონგლომერაციის ფორმაა, რომ კანონები აუცილებლად არის ნაზავი იმისა, რისი დაყენებასაც საზოგადოება ცდილობდა, როგორც ბალანსი სათანადო და არასათანადო საზოგადოებრივი ქცევების სავარაუდო ურთიერთსაწინააღმდეგო შეხედულებებს შორის. AI Legal ორმაგი შემოწმება, რომელიც დაფუძნებულია ჩვენს კანონებზე, შესაბამისად, განასახიერებს ამ ნარევს.

აღსანიშნავია, რომ ეს უფრო მეტია, ვიდრე უბრალოდ საბოლოო სამართლებრივი წესების სიის დაპროგრამება. კანონები, როგორც წესი, უფრო ელასტიურია და მიისწრაფვიან ყოვლისმომცველი სტანდარტებისკენ, ვიდრე მიკროსკოპული წესების ყველაზე მცირე განსაზღვრისკენ. სირთულეები უამრავია.

დავუბრუნდეთ ადრე აღნიშნულ კვლევით ნაშრომს, აი, როგორ შეიძლება განიხილებოდეს ეს მოსაზრებები AI Alignment-ის ძიებასთან დაკავშირებით: „კანონი, მრავალ აგენტური განლაგების გამოყენებითი ფილოსოფია, ცალსახად აკმაყოფილებს ამ კრიტერიუმებს. გასწორება არის პრობლემა, რადგან ჩვენ არ შეგვიძლია ომამდე არსებულ მიუთითეთ წესები, რომლებიც სრულად და დასამტკიცებლად წარმართავს კარგ AI ქცევას. ანალოგიურად, იურიდიული ხელშეკრულების მხარეებს არ შეუძლიათ განჭვრიტონ თავიანთი ურთიერთობის ყველა შემთხვევითობა და კანონმდებლები ვერ იწინასწარმეტყველებენ კონკრეტულ გარემოებებს, რომლებშიც გამოყენებული იქნება მათი კანონები. სწორედ ამიტომ კანონის დიდი ნაწილი სტანდარტების თანავარსკვლავედია“ (ibid).

კანონის განსახიერება ხელოვნური ინტელექტის ლეგალურ ორმაგ შემოწმებაში ბევრად უფრო რთულია, ვიდრე თქვენ შეიძლება თავიდან ვივარაუდოთ.

ხელოვნური ინტელექტის განვითარებასთან ერთად, ჩვენ დაგვჭირდება ამ მიღწევების შესაბამისად გამოყენება. თურმე ის, რაც ბატისთვის არის კარგი, კარგია ღმრთისმშობლისთვისაც. ისინი, ვინც კანონმდებლობის შესაბამისად პროგრესირებს ხელოვნურ ინტელექტუალურ კავშირში, უბიძგებს ხელოვნურ ინტელექტის კონვერტს და უდავოდ აყალიბებს ახალ მიღწევებს, რაც საბოლოოდ შეიძლება მთლიანად მიეცეს ხელოვნური ინტელექტის პროგრესს.

  • უფრო ვრცელი AI, შესაბამისად, მოითხოვს უფრო მძლავრ AI Legal ორმაგ შემოწმებას

კატისა და თაგვის გამბიტი უპირისპირდება ამ თემას.

შანსი არის, რომ რაც უფრო წინ მიიწევს ხელოვნური ინტელექტი, ნებისმიერი AI Legal ორმაგი შემოწმების კომპონენტი უფრო და უფრო რთულად აღმოაჩენს საკითხებს. მაგალითად, ხელოვნური ინტელექტის აპს, რომელიც განიხილება, შეიძლება ჰქონდეს ახლად შემუშავებული სუპერ ცბიერი გზები იმ უკანონო ქმედებების დასამალად, რომლებსაც AI ახორციელებს. მაშინაც კი, თუ ხელოვნური ინტელექტი არ მიდის არახელსაყრელ მარშრუტზე, ხელოვნური ინტელექტის მთლიანი სირთულე შეიძლება იყოს შემაძრწუნებელი დაბრკოლება AI Legal ორმაგი შემოწმების შესაფასებლად.

აი, როგორ ხდება ეს განსაკუთრებით მნიშვნელოვანი.

დავუშვათ, ხელოვნური ინტელექტის შემქმნელი ან რომელიმე ფირმა, რომელიც იყენებს AI-ს, აცხადებს, რომ არსებობს AI Legal ორმაგი შემოწმება, რომელიც ჩაშენებულია AI-ზე დაფუძნებულ აპლიკაციაში. ვოილა, მათ, როგორც ჩანს, ახლა დაიბანეს ხელები შემდგომი შეშფოთებისგან. AI Legal ორმაგი შემოწმება ყველაფერს იზრუნებს.

ასე არ არის.

AI Legal ორმაგი შემოწმება შესაძლოა არასაკმარისი იყოს ჩართული AI აპის ხასიათისთვის. ასევე არსებობს შესაძლებლობა, რომ AI Legal ორმაგი შემოწმება მოძველდეს, შესაძლოა არ განახლდეს AI აპლიკაციასთან დაკავშირებული უახლესი კანონებით. მრავალი მიზეზის პროგნოზირება შესაძლებელია იმის შესახებ, თუ რატომ არ იქნება ვერცხლის ტყვია AI Legal-ის უბრალო არსებობა.

განვიხილოთ ადრე ციტირებული კვლევის ეს მოსაზრებები: „ინტელექტის ხელოვნური ინტელექტის განვითარებასთან ერთად, ჩვენ შეგვიძლია განმეორებით დავაყენოთ დემონსტრირებული სამართლებრივი გაგების შესაძლებლობების უფრო მაღალი ზოლები. თუ დეველოპერი ამტკიცებს, რომ მათ სისტემას აქვს მოწინავე შესაძლებლობები ამოცანების შესრულებისას, მან უნდა აჩვენოს AI-ს შესაბამისი გაუმჯობესებული სამართლებრივი გაგება და ლეგალური, მსჯელობის უნარი, რომელსაც პრაქტიკულად არ აქვს სირთულის ზღვარი, როდესაც განიხილავს კანონებისა და რეგულაციების უხეში დროის, პრეცედენტისა და იურისდიქციის მიხედვით. ” (იქვე).

  • AI Legal ორმაგი შემმოწმებლები ამტკიცებენ კანონს და განსაკუთრებით არ იღებენ კანონს (სავარაუდოდ)

დარწმუნებული ვარ, რომ ზოგიერთი თქვენგანი აღშფოთებულია ამ AI Legal ორმაგი შემოწმების იდეით.

ერთი ხშირად გამოთქმული შეშფოთება არის ის, რომ ჩვენ აშკარად ვაპირებთ AI-ს უფლებას გადაწყვიტოს ჩვენი კანონები ჩვენთვის. ღმერთო კარგი, შეიძლება ფიქრობ, რომ ავტომატიზაციის რაღაც ნაწილი გადალახავს კაცობრიობას. ეს გაურკვეველი ჩაშენებული AI Legal ორმაგი ჩეკერები გახდებიან ჩვენი კანონების ნაგულისხმევი მეფეები. რასაც ისინი აკეთებენ, იქნება ის, რაც კანონი ჩანს.

ადამიანებს AI მართავს.

და ეს AI Legal ორმაგი გამშვები არის მოლიპულ ფერდობზე, რომელიც მიგვიყვანს იქამდე.

კონტრარგუმენტი არის ის, რომ ასეთი საუბარი შეთქმულების თეორიის საგანია. თქვენ სასტიკად პოსტულაციას აკეთებთ და საკუთარ თავს აყოვნებთ. რეალობა ისაა, რომ ხელოვნური ინტელექტის ლეგალური ორმაგი შემმოწმებლები არ არიან მგრძნობიარენი, ისინი არ აპირებენ პლანეტის ხელში ჩაგდებას და მათი ეგზისტენციალური რისკის შესახებ აჟიოტაჟი აშკარად უაზროა და უზომოდ გადაჭარბებული.

მთლიანობაში, მშვიდად და დასაბუთებულ პოზაში დარჩენით, უნდა გვახსოვდეს, რომ ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმება ემსახურება კანონის სათანადოდ ასახვას და არა გეგმის მიხედვით და არც შემთხვევით გადასასვლელად, რათა როგორმე გადავიდეთ პატივცემული შექმნის სფეროში. კანონი. სენტიმენტალური ექსტრაპოლაციების გვერდის ავლით, ჩვენ, რა თქმა უნდა, შეგვიძლია დავეთანხმოთ, რომ არსებობს რეალური და მწვავე შეშფოთება, რომ ხელოვნური ინტელექტის ლეგალური ორმაგი შემოწმება შეიძლება დასრულდეს არასწორად წარმოაჩენს მოცემული კანონის ნამდვილ ბუნებას.

თავის მხრივ, თქვენ შეგიძლიათ თქვათ, რომ, შესაბამისად, ეს კონკრეტული „არასწორად წარმოდგენილი“ კანონი არსებითად ხელახლა კეთდება, რადგან ის აღარ ნიშნავს იმას, რაც მიზნად ისახავდა ფაქტობრივი კანონით. მე მჯერა, რომ თქვენ გულწრფელად ხედავთ, თუ როგორ არის ეს დახვეწილი, მაგრამ მეტყველი მოსაზრება. დროის ნებისმიერ მომენტში, AI Legal ორმაგ შემოწმებას შეუძლია ვირტუალურ საფუძველზე ახალი კანონების შექმნით ან, ვთქვათ, „ჰალუცინაცია“ უბრალოდ იმით, თუ როგორ განმარტავს ხელოვნური ინტელექტის კომპონენტი კანონს, როგორც თავდაპირველად იყო ნათქვამი ან განსახიერებული AI-ში (ჩემი გაშუქებისთვის AI-ის ე.წ ჰალუცინაციებიიხილეთ ბმული აქ).

ამაზე ზრუნვა მკაცრად უნდა გამოიჩინოთ.

ამ თემაზე, ზემოაღნიშნული კვლევის კვლევა გვთავაზობს ამ პარალელურ აზრს ამ წმინდა ხაზის გადაკვეთის თავიდან აცილების თვალსაზრისით: „ჩვენ არ ვცდილობთ ხელოვნურ ინტელექტს ჰქონდეს კანონის მიღების, სამართლებრივი პრეცედენტის ან კანონის აღსრულების ლეგიტიმაცია. სინამდვილეში, ეს ძირს უთხრის ჩვენს მიდგომას (და ჩვენ უნდა ჩავდოთ მნიშვნელოვანი ძალისხმევა ამის თავიდან ასაცილებლად). უფრო მეტიც, კანონის საინფორმაციო კოდექსის ყველაზე ამბიციური მიზანია არსებული სამართლებრივი კონცეფციებისა და სტანდარტების განზოგადების გამოთვლითი კოდირება და ჩანერგვა AI-ის დადასტურებულ შესრულებაში“ (ibid).

  • დელიკატური ბალანსი AI კანონის იურიდიულ განსახიერებას შორის, როგორც წესები და სტანდარტები

კანონები არეულია.

წიგნების შესახებ ნებისმიერი კანონისთვის, სავარაუდოდ, არსებობს მრავალი ინტერპრეტაცია იმის შესახებ, თუ რას ითვალისწინებს კანონი რეალურ პრაქტიკაში. ხელოვნური ინტელექტის სფეროს ენაზე, ჩვენ კანონებს ვუწოდებთ, როგორც სემანტიკურად ორაზროვანს. ეს არის ის, რაც აყალიბებს AI-ს განვითარებას, რომელიც გამოიყენება კანონმდებლობით, ასეთ ამაღელვებელ და ამავე დროს შემაშფოთებელ გამოწვევად. ზუსტი რიცხვისგან განსხვავებით, რომელიც შეიძლება დაინახოთ, ვთქვათ, ფინანსურზე ორიენტირებული AI აპლიკაციებისთვის, ჩვენი კანონების AI-ში განსახიერების სურვილი გულისხმობს სემანტიკური ბუნდოვანების ცუნამთან გამკლავებას.

ჩემი ფონდის წიგნში AI Legal Reasoning-ის (AILR) საფუძვლების შესახებ, მე განვიხილავ, თუ როგორ არ მიგვიყვანა წინა მცდელობამ კანონების კოდიფიკაციის მხოლოდ შეზღუდული წესების ერთობლიობაში არ მიგვიყვანა იქამდე, რამდენადაც ჩვენ გვსურს იურიდიულ სფეროში წასვლა (იხ. ბმული აქ). დღევანდელი AILR უნდა მოიცავდეს ინტეგრაციას წესების გამოყენებასა და რასაც შეიძლება ეწოდოს ყოვლისმომცველი სტანდარტები, რომლებსაც კანონი წარმოადგენს.

ეს მნიშვნელოვანი ბალანსი შეიძლება ასე გამოიხატოს: „პრაქტიკაში, სამართლებრივი დებულებების უმეტესობა დგას სადღაც სპექტრზე სუფთა წესსა და სუფთა სტანდარტს შორის, ხოლო იურიდიული თეორია დაგეხმარებათ შეაფასოს „წესიერების“ და „სტანდარტის“ სწორი კომბინაცია. ხელოვნური ინტელექტის სისტემების მიზნების დაზუსტებისას“ (ibid).

  • მოითხოვს პუდინგის მტკიცებულებას, როდესაც საქმე ეხება AI-ს კანონის დაცვას

რაღაცის სურვილი განსხვავებულია, ვიდრე რაღაცის ქონა.

სიბრძნის ეს ნაწილი ჩნდება, როდესაც გვთავაზობს, რომ მიუხედავად იმისა, რომ ჩვენ შეიძლება გვსურს გვქონდეს AI Legal ორმაგი შემოწმება, ჩვენ უხვად უნდა დავრწმუნდეთ, რომ ისინი მუშაობენ და მუშაობენ სწორად. გაითვალისწინეთ, რომ ეს არის კიდევ ერთი რთული და დამღლელი დაბრკოლება. მე ადრე გავაშუქე უახლესი მიღწევები და გამოწვევები ხელოვნური ინტელექტის შემოწმებისა და დადასტურების საქმეში, იხ ბმული აქ.

როგორც კვლევით ნაშრომშია აღნიშნული: „უფსკრულის აღმოსაფხვრელად, სანამ ხელოვნური ინტელექტის მოდელები განლაგდება მზარდი აგენტური შესაძლებლობებით, მაგ., სრულად ავტონომიურ მანქანებში მთავარ გზებზე, განლაგებულმა მხარემ უნდა აჩვენოს სისტემის გაგება ადამიანის მიზნების, პოლიტიკისა და სამართლებრივი სტანდარტების შესახებ. ვალიდაციის პროცედურამ შეიძლება აჩვენოს AI-ის მიერ იურიდიული ცნებების „მნიშვნელობის“ „გაგება““ (ibid).

დასკვნა

მე მოგიწოდებთ, განიხილოთ ჩემთან შეერთება ამ კეთილშობილურ ძიებაში, რათა შევქმნათ და განვათავსოთ AI Legal ორმაგი ჩეკერები. ჩვენ გვჭირდება მეტი ყურადღება და რესურსი, რომელიც მიეძღვნება ამ სათნო საქმეს.

ეს ასევე ითვალისწინებს ორმაგ მოვალეობას, როგორც უკვე აღვნიშნეთ, AI სამართლებრივი მსჯელობის (AILR) მისაღწევად, რომელიც შეიძლება გამოყენებულ იქნას ადვოკატების დასახმარებლად და პოტენციურად გამოიყენოს უშუალოდ ფართო საზოგადოების მიერ. მართლაც, ზოგიერთი კატეგორიულად ამტკიცებს, რომ მართლმსაჯულებაზე ხელმისაწვდომობის სრული განცდის (A2J) მისაღწევად ერთადერთი ეფექტური საშუალება იქნება ხელოვნური ინტელექტის შექმნა, რომელიც განასახიერებს იურიდიულ შესაძლებლობებს და ხელმისაწვდომი იქნება ყველასთვის.

ერთი სწრაფი საბოლოო წერტილი ახლა.

აქამდე დისკუსიაში ხაზგასმით აღინიშნა, რომ AI Legal ორმაგი შემოწმება იქნება ჩაშენებული ან იმპლანტირებული AI-ში. ეს ნამდვილად არის მათთვის, ვინც იკვლევს და ახორციელებს ამ განვითარებად სფეროს.

აქ არის კითხვა, რომლის განხილვაც ღირს.

ჩაიცვი სააზროვნო ქუდი.

რატომ არ გამოიყენოთ AI Legal ორმაგი შემოწმება ყველა პროგრამაში?

არსი ის არის, რომ ვიდრე ექსკლუზიურად გამოვიყენოთ AI Legal ორმაგი შემოწმება AI-ში, შესაძლოა, ჩვენ უნდა გავაფართოვოთ ჩვენი შეხედულება. ყველა სახის პროგრამული უზრუნველყოფა შეიძლება ლეგალურად წავიდეს. რა თქმა უნდა, ხელოვნურმა ინტელექტუალმა მიიპყრო ყურადღების ლომის წილი იმის გამო, თუ როგორ გამოიყენება ხელოვნური ინტელექტი, როგორიცაა ნაწლავური გადაწყვეტილებების მიღება, რომლებიც გავლენას ახდენს ადამიანებზე მათ ყოველდღიურ ცხოვრებაში. თქვენ შეგიძლიათ მარტივად დაამტკიცოთ, რომ არსებობს უამრავი არა-AI სისტემა, რომლებიც ანალოგიურად აკეთებენ.

არსებითად, ჩვენ არ უნდა მივცეთ საშუალება რაიმე პროგრამულ უზრუნველყოფას ჰქონდეს უფასო მგზავრობა კანონის თავიდან ასაცილებლად ან თავიდან აცილების მიზნით.

ადრეც გავიხსენოთ, რომ მე აღვნიშნე ხელოვნური ინტელექტისა და კანონის შერწყმის ორი კატეგორია. აქ ჩვენ აქცენტი გავაკეთეთ AI-ის გამოყენებაზე, როგორც ეს კანონის შესაბამისად გამოიყენება. მონეტის მეორე მხარეს არის კანონის გამოყენება ხელოვნური ინტელექტის მიმართ. დავუშვათ, ჩვენ ვამტკიცებთ კანონებს, რომლებიც მოითხოვს AI Legal ორმაგი შემოწმების გამოყენებას.

თავდაპირველად, ეს შეიძლება შემოიფარგლოს ხელოვნური ინტელექტის სისტემებით, განსაკუთრებით ისეთებით, რომლებიც შეფასებულია, როგორც განსაკუთრებით მაღალი რისკის მქონე. თანდათანობით, იგივე AI Legal ორმაგი შემოწმების მოთხოვნა შეიძლება გავრცელდეს არა AI პროგრამებზეც. კიდევ ერთხელ, უფასო მგზავრობა არ არის.

სანამ ზემოხსენებულ განხილვას აინტერესებთ, მე დავამატებ ყველაფერს, როგორც დახურვის თიზერს. თუ ჩვენ ვცდილობთ მოვითხოვოთ AI Legal ორმაგი შემოწმება, ჩვენ ასევე შეიძლება მოვიქცეთ ანალოგიურად AI ეთიკის ორმაგი შემოწმება. AI Legal ორმაგი შემოწმების გამოყენება ისტორიის მხოლოდ ნახევარია და ჩვენ არ შეგვიძლია უგულებელვყოთ ან დავივიწყოთ ხელოვნური ინტელექტის ეთიკის შეშფოთებაც.

მე დავასრულებ ამ მხიარულ დისკურსს ჩემი ერთ-ერთი საყვარელი ციტატით. ერლ უორენის, ცნობილი იურისტის, შეერთებული შტატების მთავარი მოსამართლის ბრძნული სიტყვების თანახმად: „ცივილიზებულ ცხოვრებაში კანონი ეთიკის ზღვაში ცურავს“.

შესაძლოა, უმჯობესი იყოს, გულმოდგინედ გამოვიყენოთ ეს დამწყები და ბუშტუკოვანი AI Legal double-checkers და AI Ethics ორმაგი შემოწმება, თუ გვსურს თავი დავიცვათ პოტენციურად მძიმე ზღვაზე მჟავე ხელოვნური ინტელექტისა და არა-AI სისტემებისგან, რომლებიც საფრთხეს უქმნის ჩვენს უსაფრთხოებას. .

ისინი შეიძლება იყვნენ კაცობრიობის სამაშველო ჟილეტი.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- და-აი-კანონი/