კრიპტო და AI: ადვოკატის როლის მომავალი

ერთ-ერთი მათგანია ის, რომ ადამიანებმა შეიძლება იპოვონ განსხვავებული როლი და პოზიცია, ვიდრე ჩვენ შეჩვეულები ვართ დღეს.

ასე რომ, თუ, არგუმენტის გულისთვის, უნდა შეიქმნას მანქანა, რომელსაც შეუძლია გასცეს უცვლელად ზუსტი პასუხი სამართლებრივ კითხვაზე და ამით გასცეს პრაქტიკულად შეუცვლელი პასუხი დავის შესაძლო შედეგზე, თეორიულად ადვოკატის როლი შეიძლება გადაიზარდოს. სხვა სფერო, გარდა კითხვაზე პასუხის შემუშავებისა. შესაძლოა, იმის ცოდნა, თუ როგორ დაუსვან სწორი შეკითხვა მანქანას, რომელიც შემდეგ პასუხს გასცემს. ამრიგად, ის შეშფოთებულია, რომ მანქანას მიეცეს ყველა ყველაზე შესაფერისი ელემენტი და პარამეტრი მოსალოდნელი პასუხის შესაქმნელად.

ან ის შეიძლება გადავიდეს იურიდიული მანქანის „გაწვრთნის“ სფეროში და შემდეგ მიაწოდოს ან იზრუნოს, რომ ყველა იურიდიული მონაცემი და ინფორმაცია, რომელიც საჭიროა მისი შეფასებისთვის, მიეწოდება მანქანას.

და რადგან ეს მანქანა, ამ ჰიპოთეზის შემდეგ, შეძლებს უზრუნველყოს შეუცვლელი სიზუსტით გამოტანილი განაჩენი, რომელიც ჩვენ მიგვაჩნია, რომ „სამართლიანია“, მოსამართლის როლი შესაძლოა გახდეს ის, რომ დარწმუნდეს, რომ მხარეები არ ატყუებენ მანქანა საჭირო ელემენტებით განაჩენის გამოსატანად და რომ აპარატის მიერ შეტანილი და გამოყენებული გადაწყვეტილების კრიტერიუმები აკმაყოფილებდეს სამართლიანობას, გონივრულობას, პროპორციულობას, არადისკრიმინაციას და ა.შ.

ეს ყველაფერი, სხვათა შორის, თითქოს ემთხვევა ცნობილ ხუთ პრინციპს CEPEJ – მართლმსაჯულების ეფექტიანობის ევროპული კომისია (ე.ი. ევროპის საბჭოს იუსტიციის ეფექტურობის კომისია, ევროპის საბჭოს ეს ორგანო, რომელიც წარმოადგენს 47 ქვეყანას, რომლის მიზანია ევროპული მართლმსაჯულების სისტემების ეფექტურობისა და ფუნქციონირების ტესტირება და მონიტორინგი) ეთიკის სფეროში. მართლმსაჯულების სისტემებში ხელოვნური ინტელექტის გამოყენების ქარტია: (i) ძირითადი უფლებების პატივისცემის პრინციპი; (ii) არადისკრიმინაციის პრინციპი (iii) ხარისხისა და უსაფრთხოების პრინციპი; (iv) გამჭვირვალობის, მიუკერძოებლობისა და სამართლიანობის პრინციპი (v) მომხმარებლის კონტროლის პრინციპი.

ახლა, მაშინაც კი, როდესაც მივიღებთ იმ აზრს, რომ მომავალში, რომელშიც ხელოვნური ხელოვნური ინტელექტი მასიური გამოყენებას აღმოაჩენს იურიდიულ სფეროში, ადამიანების როლი შეიძლება გადავიდეს მხოლოდ ზედამხედველობის არეალზე, ასევე გასათვალისწინებელია სხვა მოსაზრებები. ძირითადად იმიტომ, რომ როდესაც წარმოვიდგენთ მართლმსაჯულების სისტემას ამ ერთი შეხედვით ნეიტრალური და უტყუარი ინსტრუმენტებით, ჩვენ წარმოვადგენთ აპარატს, რომელიც უბრალოდ აღასრულებს კანონებსა და წესებს. მცნებების უბრალო შემსრულებელი.

თუმცა, სამართლიანობის ეს წარმოდგენა არ არსებობს პრაქტიკულ რეალობაში, რადგან ნებისმიერი პრინციპული შუამდგომლობისა და ხელისუფლების დანაწილების პრინციპის დარღვევით, ისინი, ვინც განაჩენს გამოიტანენ, ხშირად რეალურად, გარკვეულწილად, ხელს უწყობენ კანონი და შეცვალოს მისი ქსოვილი. ანუ, სასამართლო ფუნქცია ხშირად თანხმდება კონკრეტულად წესების შექმნასა და კონსოლიდაციაში.

რა თქმა უნდა, ეს ზომა განსხვავდება საკანონმდებლო და კონსტიტუციურ სისტემაში. ეს, რა თქმა უნდა, უფრო დიდია საერთო სამართლის ქვეყნებში, სადაც კანონი ყალიბდება პრეცედენტული გადაწყვეტილებების საფუძველზე.

თუმცა, ეს ასევე ეხება კოდიფიცირებული სამართლის ქვეყნებს, როგორებიცაა იტალია, საფრანგეთი, გერმანია და ა.შ. ამ სისტემებში, ფაქტობრივად, სასამართლო გადაწყვეტილების მეშვეობით მიცემული ინტერპრეტაცია ზოგჯერ აიძულებს ან არღვევს ფორმალურ კანონს, ავსებს მას, როდესაც ის აღმოაჩენს ხარვეზებს და მასში არსებული ნაკლოვანებები, უგულებელყოფს მას და ათავსებს სიცარიელეში, როდესაც არსებობს პირობები, რომლებიც მას უპირისპირდება უმაღლესი რანგის პრინციპებს.

ანუ, სასამართლო ფუნქცია, პირდაპირ თუ ირიბად, ხშირად მთავრდება მარეგულირებელი ფუნქციის სფეროს ხელყოფით და ეს შეიძლება მოხდეს სხვადასხვა დონეზე.

შენიშვნა: ეს არ არის იმის გამორიცხვა, რომ აბსტრაქტულად, მანქანას, რომელსაც ეძახიან რეგულაციების წარმოებას, არ შეუძლია ამის გაკეთება ადამიანზე უკეთესადაც კი. თუ მხოლოდ იმით, რომ ისტორია სავსეა ცუდი ადამიანური რეგულატორებით. უკიდურესი მაგალითი რომ ავიღოთ, განვიხილოთ ჰოლოკოსტისა და ეთნიკური წმენდის საშინელი გამოცდილება: ეს იყო საშინელებები, რომლებსაც ლეგალურად უჭერდა მხარს საკანონმდებლო სისტემები მაკროსკოპულად არაადამიანურ პრინციპებზე დაფუძნებული, მაგრამ ისინი შექმნეს და დააწესეს თავად ადამიანებმა.

შეხვედრა ნორმატიულ წარმოებასა და ხელოვნურ ინტელექტს შორის

გადამწყვეტი საკითხი კიდევ ერთია: ნამდვილად დარწმუნებული ვართ, რომ გვინდა მივცეთ მანქანებს ნორმატიული წარმოების პროცესზე წვდომა? და რამდენად? და უნდა გვახსოვდეს, რომ ეს შესვლა ასევე შეიძლება მოხდეს „მცოცავი“ გზით, იურისდიქციის ფუნქციის ნახევრად ღია კარიბჭის გავლით.

იდეა, რომ ფუნქციები, რომლებიც შეიძლება განხორციელდეს მანქანების მიერ, შეიძლება დარჩეს მხოლოდ აღმასრულებელ, ან მაქსიმუმ დამხმარე როლზე ადამიანის შრომისა და სურვილის მიმართ, ადამიანის მიერ დაწესებული ეთიკური და ფორმალური ბარიერების ძალით (მაგ. რობოტიკის კანონები, ასიმოვის ან, მართლაც, ევროპულ კონტექსტში შემუშავებული პრინციპები სასამართლო სისტემებში ხელოვნური ინტელექტის გამოყენების შესახებ) შეიძლება დამამშვიდებელი იყოს.

ამ შემთხვევაში, ეს არის წესები, რომლებიც ნაკარნახევია უშუალოდ ადამიანიდან მანქანამდე და ფართო გაგებით პასუხობს ადამიანის საკუთარი ეგზისტენციალური მოწოდების დაკმაყოფილებას. ანუ ყველა მათგანი გარკვეულწილად კონსერვატიული და ფუნქციონალურია კაცობრიობის განვითარებისა და არსებობის შესანარჩუნებლად.

და სწორედ აქ ჩნდება, თუ გნებავთ, გარკვეულწილად ფილოსოფიური დილემა: თუ ჩვენ ოდესმე მივცეთ უფლება არაადამიანურ ერთეულს სრულად შევიდეს ნორმატიული ფორმირების პროცესში, თუ გავითვალისწინებთ, რომ ის, როგორც ერთეული, იმანენტურად არის დაჯილდოებული თავისით. საკუთარი ეგზისტენციალური მოწოდება, რა შეუშლის ხელს მას დაწეროს წესები, რომლებიც არ ეხმიანება ადამიანის ეგზისტენციალურ მოწოდებას?

ავიღოთ უკიდურესი მაგალითი, თუ ჩვენ დავაყენებთ ჭარბი მოსახლეობის და საკვებისა და ენერგეტიკული რესურსების სიმცირის პრობლემას, გლობალურად, როგორც ადამიანები, ექვემდებარება გარკვეულ პათოლოგიურ იდეოლოგიურ გადახრებს, ეთიკურ დონეზე ჩვენ უარვყოფთ, როგორც პრობლემის გადაჭრის საშუალებას. გადაწყვეტილებები, რომლებიც განაპირობებენ მასობრივ განადგურებას ან ადამიანთა მკვლელობას.

იგივე პრობლემა, დანახული არაადამიანური ერთეულის თვალით, რომელიც შესაძლოა არ აღიარებდეს იდენტურ ეთიკურ პრინციპებს, შეიძლება მიგვიყვანოს მასობრივი განადგურების გადაწყვეტამდე, შესაძლოა, შერჩევითი კრიტერიუმების საფუძველზე, რომლებიც მიმართულია ყველაზე სუსტი სუბიექტების აღმოფხვრაზე (სწორედ ის, რაც ადამიანური ეთიკის კარნახი პრიორიტეტულად უნდა იყოს დაცული), როგორც ყველაზე გონივრული გადაწყვეტა მკაცრად და ცივად ლოგიკურ დონეზე.

მასიმო ჩირიატი, წამყვან ექსპერტებს შორის ხელოვნური ინტელექტი იტალიაში, რომელიც თავის ბევრ ნაშრომში განმარტავს თავის შეხედულებებს ხელოვნური ინტელექტის საზღვრებზე და ზედამხედველობის როლზე, რომელიც ადამიანებმა უნდა შეინარჩუნონ ამ ტექნოლოგიების გამოყენებისას თავის „ხელოვნურ არაცნობიერში“ აცხადებს:

„ძალიან მნიშვნელოვანი პუნქტია გასათვალისწინებელი: ყოველი ხელოვნური ინტელექტის პროგნოზი არის რაოდენობრივი შეფასება და არასდროს ხარისხობრივი, მაშინ როცა ჩვენთვის, ადამიანებისთვის არჩევანი თითქმის არასოდეს არის მარტივი გათვლა. ჩვენ ვიღებთ გადაწყვეტილებებს განუზომელ და, შესაბამისად, გამოუთვლელ ღირებულებებზე დაყრდნობით. ჩვენ ვართ მანქანების მასწავლებლები. ჩვენ ვგულისხმობთ, როდესაც ისინი ითვისებენ ჩვენს მიერ შექმნილ მონაცემებს, როდესაც ისინი აშენებენ მოდელს და გვაძლევენ პასუხებს. 

ჩვენ აშკარად ასე ვართ, როდესაც ვაძლევთ მათ მითითებებს, თუ როგორ უნდა გააკეთონ სამუშაო. ამ მიზეზების გამო, ჩვენ უნდა მივაქციოთ ყურადღება, თუ როგორ სწავლობენ ისინი, რადგან ამით ისინი განვითარდებიან. ”

ახლახან მოყვანილი უკიდურესი მაგალითის მიღმა, მიუხედავად იმისა, რომ ფუჭი და მოჩვენებითია ტექნოლოგიის განვითარების წინააღმდეგობა, ამ სახის პროცესი უნდა იმართებოდეს მაქსიმალური ცნობიერებით.

დღეს ჩვენ განვიხილავთ ხელოვნური ინტელექტის ზემოქმედებას იურიდიულ პროფესიებზე, რასთან დაკავშირებითაც სიტუაციები და ფასეულობები უკიდურესი დელიკატესი და თავისებურებები დაკავშირებულია ინტელექტუალურ დახვეწილობასთან, კრეატიულობასთან და ყველა იმ კომპონენტთან, რომელიც ჩვენ მოგვწონს ადამიანის არამატერიალურ არსში.

თუმცა, იგივე საკითხი აუცილებლად გამოიწვევს ფართომასშტაბიან გავლენას ასობით სამუშაოზე, რომლებსაც მანქანები ძალიან მოკლე დროში შეძლებენ შეასრულონ ისევე, როგორც ადამიანებზე უკეთესად, უსაზღვროდ დაბალ ფასად.

უნდა ვიგრძნოთ თუ არა კრიპტო და ხელოვნური ინტელექტის (AI) საფრთხე?

საკითხის უზარმაზარმა პროპორციებმა უნდა მიგვიყვანოს იმ შედეგებზე, რომელიც გავლენას მოახდენს რეალურ სამყაროზე და რეალობის წაკითხვის უნარზე, რადგან რევოლუციას მოახდენს სამუშაო და ეკონომიკის სამყაროს სოციალური და პოლიტიკური შეხედულებები.

თუ ლეგიტიმურია მრავალი კითხვის დასმა, იურიდიული პროფესიების სამყაროსთან მიმართებაში, აუცილებელია გავითვალისწინოთ, რომ მსგავსი კითხვები დასმული იქნება სამუშაო სამყაროს დიდ ნაწილზე.

ჩვენთვის ყველაზე მყისიერია: „რა დაემართება ადამიანებს, მოსამართლეებსა და იურისტებს, რომლებიც დღეს ასრულებენ იმ როლს და ფუნქციებს, რომლებიც ხვალ შეიძლება შეასრულონ მანქანებმა? როგორ გამოიმუშავებენ საარსებო მინიმუმს?”

მაგრამ კოლექტიური ინტერესების დონეზე გაცილებით მეტია: „ვინ გადაიხდის სოციალური უზრუნველყოფის შენატანებს და ვინ მიაწვდის საზოგადოებას საგადასახადო შემოსავალს, რომელიც წარმოიქმნება მანქანებით ჩანაცვლებული ყველა მუშაკების შემოსავლით? და კიდევ, „რა ბედი ეწევა ყველა იმ ფიგურას, ვინც ხელს უწყობს ამ ოპერატორების საქმიანობას (ასისტენტები, თანამშრომლები, პრაქტიკოსები და ა.შ.) და რა მოხდება, როდესაც მათი შენატანები და საგადასახადო შემოსავლებიც დაიკარგება?

კარგად, ეს კითხვები ასევე ჩნდება ყველა სხვა სამუშაო კატეგორიისთვის, რომელიც შეიძლება მოხვდეს რობოტულ და ციფრულ რევოლუციამ კიდევ უფრო მცირე დროში, ვიდრე ის, რაც სავარაუდოდ იმოქმედებს იურიდიულ მუშაკებზე.

ჩნდება სცენარები, რომლებმაც შეიძლება მოძველებული გახადონ დღეს ცნობილი სოციოლოგიური, ეკონომიკური, ანთროპოლოგიური და პოლიტიკური შეხედულებები: სოციალიზმი, ლიბერალიზმი, ლიბერტარიანიზმი, სუვერენიზმი და ა.შ., დაკარგავს კონცეპტუალურ საფუძვლებს.

ბევრი, თუ არა ყველაფერი, თავიდან უნდა გადაიფიქროს.

მაგრამ დავუბრუნდეთ AI-ის თემას იურიდიულ სფეროში, ჩემი პირადი შეხედულებაა, რომ ადვოკატის როლი (მოწოდებით თარჯიმანი არა მხოლოდ ნორმების, არამედ ფაქტების და, გარკვეულწილად, ადამიანების) როლს ვერ შეძლებს. შემოიფარგლება იურიდიული მომსახურების წარმოების ციკლის სხვა რეგიონში მიგრაციით.

ჩემი აზრია, რომ ადვოკატს და, ზოგადად, იურიდიულ პრაქტიკოსებს შეიძლება მიენიჭოს უფრო მაღალი როლი: ანუ, იზრუნონ იმაზე, რომ ტექნოლოგიური განვითარების მართვაში ინფორმირებულობა ყოველთვის პროპორციული იყოს კაცობრიობის რეალური კეთილდღეობის მიზნებთან, სათანადოდ არხული და, საჭიროების შემთხვევაში, ასევე შეგნებულად და გონივრულად შეზღუდვა.

ცნობილი ჩინური გამონათქვამია: „როდესაც ცვლილებების ქარი უბერავს, ზოგი ბარიერებს აყენებს, ზოგი კი ქარის წისქვილებს აშენებს“.

ახლა, მიუხედავად იმისა, რომ მე მინდა ვიფიქრო, რომ შემიძლია ჩავთვლი ჩემს თავს მათ შორის, ვინც "როდესაც ცვლილებების ქარი უბერავს" ენთუზიაზმით თავს იყრის ქარის წისქვილების მშენებლობაში, არ მინდა მივიდე იქამდე, რომ ქარის წისქვილებს აღარ სჭირდებათ ადამიანების არსებობა, რადგან მათი არსებობა ეძღვნება სხვა ქარის წისქვილების საჭიროებას.

და საქმე რომ მივიდეს, დასჭირდება ადამიანს ასეთი ქარის წისქვილები?

ახლა, განსაზღვრებით ადვოკატი არის ის, ვინც მოწოდებულია (ad vocatum) დაიცვას და განაცხადოს მიზეზი. აი, მისი მიზეზი: მას მოუწევს იზრუნოს იმაზე, რომ ადამიანებმა შეინარჩუნონ მტკიცე ძალაუფლება წესებზე და მანქანები დარჩეს იმ როლზე, რისთვისაც ისინი შეიქმნა: იმუშაონ კაცობრიობის სამსახურში.

და როცა საჭირო იქნება, მოუწევს ადგომა და ბრძოლა, რომ ასე იყოს და დარჩეს.

ბრძოლა კაცობრიობის სიკეთისთვის. ისევე როგორც Mazinga Zeta, ცნობილ იაპონურ მულტფილმში, ვისაც ეს ახსოვს.

კარგად ჟღერს, მაგრამ მაზინგა ზეტა, ისიც რობოტი არ იყო?

 

წყარო: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/