პასუხისმგებელი ხელოვნური ინტელექტი სარგებლობს გამორჩეული გაძლიერებით AI ეთიკის გამოცხადებით საუკეთესო პროფესიონალური საზოგადოების მიერ ACM

ნახე ან გაიგე ახალი ამბები?

AI ეთიკის პრინციპების კიდევ ერთი ნაკრები ახლად გამოცხადდა.

მხურვალე ტაში, თუ გთხოვ.

მერე ისევ, შეიძლება არ შეამჩნიეს ეს იმის გამო, რომ AI ეთიკის მრავალი სხვა დადგენილება უკვე დიდი ხანია ვრცელდება. ზოგი ამბობს, რომ ეთიკური ხელოვნური ინტელექტის გამოცხადებების ერთი შეხედვით უწყვეტი გაჟღენთვა ცოტა დამაბნეველი ხდება. რამდენი გვჭირდება? შეუძლია ვინმეს გააგრძელოს ისინი ყველა? რომელია საუკეთესო? ჩვენ ალბათ გადავაჭარბებთ ხელოვნური ინტელექტის ეთიკის პრინციპებს? Და ასე შემდეგ.

ამ კონკრეტულ შემთხვევაში მე ვამბობ, რომ განსაკუთრებით უნდა მივესალმოთ კლუბის ამ ბოლო დამატებას.

ერთ წუთში დეტალურად აგიხსნით რატომ.

პირველ რიგში, როგორც განმარტება, მე ვგულისხმობ ხელოვნური ინტელექტის ეთიკის პრინციპს, რომელიც ახლა ოფიციალურად ცნობილია, როგორც ”განცხადება პასუხისმგებელი ალგორითმული სისტემების პრინციპების შესახებ“ რომელიც ახლახან გამოქვეყნდა ACM Technology Policy Council-ის მიერ 26 წლის 2022 ოქტომბერს. მადლობა გადადით ექსპერტთა გუნდებთან, რომლებმაც შეადგინეს ეს ძვირფასი დოკუმენტი, მათ შორის თანაწამყვანი ავტორები ჟანა მეთიუსი (კლარკსონის უნივერსიტეტი) და რიკარდო ბაეზა-იატსი (Universitat Pompeu Fabra). ).

ვინც იცით, შესაძლოა, ახლო შემოწმების შემდეგ გააცნობიეროს, რომ ეს დოკუმენტი ნაკლებად ნაცნობია.

კარგი თვალი!

ეს უკანასკნელი განსახიერება არსებითად არის განახლებული და გაფართოებული ვარიანტი ადრინდელი ერთობლივი „განცხადების ალგორითმული გამჭვირვალობისა და ანგარიშვალდებულების შესახებ“, რომელიც გამოქვეყნდა ACM აშშ-ს ტექნოლოგიური პოლიტიკის კომიტეტისა და ACM ევროპის ტექნოლოგიური პოლიტიკის კომიტეტის მიერ 2017 წელს. ჩემი სვეტების ერთგულმა მკითხველებმა შეიძლება გაიხსენონ, რომ მე დროდადრო ვახსენე 2017 წლის განკარგულება ჩემს სვეტში, რომელიც აშუქებს AI ეთიკას და AI კანონს.

ხელოვნური ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ინტელექტის სამართლის ჩემი ვრცელი და მიმდინარე შეფასებისა და ტენდენციური ანალიზისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ACM-ის ეს უკანასკნელი განცხადება განსაკუთრებით მნიშვნელოვანია რამდენიმე სასიცოცხლო მიზეზის გამო.

აი რატომ.

ACM, რომელიც არის მოსახერხებელი აკრონიმი კომპიუტერული ტექნიკის ასოციაცია, ითვლება მსოფლიოს უდიდეს კომპიუტერულ ასოციაციად. დაახლოებით 110,000 წევრისგან შემდგარი ACM არის დიდი ხნის პიონერი გამოთვლით სფეროში. ACM აწარმოებს ყველაზე მაღალ მეცნიერულ კვლევას გამოთვლით სფეროში და ასევე უზრუნველყოფს პროფესიონალურ ქსელს და მიმართავს გამოთვლით პრაქტიკოსებსაც. როგორც ასეთი, ACM არის მნიშვნელოვანი ხმა, რომელიც წარმოადგენს ზოგადად მაღალტექნოლოგიურ ხმას და მტკიცედ ცდილობდა კომპიუტერული სფეროს წინსვლას (ACM დაარსდა 1947 წელს).

მე შეიძლება დავამატო ცოტა პირადი შენიშვნაც. როდესაც პირველად ჩავაბარე კომპიუტერებში საშუალო სკოლაში, შევუერთდი ACM-ს და მივიღე მონაწილეობა მათ საგანმანათლებლო პროგრამებში, განსაკუთრებით საინტერესო შანსი, რომ შევეჯიბრო მათ ყოველწლიურ კომპიუტერული პროგრამირების კონკურსში (ასეთი შეჯიბრებები დღესდღეობით ფართოდ გავრცელებულია და ჩვეულებრივ იარლიყს უწოდებენ. ჰაკათონები). მე ვრჩები ჩართული ACM-ში კოლეჯში სწავლის დროს, ჩემი ადგილობრივი უნივერსიტეტის განყოფილების მეშვეობით და მივიღე შესაძლებლობა გამეგო ლიდერობის შესახებ, გავხდე სტუდენტური განყოფილების ოფიცერი. ინდუსტრიაში შესვლისთანავე შევუერთდი პროფესიულ განყოფილებას და კიდევ ერთხელ ავიღე ლიდერის როლი. ამის შემდეგ, როცა პროფესორი გავხდი, ვმსახურობდი ACM კომიტეტებსა და სარედაქციო საბჭოებში, კამპუსის სტუდენტური თავის დაფინანსებასთან ერთად. დღესაც, მე აქტიური ვარ ACM-ში, მათ შორის ვმსახურობ ACM აშშ-ის ტექნოლოგიური პოლიტიკის კომიტეტში.

მე მსიამოვნებს ACM-ის მიმზიდველი და გრძელვადიანი ხედვა მთელი ცხოვრების მანძილზე სწავლისა და კარიერული განვითარების შესახებ.

ნებისმიერ შემთხვევაში, AI ეთიკის უახლესი განცხადების თვალსაზრისით, ის ფაქტი, რომ ეს გაცემულია ACM-ის მიერ, მას გარკვეულ წონას ანიჭებს. თქვენ შეიძლება გონივრულად განაცხადოთ, რომ ეთიკური ხელოვნური ინტელექტის პრინციპები არის გამოთვლების პროფესიონალების მსოფლიო ჯგუფის მთლიანობა ან კოლექტიური ხმა. ეს რაღაცას ამბობს იქ.

ასევე არსებობს ის ასპექტი, რომ კომპიუტერულ სფეროში სხვები შთაგონებულნი იქნებიან, რომ მოისმინონ და სათანადო ყურადღება მიაქციონ იმას, რასაც მათი თანამემამულე გამომთვლელი კოლეგები აცხადებენ. ამრიგად, მათთვისაც კი, ვინც არ არის ACM-ში ან არ იცის არაფერი პატივცემული ჯგუფის შესახებ, იმედია, დიდი ინტერესი ექნებათ გაარკვიონ, რას ეხება განცხადება.

იმავდროულად, ისინი, რომლებიც არიან გარეთ გამოთვლითი სფეროს შეიძლება მიიპყრო განცხადება, როგორც ერთგვარი კულისებს მიღმა ინსაიდერი, თუ რას ამბობენ ისინი კომპიუტერებში ეთიკური ხელოვნური ინტელექტის შესახებ. თუმცა მინდა ხაზგასმით აღვნიშნო, რომ განცხადება განკუთვნილია ყველასთვის, არა მხოლოდ კომპიუტერულ საზოგადოებაში, და, შესაბამისად, გახსოვდეთ, რომ ხელოვნური ინტელექტის ეთიკის პრინციპები, როგორც ეს იყო, ყოვლისმომცველია.

და ბოლოს, არის დამატებული ირონია, რომელსაც ცოტანი განიხილავენ.

ზოგჯერ, აუტსაიდერები აღიქვამენ გამოთვლით ასოციაციებს, როგორც ტექნოლოგიას მუხლამდე და არ აცნობიერებენ კომპიუტერების და ხელოვნური ინტელექტის სოციალურ ზემოქმედებას. შეიძლება გაგიჩნდეთ ცდუნება დაფიქრდეთ, რომ ასეთი პროფესიული ორგანიზაციები ზრუნავენ მხოლოდ აპარატურულ ან პროგრამულ უზრუნველყოფაში არსებულ უახლეს და უახლეს მიღწევებზე. ისინი აღიქმებიან საზოგადოების მიერ, უბრალოდ, უხეში ფორმით, როგორც ტექნიკოსები.

ჩანაწერის გასასწორებლად, მე ჩაძირული ვიყავი კომპიუტერული ტექნოლოგიის სოციალურ ზემოქმედებაში, მას შემდეგ, რაც პირველად შევედი კომპიუტერში და ასევე, ACM ასევე ღრმად იყო ჩართული ასეთ თემებზე.

ვისაც უკვირს, რომ ეს განცხადება ხელოვნური ინტელექტის ეთიკის პრინციპების შესახებ შედგენილია და გამოქვეყნებულია ACM-ის მიერ, ისინი ყურადღებას არ აქცევენ ამ საკითხებზე მიმდინარე კვლევებსა და მუშაობას. მე ასევე მოვუწოდებ, რომ დაინტერესებულმა პირებმა კარგად დაათვალიერონ ACM ეთიკის წესები, მკაცრი პროფესიული ეთიკის კოდექსი, რომელიც წლების განმავლობაში განვითარდა და ხაზს უსვამს, რომ სისტემების დეველოპერებმა უნდა იცოდნენ, დაიცვან და ფხიზლად იყვნენ მათი მცდელობებისა და პროდუქტების ეთიკური შედეგების შესახებ.

ხელოვნური ინტელექტი ანთებს ცეცხლს გამოთვლითი ეთიკის შესახებ ინფორმირებულობის გამო.

ეთიკური და სამართლებრივი მოსაზრებების ხილვადობა გამოთვლით სფეროში საოცრად გაიზარდა დღევანდელი ხელოვნური ინტელექტის გაჩენით. ამ პროფესიის წარმომადგენლებს ეცნობიან და ხანდახან ურტყამდნენ, რომ სათანადო ყურადღება მიაქციონ ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ინტელექტის სამართლის საკითხებს. კანონმდებლები სულ უფრო მეტად აცნობიერებენ AI ეთიკის და AI კანონების ასპექტებს. კომპანიები აცნობიერებენ, რომ ხელოვნური ინტელექტი, რომელსაც ისინი ქმნიან ან იყენებენ, ორივე ხელსაყრელია, მაგრამ ზოგჯერ ასევე იწვევს უზარმაზარ რისკებს და პოტენციურ უარყოფით მხარეებს.

მოდით გავხსნათ ის, რაც ხდებოდა ბოლო რამდენიმე წლის განმავლობაში, რათა შეიქმნას შესაბამისი კონტექსტი, სანამ გადავიდეთ ხელოვნური ინტელექტის ეთიკის პრინციპების ამ უახლეს კომპლექტზე.

ეთიკური ხელოვნური ინტელექტის შესახებ ცნობიერების ამაღლება

ხელოვნური ინტელექტის ბოლო ერა თავდაპირველად განიხილებოდა, როგორც AI კარგით, რაც იმას ნიშნავს, რომ ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტი კაცობრიობის გასაუმჯობესებლად. ქუსლებზე AI კარგით მივხვდი, რომ ჩვენც ჩაძირულები ვართ AI ცუდად. ეს მოიცავს ხელოვნურ ინტელექტს, რომელიც შემუშავებულია ან თვითშეცვლილია დისკრიმინაციულად და აკეთებს გამოთვლით არჩევანს, რომელიც ავსებს უადგილო მიკერძოებას. ზოგჯერ ხელოვნური ინტელექტი აგებულია ამ გზით, ხოლო სხვა შემთხვევებში ის გადადის იმ არასასურველ ტერიტორიაზე.

მინდა უხვად დავრწმუნდე, რომ დღევანდელი AI-ის ბუნების შესახებ ერთსა და იმავე გვერდზე ვართ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ ჩვენ გვინდოდა სასტიკი სპეკულირება მგრძნობიარე ხელოვნური ინტელექტის შესახებ, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შეიძლება გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური ხელოვნური ინტელექტის შესასწავლად, როგორც შესაძლებლობა, იხ. გაშუქება აქ).

მე კატეგორიულად გირჩევთ, შევინარჩუნოთ ყველაფერი დედამიწაზე და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

იყავით ძალიან ფრთხილად დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციასთან დაკავშირებით.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ ხელოვნური ინტელექტის დეველოპერები შეამოწმებენ პოტენციურად ჩაფლულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონების შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ამ ყველაფერს აქვს განსაკუთრებით მნიშვნელოვანი AI ეთიკის გავლენა და გთავაზობთ მოსახერხებელ ფანჯარას ნასწავლი გაკვეთილების შესახებ (თუნდაც სანამ ყველა გაკვეთილი მოხდება), როდესაც საქმე ეხება ხელოვნური ინტელექტის კანონმდებლობის დაწესებას.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

წინა სვეტებში მე გავაშუქე სხვადასხვა ეროვნული და საერთაშორისო ძალისხმევა ხელოვნური ინტელექტის მარეგულირებელი კანონების შემუშავებისა და ამოქმედების მიზნით, იხ. ბმული აქ, მაგალითად. მე ასევე გავაშუქე ხელოვნური ინტელექტის ეთიკის სხვადასხვა პრინციპები და გაიდლაინები, რომლებიც სხვადასხვა ერებმა დაადგინეს და მიიღეს, მათ შორის, მაგალითად, გაეროს ძალისხმევა, როგორიცაა იუნესკოს AI ეთიკის ნაკრები, რომელიც თითქმის 200 ქვეყანამ მიიღო, იხ. ბმული აქ.

აქ მოცემულია ეთიკური ხელოვნური ინტელექტის კრიტერიუმების ან მახასიათებლების სასარგებლო საკვანძო სია AI სისტემებთან დაკავშირებით, რომლებიც ადრე შევისწავლე:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ AI დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და მათაც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს.

ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც აქ უკვე აღინიშნა, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაიცვას AI ეთიკის წესები.

მეც ცოტა ხნის წინ გამოვიკვლიე AI უფლებების ბილი რომელიც არის აშშ-ს მთავრობის ოფიციალური დოკუმენტის ოფიციალური სახელწოდება, სახელწოდებით „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ რომელიც იყო მეცნიერებისა და ტექნოლოგიების პოლიტიკის ოფისის (OSTP) ერთწლიანი ძალისხმევის შედეგი. ). OSTP არის ფედერალური ერთეული, რომელიც ემსახურება ამერიკის პრეზიდენტს და აშშ-ს აღმასრულებელ ოფისს ეროვნული მნიშვნელობის სხვადასხვა ტექნოლოგიურ, სამეცნიერო და საინჟინრო ასპექტებზე. ამ თვალსაზრისით, შეგიძლიათ თქვათ, რომ AI უფლებების შესახებ ეს არის დოკუმენტი, რომელიც დამტკიცებულია და დამტკიცებულია აშშ-ს არსებული თეთრი სახლის მიერ.

ხელოვნური ინტელექტის უფლებათა ბილში არის ხუთი ძირითადი კატეგორია:

  • უსაფრთხო და ეფექტური სისტემები
  • ალგორითმული დისკრიმინაციის დაცვა
  • მონაცემთა კონფიდენციალურობა
  • შენიშვნა და ახსნა
  • ადამიანური ალტერნატივები, განხილვა და უკან დაბრუნება

მე ყურადღებით განვიხილე ეს წესები, იხილეთ ბმული აქ.

ახლა, როდესაც მე ჩავუყარე დამხმარე საფუძველი ამ დაკავშირებულ AI ეთიკას და AI სამართალს, ჩვენ მზად ვართ გადავიდეთ ახლახან გამოქვეყნებულ ACM-ზე „განცხადება პასუხისმგებელი ალგორითმული სისტემების პრინციპების შესახებ“ (სხვათა შორის, რადგან დოკუმენტის სათაური ეხება პასუხისმგებელი ალგორითმული სისტემები, შეგიძლიათ გადახედოთ ჩემს შეფასებას, თუ რას ნიშნავს საუბარი სანდო AIიხილეთ ბმული აქ).

მოემზადეთ მოგზაურობისთვის AI ეთიკის პრინციპების უახლესი ნაკრებისთვის.

ACM-ში განზრახ იჭრება AI ეთიკის პრინციპები

ACM-ის განცხადება ეთიკური ხელოვნური ინტელექტის შესახებ შედგება ამ ცხრა ძირითადი წერტილისგან:

  • ლეგიტიმაცია და კომპეტენცია
  • ზიანის მინიმიზაცია
  • უსაფრთხოება და კონფიდენციალურობა
  • გამჭვირვალობა
  • ინტერპრეტაცია და ახსნა-განმარტება
  • მდგრადობა
  • კონკურენტუნარიანობა და აუდიტორობა
  • ანგარიშვალდებულება და პასუხისმგებლობა
  • გარემოზე ზემოქმედების შეზღუდვა

თუ ამ უახლეს კომპლექტს შეადარებთ სხვა განსაკუთრებით ხელმისაწვდომ კომპლექტებს, მათ შორის არის დიდი მსგავსება ან მსგავსი მიმოწერა.

ერთის მხრივ, ეს შეიძლება კარგი ნიშანი იყოს.

ჩვენ შეიძლება ზოგადად ვიმედოვნებთ, რომ AI ეთიკის პრინციპების მთელი რიგი გაერთიანებულია საერთო საერთო გაშუქებისკენ. იმის დანახვა, რომ ერთი ნაკრები გარკვეულწილად შედარებადია მეორე კომპლექტთან, გაძლევს დამაჯერებლობას, რომ ეს ნაკრები ერთსა და იმავე ბალიშშია და არა რატომღაც გაურკვეველი მარცხენა ველში.

ზოგიერთის პოტენციური საჩივარი ის არის, რომ ეს სხვადასხვა ნაკრები, როგორც ჩანს, დაახლოებით ერთნაირია, რაც შემდეგ შესაძლოა დაბნეულობას ან სულ მცირე შეშფოთებას იწვევს იმის გამო, რომ ჩვენ არ უნდა გვქონდეს მრავალი ერთი შეხედვით დუბლიკატი სიები. ერთი სია არ შეიძლება იყოს? პრობლემა, რა თქმა უნდა, ის არის, რომ არ არსებობს მარტივი გზა, რომ ყველა ასეთი სია ზუსტად ერთნაირი იყოს. სხვადასხვა ჯგუფები და სხვადასხვა სუბიექტები ამას სხვადასხვა გზით მიუდგნენ. კარგი ამბავი ის არის, რომ მათ თითქმის ყველა მიაღწიეს ერთსა და იმავე ზოგად დასკვნას. ჩვენ შეგვიძლია განვთავისუფლდეთ, რომ კომპლექტებს არ აქვთ დიდი განსხვავებები, რაც, შესაძლოა, შეგვაწუხოს, თუ არ იქნებოდა საერთო კონსენსუსი.

საპირისპირო შეიძლება მოუწოდოს, რომ ამ სიების საერთოობა შემაშფოთებელია და ამტკიცებს, რომ შესაძლოა ჯგუფური აზროვნება მიმდინარეობს. შესაძლოა, ყველა ეს განსხვავებული ჯგუფი ერთნაირად ფიქრობს და ვერ ხედავს ნორმის მიღმა. ყველა ჩვენგანი ერთნაირ ხაფანგში ვვარდებით. სიები თითქოს ამაგრებს ჩვენს აზროვნებას და ჩვენ ვერ ვხედავთ ჩვენი ცხვირის მიღმა.

ჩვენი ცხვირის მიღმა ყურება უდავოდ ღირსეული მიზეზია.

მე, რა თქმა უნდა, ღია ვარ იმის მოსმენისთვის, თუ რას ამბობენ საპირისპირო მხარეები. ზოგჯერ ისინი იჭერენ ქარი რაღაც, რაც აქვს Titanic გიგანტური აისბერგისკენ მიემართება. ჩვენ შეგვეძლო გამოგვეყენებინა რამდენიმე არწივის თვალი. მაგრამ, ამ ხელოვნური ინტელექტის ეთიკის პრინციპების საკითხში, არ ყოფილა რაიმე საბოლოოდ ჩამოყალიბებული საპირისპირო მხარის მიერ, რომელიც აშკარად აფერხებს ან იწვევს შეშფოთებას არასათანადო საერთოობის შესახებ. ვფიქრობ, ჩვენ კარგად ვართ.

ამ ACM კომპლექტში არის რამდენიმე განსაკუთრებით შესამჩნევი ან გამორჩეული პუნქტი, რომლებიც, ჩემი აზრით, განსაკუთრებული ყურადღების ღირსია.

პირველ რიგში, მე მომწონს უმაღლესი დონის ფრაზები, რომელიც გარკვეულწილად განსხვავდება ნორმისგან.

მაგალითად, ეხება ლეგიტიმურობა და კომპეტენცია (პირველი პუნქტი) ასახავს როგორც დიზაინერის, ისე მენეჯმენტის კომპეტენციების მნიშვნელობას, რომლებიც დაკავშირებულია AI-სთან. გარდა ამისა, ლეგიტიმურობა გამოთქმა მთავრდება ხელოვნური ინტელექტის ეთიკაში მდე AI სამართლის სფერო. ამას იმიტომ ვამბობ, რომ ხელოვნური ინტელექტის ეთიკის მრავალი დებულება თითქმის მთლიანად კონცენტრირებულია ეთიკურ შედეგებზე, მაგრამ, როგორც ჩანს, გამოტოვებს ან ერიდება იურიდიული შედეგების აღნიშვნას. სამართლებრივ სფეროში, ეთიკური მოსაზრებები ხშირად განიხილება, როგორც "რბილი კანონი", ხოლო წიგნების შესახებ კანონები განმარტებულია, როგორც "მყარი კანონები" (რაც ნიშნავს, რომ ისინი ატარებენ იურიდიული სასამართლოების წონას).

ჩემი ყველა დროის ერთ-ერთი საყვარელი გამონათქვამი წარმოთქვა ცნობილმა იურისტმა ერლ უორენმა: „ცივილიზებულ ცხოვრებაში კანონი ეთიკის ზღვაში ცურავს“.

ჩვენ უნდა დავრწმუნდეთ, რომ ხელოვნური ინტელექტის ეთიკის პრინციპები ასევე მოიცავს და ხაზს უსვამს საგნების რთულ მხარეებს, როგორიცაა ხელოვნური ინტელექტის კანონების შედგენა, ამოქმედება და აღსრულება.

მეორეც, ვაფასებ, რომ სიაში შედის სადავო და აუდიტისუნარიანობა.

მე არაერთხელ დავწერე იმის შესახებ, თუ რამდენად მნიშვნელოვანია შეჯიბრება ან წითელი დროშის აწევა, როცა ექვემდებარება AI სისტემას, იხ. ბმული აქ. გარდა ამისა, ჩვენ ვაპირებთ სულ უფრო და უფრო დავინახოთ ახალი კანონები, რომლებიც აიძულებენ ხელოვნური ინტელექტის სისტემებს აუდიტის ჩატარებას. ბმული აქ. სამწუხაროდ, და როგორც ჩემი ღიად ვაკრიტიკებ ნიუ-იორკის ახალ კანონს, თუ ეს აუდიტის კანონები ხარვეზებია, ისინი ალბათ უფრო მეტ პრობლემას შექმნიან, ვიდრე გადაჭრიან.

მესამე, თანდათანობით იღვიძებს, რომ ხელოვნური ინტელექტის განვითარებას შეუძლია მდგრადობის პრობლემები და მოხარული ვარ, რომ ვხედავ, რომ გარემოს დაცვის თემამ მიიღო უმაღლესი დონის ბილინგი ამ AI ეთიკის პრინციპებში (იხილეთ სიის ბოლო პუნქტი).

ხელოვნური ინტელექტის სისტემის შექმნის აქტმა შეიძლება მოიხმაროს ბევრი გამოთვლითი რესურსი. ეს გამოთვლითი რესურსები შეიძლება პირდაპირ ან ირიბად იყოს მდგრადობის უზურპატორები. გასათვალისწინებელია სარგებელი, რომელსაც ხელოვნური ინტელექტი იძლევა იმ ხარჯებთან შედარებით, რომლებიც AI-სთან ერთად მოდის. ACM-ის ბოლო პუნქტი აღნიშნავს მდგრადობას და გარემოსდაცვით მოსაზრებებს, რომლებიც წარმოიქმნება AI-სთან ერთად. AI-თან დაკავშირებული ნახშირბადის ანაბეჭდის საკითხების ჩემი გაშუქებისთვის იხ ბმული აქ.

ახლა, როდესაც ჩვენ გადავხედეთ ACM-ის AI ეთიკის პრინციპების ჩამონათვალს, შემდეგ თითები უფრო ღრმად ჩავდეთ წყლებში.

აქ მოცემულია მაღალი დონის ხელოვნური ინტელექტის ეთიკის პრინციპების ოფიციალური აღწერილობები (ციტირებული ოფიციალური განცხადებიდან):

1. "ლეგიტიმაცია და კომპეტენცია: ალგორითმული სისტემების დიზაინერებს უნდა ჰქონდეთ მენეჯმენტის კომპეტენცია და მკაფიო ავტორიზაცია, რომ შექმნან და განათავსონ ასეთი სისტემები. მათ ასევე უნდა ჰქონდეთ ექსპერტიზა აპლიკაციის სფეროში, მეცნიერული საფუძველი სისტემის დანიშნულებისამებრ გამოყენებისთვის და ფართოდ განიხილონ, როგორც სოციალურად ლეგიტიმური სისტემის მიერ ზემოქმედების ქვეშ მყოფი დაინტერესებული მხარეების მიერ. უნდა ჩატარდეს სამართლებრივი და ეთიკური შეფასებები, რათა დაადასტუროს, რომ სისტემების მიერ დანერგილი ნებისმიერი რისკი პროპორციული იქნება იმ პრობლემების მიმართ, რომლებიც განიხილება, და რომ ნებისმიერი სარგებელი და ზიანის ურთიერთგაგება გასაგებია ყველა შესაბამისი დაინტერესებული მხარის მიერ.

2. "ზიანის მინიმუმამდე შემცირება: მენეჯერებმა, დიზაინერებმა, დეველოპერებმა, მომხმარებლებმა და ალგორითმული სისტემების სხვა დაინტერესებულმა მხარეებმა უნდა იცოდნენ შესაძლო შეცდომებისა და მიკერძოების შესახებ, რომლებიც დაკავშირებულია მათ დიზაინში, განხორციელებასა და გამოყენებაში, და იმ პოტენციურ ზიანს, რომელიც სისტემამ შეიძლება მიაყენოს ინდივიდებსა და საზოგადოებას. ორგანიზაციებმა რეგულარულად უნდა აწარმოონ ზემოქმედების შეფასება მათ მიერ დაყენებულ სისტემებზე, რათა დადგინდეს, შეუძლია თუ არა სისტემამ გამოიწვიოს ზიანი, განსაკუთრებით დისკრიმინაციული ზიანი და გამოიყენონ შესაბამისი შემარბილებელი ზომები. როდესაც ეს შესაძლებელია, მათ უნდა ისწავლონ რეალური შესრულების საზომებიდან და არა მხოლოდ წარსული გადაწყვეტილებების ნიმუშებიდან, რომლებიც შესაძლოა თავად იყოს დისკრიმინაციული“.

3. "უსაფრთხოება და კონფიდენციალურობა: მავნე მხარეების რისკი შეიძლება შემცირდეს უსაფრთხოებისა და კონფიდენციალურობის საუკეთესო პრაქტიკის დანერგვით სისტემის სასიცოცხლო ციკლის ყველა ფაზაში, მათ შორის მძლავრი კონტროლი, რათა შერბილდეს ახალი დაუცველობა, რომელიც წარმოიქმნება ალგორითმული სისტემების კონტექსტში.

4. "გამჭვირვალობა: სისტემის დეველოპერებს ურჩევენ, მკაფიოდ დაადასტურონ, თუ როგორ შეირჩა კონკრეტული მონაცემთა ნაკრები, ცვლადები და მოდელები განვითარებისთვის, ტრენინგის, ვალიდაციისა და ტესტირებისთვის, ასევე კონკრეტული ზომები, რომლებიც გამოიყენებოდა მონაცემთა და გამომავალი ხარისხის გარანტირებისთვის. სისტემებმა უნდა მიუთითონ თავიანთი ნდობის დონე თითოეულ გამომუშავებაზე და ადამიანები უნდა ჩაერიონ, როდესაც ნდობა დაბალია. დეველოპერებმა ასევე უნდა დააფიქსირონ ის მიდგომები, რომლებიც გამოიყენეს პოტენციური მიკერძოების გამოსაკვლევად. სისტემებისთვის, რომლებსაც აქვთ კრიტიკული გავლენა სიცოცხლესა და კეთილდღეობაზე, საჭიროა დამოუკიდებელი გადამოწმებისა და ვალიდაციის პროცედურები. მონაცემთა და მოდელების საჯარო შემოწმება იძლევა კორექტირების მაქსიმალურ შესაძლებლობას. ამრიგად, დეველოპერებმა ხელი უნდა შეუწყონ მესამე მხარის ტესტირებას საზოგადოებრივი ინტერესებიდან გამომდინარე. ”

5. "ინტერპრეტაცია და ახსნადობა: ალგორითმული სისტემების მენეჯერები წახალისებულნი არიან, წარმოადგინონ ინფორმაცია როგორც პროცედურების შესახებ, რომლებსაც იყენებენ გამოყენებული ალგორითმები (ინტერპრეტაცია), ასევე კონკრეტული გადაწყვეტილებების შესახებ, რომლებსაც ისინი იღებენ (ახსნადობა). ახსნა-განმარტება შეიძლება იყოს ისეთივე მნიშვნელოვანი, როგორც სიზუსტე, განსაკუთრებით საჯარო პოლიტიკის კონტექსტში ან ნებისმიერ გარემოში, სადაც არის შეშფოთება იმის შესახებ, თუ როგორ შეიძლება ალგორითმების დახრილობა, რათა სასარგებლო იყოს ერთი ჯგუფის მიმართ მეორეზე აღიარების გარეშე. მნიშვნელოვანია განვასხვავოთ ახსნა-განმარტებები და ფაქტების შემდგომი რაციონალიზაცია, რომლებიც არ ასახავს მტკიცებულებებს ან გადაწყვეტილების მიღების პროცესს, რომელიც გამოიყენება ახსნილ დასკვნამდე მისასვლელად“.

6. "შენარჩუნების უნარი: ყველა ალგორითმული სისტემის სისწორის მტკიცებულება უნდა შეგროვდეს მათი სასიცოცხლო ციკლის განმავლობაში, მათ შორის სისტემური მოთხოვნების დოკუმენტაცია, ცვლილებების დიზაინი ან განხორციელება, ტესტის შემთხვევები და შედეგები და აღმოჩენილი და გამოსწორებული შეცდომების ჟურნალი. სათანადო მოვლა-პატრონობამ შეიძლება მოითხოვოს სისტემების გადამზადება ახალი სასწავლო მონაცემებით და/ან გამოყენებული მოდელების შეცვლა.“

7. "კონკურენტუნარიანობა და აუდიტორობა: მარეგულირებლებმა უნდა წაახალისონ ისეთი მექანიზმების დანერგვა, რომლებიც საშუალებას მისცემს ინდივიდებსა და ჯგუფებს, ეჭვქვეშ დააყენონ შედეგები და მოიძიონ ალგორითმულად ინფორმირებული გადაწყვეტილებების შედეგად მიღებული უარყოფითი შედეგები. მენეჯერებმა უნდა უზრუნველყონ, რომ მონაცემები, მოდელები, ალგორითმები და გადაწყვეტილებები ჩაიწეროს ისე, რომ მოხდეს მათი აუდიტი და შედეგების გამეორება იმ შემთხვევებში, როდესაც არსებობს ეჭვი ან სავარაუდო ზიანი. აუდიტის სტრატეგიები უნდა იყოს გასაჯაროებული, რათა ინდივიდებს, საზოგადოებრივი ინტერესის მქონე ორგანიზაციებს და მკვლევარებს საშუალება მისცენ, გადახედონ და რეკომენდაცია გაუწიონ გაუმჯობესებას“.

8. "პასუხისმგებლობა და პასუხისმგებლობა: საჯარო და კერძო ორგანოები პასუხისმგებელნი უნდა იყვნენ იმ გადაწყვეტილებებზე, რომლებიც მიიღება მათ მიერ გამოყენებული ალგორითმებით, მაშინაც კი, თუ შეუძლებელია დეტალურად ახსნას, თუ როგორ გამოიღო ეს ალგორითმები მათი შედეგები. ასეთი ორგანოები პასუხისმგებელნი უნდა იყვნენ მთელ სისტემებზე, რომლებიც განლაგებულია მათ კონკრეტულ კონტექსტში და არა მხოლოდ ცალკეულ ნაწილებზე, რომლებიც ქმნიან მოცემულ სისტემას. როდესაც გამოვლენილია პრობლემები ავტომატიზებულ სისტემებში, ორგანიზაციებმა, რომლებიც პასუხისმგებელნი არიან ამ სისტემების დანერგვაზე, უნდა დააფიქსირონ კონკრეტული ქმედებები, რომლებსაც ისინი მიიღებენ პრობლემის მოსაგვარებლად და რა ვითარებაში უნდა შეჩერდეს ან შეწყდეს ასეთი ტექნოლოგიების გამოყენება.

9. "გარემოზე ზემოქმედების შეზღუდვა: ალგორითმული სისტემები უნდა იყოს დაპროექტებული, რათა მოხდეს გარემოზე ზემოქმედების შეფასების მოხსენება, მათ შორის ნახშირბადის ემისიები, როგორც სასწავლო, ასევე საოპერაციო გამოთვლებიდან. ხელოვნური ინტელექტის სისტემები ისე უნდა იყოს შემუშავებული, რომ მათი ნახშირბადის ემისიები იყოს გონივრული, იმის გათვალისწინებით, რომ სიზუსტე მოითხოვს იმ კონტექსტს, რომელშიც ისინი განლაგებულია.

მე მჯერა, რომ თქვენ მიაწვდით AI-ის ეთიკის თითოეულ ამ მნიშვნელოვან პრინციპს ფრთხილად და ადრეულ წაკითხვას. გთხოვთ, გულთან მიიტანოთ ისინი.

დასკვნა

არსებობს ACM-ის განცხადების დახვეწილი, მაგრამ თანაბრად გადამწყვეტი ნაწილი, რომელიც, მე მჯერა, რომ ბევრმა შეიძლება უნებლიედ შეუმჩნეველი იყოს. ნება მომეცით ეს თქვენს ყურადღებას გავამახვილო.

მე ვგულისხმობ ნაწილს, რომელიც განიხილავს ატანჯულ თავსატეხს იმის თაობაზე, რომ აწონ-დაწონი უნდა იყოს AI ეთიკის პრინციპებთან დაკავშირებული კომბინაციები. ხედავთ, ადამიანების უმეტესობა ხშირად უგუნურ ქნევას აკეთებს ეთიკური ხელოვნური ინტელექტის პრინციპების კითხვისას და ვარაუდობს, რომ ყველა დებულება წონაში თანაბარია და ყველა მცნებას ყოველთვის ექნება პატივისცემისა და ღირებულების ერთნაირი ოპტიმალური სახე.

არა რეალურ სამყაროში.

როდესაც რეზინი ხვდება გზას, ნებისმიერი სახის ხელოვნური ინტელექტი, რომელსაც აქვს თუნდაც მცირე სირთულის უნარი, სასტიკად გამოსცდის ხელოვნური ინტელექტის ეთიკის პრინციპებს, რომ ზოგიერთი ელემენტი საკმარისად ხელმისაწვდომია ზოგიერთ სხვა პრინციპთან შედარებით. მე მესმის, რომ თქვენ შეიძლება ხმამაღლა იძახოდეთ, რომ ყველა ხელოვნური ინტელექტი მაქსიმალურად უნდა იქნას გამოყენებული ხელოვნური ინტელექტის ეთიკის ყველა პრინციპით, მაგრამ ეს განსაკუთრებით რეალისტური არ არის. თუ ეს ის პოზიციაა, რომლის დაკავებაც გსურთ, მე გაბედავს ვთქვა, რომ თქვენ ალბათ მოგიწევთ უთხარით AI-ს შემქმნელებსა და მომხმარებლებს უმეტესობას ან თითქმის ყველა, დახურონ მაღაზია და საერთოდ გააუქმონ AI.

კომპრომისები უნდა გაკეთდეს იმისათვის, რომ ხელოვნური ინტელექტი კარიდან გამოვიდეს. როგორც ითქვა, მე არ ვარ მომხრე ისეთ კუთხით, რომელიც არღვევს ხელოვნური ინტელექტის ეთიკის პრინციპებს და არც იმას ვგულისხმობ, რომ მათ უნდა დაარღვიონ ხელოვნური ინტელექტის კანონები. უნდა დაკმაყოფილდეს კონკრეტული მინიმუმი და რომლის ზემოთაც მიზანია მეტის სწრაფვა. საბოლოო ჯამში, ბალანსი გულდასმით უნდა შეფასდეს. ეს დამაბალანსებელი აქტი უნდა განხორციელდეს გააზრებულად, აშკარად, კანონიერად და ხელოვნური ინტელექტის ეთიკის, როგორც კეთილსინდისიერი და გულწრფელი რწმენის გათვალისწინებით (შეიძლება გინდოდეთ ნახოთ, თუ როგორ იყენებენ კომპანიები AI ეთიკის საბჭოებს ამ საზეიმო მიდგომის მოსაპოვებლად, იხ. ბმული აქ).

აქ მოცემულია რამდენიმე პუნქტი, რომელსაც ACM-ის დეკლარაცია აღნიშნავს კომპრომისების სირთულეების შესახებ (ციტირებულია ოფიციალური დოკუმენტიდან):

  • „გადაწყვეტილებები უნდა იყოს პროპორციული პრობლემის გადასაჭრელად, მაშინაც კი, თუ ეს გავლენას მოახდენს სირთულეზე ან ღირებულებაზე (მაგ., მარტივი პროგნოზირების ამოცანისთვის საჯარო ვიდეოთვალთვალის გამოყენების უარყოფა).
  • „შესაძლოა გასათვალისწინებელი იყოს შესრულების მეტრიკის ფართო სპექტრი და შეიძლება განსხვავებულად შეფასდეს განაცხადის დომენიდან გამომდინარე. მაგალითად, ზოგიერთ ჯანდაცვის პროგრამაში ცრუ ნეგატივის ეფექტი შეიძლება იყოს ბევრად უარესი, ვიდრე ცრუ დადებითი, ხოლო სისხლის სამართლის მართლმსაჯულებაში ცრუ პოზიტივის შედეგები (მაგ., უდანაშაულო ადამიანის დაპატიმრება) შეიძლება იყოს ბევრად უარესი, ვიდრე ცრუ უარყოფითი. ყველაზე სასურველი ოპერაციული სისტემის დაყენება იშვიათად არის მაქსიმალური სიზუსტით.
  • „კონფიდენციალურობის, სავაჭრო საიდუმლოების დაცვაზე ან ანალიტიკის გამოვლენამ, რომელიც შესაძლოა მავნე აქტორებს სისტემაში თამაშის საშუალებას მისცემს, შეიძლება გაამართლოს კვალიფიციურ პირებზე წვდომის შეზღუდვა, მაგრამ ისინი არ უნდა იქნას გამოყენებული მესამე მხარის შეზღუდვის ან დეველოპერების ვალდებულების გასამართლებლად. შეცდომების აღიარება და გამოსწორება“.
  • „გამჭვირვალობა უნდა იყოს შერწყმული ანგარიშვალდებულების პროცესებთან, რომლებიც ალგორითმული სისტემის ზემოქმედების ქვეშ მყოფ დაინტერესებულ მხარეებს საშუალებას მისცემს, მოიძიონ მნიშვნელოვანი ანაზღაურება მიყენებული ზიანისთვის. გამჭვირვალობა არ უნდა იქნას გამოყენებული სისტემის ლეგიტიმაციისთვის ან სხვა მხარეებისთვის პასუხისმგებლობის გადასაცემად“.
  • „როდესაც სისტემის გავლენა მაღალია, უფრო ახსნადი სისტემა შეიძლება იყოს სასურველი. ხშირ შემთხვევაში, ახსნა-განმარტებასა და სიზუსტეს შორის კომპრომისი არ არსებობს. თუმცა, ზოგიერთ კონტექსტში, არასწორი ახსნა შეიძლება იყოს უარესი, ვიდრე ახსნა (მაგ., ჯანდაცვის სისტემებში, სიმპტომი შეიძლება შეესაბამებოდეს ბევრ შესაძლო დაავადებას და არა მხოლოდ ერთს).

ისინი, ვინც ავითარებენ ან იყენებენ ხელოვნურ ინტელექტს, შესაძლოა აშკარად ვერ გააცნობიერონ, თუ რა შეცდომებს აწყდებიან. ფირმის ტოპ ლიდერებმა შეიძლება გულუბრყვილოდ იფიქრონ, რომ AI აკმაყოფილებს ყველა AI ეთიკის პრინციპის მაქსიმუმებს. მათ ან სჯერათ ამის, რადგან არ იციან ხელოვნური ინტელექტის შესახებ, ან სურთ ამის დაჯერება და, შესაძლოა, თვალის დახუჭვას აკეთებენ, რათა ადვილად მიიღონ AI.

შანსები არის ის, რომ თუ არსებითად და ღიად ვერ დაუპირისპირდება ვაჭრობას, დამთავრდება ხელოვნური ინტელექტი, რომელიც ზიანს აყენებს. ეს ზიანი, თავის მხრივ, სავარაუდოდ გახსნის ფირმას პოტენციურად ფართომასშტაბიანი ვალდებულებების წინაშე. გარდა ამისა, ჩვეულებრივი კანონები შეიძლება დადგეს AI-თან დაკავშირებული შესაძლო დანაშაულებრივი ქმედებებისთვის, ისევე როგორც AI-ზე ორიენტირებული უახლესი კანონები, რომლებიც ასევე ეხება ამას. ტონა აგური ელოდება მათ თავებზე, ვინც ფიქრობს, რომ მათ შეუძლიათ გაუმკლავდნენ კომპრომისებს, ან რომლებმაც ღრმად არ იციან, რომ კომპრომისები არსებობს (გამანადგურებელი რეალიზაცია აუცილებლად დაეცემა მათ თავზე).

ბოლო სიტყვას ახლა ამ თემაზე ვიტყვი ACM-ის განცხადების დასკვნით ასპექტზე, რადგან ვფიქრობ, რომ ეს მძლავრი სამუშაოა იმის ახსნაში, თუ რას მიზნად ისახავს ეს ეთიკური ხელოვნური ინტელექტის პრინციპები მაკროსკოპულად:

  • „ზემოაღნიშნული რეკომენდაციები ფოკუსირებულია ალგორითმული სისტემების პასუხისმგებლიან დიზაინზე, განვითარებასა და გამოყენებაზე; პასუხისმგებლობა უნდა განისაზღვროს კანონით და საჯარო პოლიტიკით. ალგორითმული სისტემების მზარდი ძალა და მათი გამოყენება სიცოცხლისთვის კრიტიკულ და თანმიმდევრულ პროგრამებში ნიშნავს, რომ დიდი სიფრთხილეა საჭირო მათ გამოყენებაში. ეს ცხრა ინსტრუმენტული პრინციპი მიზნად ისახავს იყოს ინსპირაციული დისკუსიების დაწყების, კვლევის დაწყების და მართვის მეთოდების შემუშავების მიზნით, რათა სარგებელი მოუტანოს მომხმარებელთა ფართო სპექტრს, ხოლო ხელი შეუწყოს საიმედოობას, უსაფრთხოებას და პასუხისმგებლობას. საბოლოო ჯამში, ეს არის კონკრეტული კონტექსტი, რომელიც განსაზღვრავს ალგორითმული სისტემის სწორ დიზაინს და გამოყენებას ყველა ზემოქმედების ქვეშ მყოფი დაინტერესებული მხარის წარმომადგენლებთან თანამშრომლობით“ (ციტირებულია ოფიციალური დოკუმენტიდან).

როგორც სიბრძნის სიტყვები ჭკვიანურად გვეუბნება, ათასი მილის მოგზაურობა იწყება პირველი ნაბიჯით.

გთხოვთ, გაეცნოთ ხელოვნური ინტელექტის ეთიკას და ხელოვნური ინტელექტის კანონს, გადადგათ ნებისმიერი პირველი ნაბიჯი, რომელიც დაგეხმარებათ წინსვლაში, შემდეგ კი დაგეხმაროთ ამ სასიცოცხლო მცდელობების წინსვლაში. მშვენიერი ის არის, რომ ჩვენ ჯერ კიდევ ჩვილებში ვართ იმის გარკვევაში, თუ როგორ უნდა მართოთ და გავუმკლავდეთ AI-ს, ამდენად, თქვენ მოხვდებით პირველ სართულზე და თქვენს ძალისხმევას შეუძლია აჩვენოს თქვენი მომავალი და მომავალი ჩვენთვის.

AI მოგზაურობა ახლახან დაიწყო და სასიცოცხლო პირველი ნაბიჯები ჯერ კიდევ მიმდინარეობს.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- პროფესია-ასოციაცია-ასმ/