ხელოვნური ინტელექტის ეთიკა მიესალმება ხელოვნური ინტელექტის რისკების მართვის სტანდარტიზებული ჩარჩოს პერსპექტივას, რომელსაც შეუძლია ასევე გააძლიეროს ავტონომიური თვითმართვადი მანქანის ძალისხმევა.

როგორც ჩანს, არაერთხელ გვეუბნებიან, რომ რისკზე წასვლა მნიშვნელოვანია ცხოვრებაში.

თუ გადახედავთ ციტირებადი ციტატების ნებისმიერ ყოველდღიურ ჩამონათვალს, არსებობს ცხოვრებისეული ჰაკების ჭარბი რაოდენობა, რომლებიც გეუბნებიან, რომ გაითვალისწინოთ რისკი. გამოიყენე შანსი და აწიე კიდურზე. გადადეთ თქვენი შემაკავებელი საზრუნავი და იფრინეთ თავისუფლად რისკის გაოცებით. რისკი შენი მეგობარია. რისკი აიძულებს სამყაროს ირგვლივ. მარტივად რომ ვთქვათ, არანაირი რისკი, არანაირი მოგება.

მიუხედავად იმისა, რომ ეს მბზინავი წახალისება იმის შესახებ, რომ იყო რისკის მიმღები, გონივრული ჩანს, რატომღაც საპირწონე და დამამშვიდებელი აზრები რისკის უარყოფითი მხარეების შესახებ უთქმელად რჩება. რისკმა შეიძლება საფრთხეში ჩაგდოთ. სარისკო ქმედებებმა შეიძლება გამოიწვიოს სერიოზული ზიანი. მარტივად რომ ვთქვათ, რისკი არ არის რისკის გარეშე.

გენერალი ჯორჯ პატონი ამტკიცებდა, რომ ჩვენ ყოველთვის უნდა ვიყოთ რისკზე მოაზროვნე საკმარისად მიღების გზით გათვლილი რისკები, რომლებიც მან დაახასიათა, როგორც სრულიად განსხვავებული გამონაყარისგან. ამრიგად, წინასწარ იფიქრეთ იმ რისკებზე, რომელთა აღებაც გსურთ. იცოდეთ ცნობილი რისკები და უცნობი რისკების პოტენციალი. ადამიანმა უნდა იცოდეს მათი შეზღუდვები, როდესაც საქმე ეხება რისკს და რისკების აღებას.

მე ვახსენებ „რისკის“ ბუნებას და ფარგლებს, როგორც ანალიტიკურად აღსაწერი ფენომენის ტიპს, რათა ხაზგასმით აღვნიშნო, რომ როდესაც საქმე AI-ს ეხება, მზარდი საჭიროებაა იმის დადგენა, თუ რამდენად სარისკოა ხელოვნური ინტელექტის გაფართოებული გამოყენება. AI არ არის რისკებისგან თავისუფალი. პირიქით, ხელოვნური ინტელექტი წარმოგიდგენთ ბევრ მნიშვნელოვან და საშინლად მასიურ რისკს, რომელიც მოითხოვს ჩვენგან ღრმად ამოვისუნთქოთ და დავიწყოთ სერიოზულად გამოთვლა რა არის ეს რისკები. ჩვენ უნდა გვქონდეს ფართოდ გახელილი თვალები და ვიცოდეთ ხელოვნური ინტელექტის რისკების შესახებ, როცა თავდავიწყებით ჩავდივართ AI-ს სწრაფვაში.

გთხოვთ გაითვალისწინოთ, რომ დღევანდელი ყველა დაინტერესებული მხარე აწყდება AI რისკებს.

მაგალითად, ფირმა, რომელიც აწარმოებს AI სისტემას, იღებს რისკს, რომ AI საბოლოოდ შეიძლება გამოიწვიოს რაიმე სახის არსებითი ზიანი მათთვის, ვინც იყენებს AI სისტემას. ზიანი შეიძლება იყოს ფინანსური, ფსიქოლოგიური ან შესაძლოა ფიზიკური ზიანი, რამაც შეიძლება დააზიანოს ან მოკლას ვინმე. ფირმის აღმასრულებლები, სავარაუდოდ, კანონიერად აგებენ პასუხს ხელოვნური ინტელექტის შემუშავებისა და გამოშვებისთვის. ხელოვნური ინტელექტის შემქმნელები, რომლებმაც შექმნეს AI, პასუხისმგებელნი იქნებიან. არსებობს უამრავი ხელი, რომელიც აწარმოებს და ავრცელებს ხელოვნურ ინტელექტს და ყველა მათგანი შეიძლება ჩაითვალოს ერთობლივად პასუხისმგებელნი და დამნაშავედ იმისთვის, რაც მათ დაუშვეს, რომ მომხდარიყო.

იფიქრეთ ხელოვნური ინტელექტის რისკზე, როგორც ისეთ რამეზე, რომელიც ცურავს და მიმაგრებულია ყველაფერზე, რომელსაც აქვს შეხების წერტილი დაკავშირებული AI-სთან. AI სისტემის მომხმარებლები გარკვეულ რისკს იღებენ. მათ შესაძლოა დააზიანონ ხელოვნური ინტელექტი. ისინი, ვინც შეიმუშავეს AI, იღებენ გარკვეულ რისკს, რომელიც დაკავშირებულია იმ მავნე შედეგებთან, რაც მათმა AI შეიძლება გამოიწვიოს. რისკი გავრცელებულია ხელოვნური ინტელექტის სფეროში და თუმცა ხშირად სრულიად უგულებელყოფილი და, ზოგადად, საშინლად შეფასებული ჩანს.

ცუდი ამბავი ის არის, რომ არ არის საკმარისი ყურადღება AI რისკებზე.

კარგი ამბავი ის არის, რომ AI რისკის გაგებისა და გაზომვის სიცოცხლისუნარიანობის მზარდი შეფასება იძენს სიჩქარეს. როგორც ამ ცნობიერების ჯანსაღი ნიშანი, ჩვენ შეგვიძლია შევხედოთ ფორმულირებას AI რისკის მართვის ჩარჩო (RMF) რომელსაც სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) ახორციელებს. აქვე მოვიყვან 17 წლის 2022 მარტს დათარიღებულ დოკუმენტის პროექტს. მიმდინარეობს სხვადასხვა შეხვედრები დოკუმენტის შემდგომი დახვეწისა და გაფართოების მიზნით. ნახევრად დასრულებული ვერსია, რომელიც ცნობილია როგორც AI RMF 1.0, გამიზნულია 2023 წლის იანვარში.

სანამ AI RMF-ის არსებულ პროექტს გადავიდოდე, მინდა ხაზგასმით აღვნიშნო, რომ ვინც ჭეშმარიტად დაინტერესებულია AI ეთიკით, განსაკუთრებით უნდა ადევნოს თვალყური, რისგან შედგება AI RMF. გარდა იმისა, რომ დარჩებით პროექტზე, თქვენ ასევე შეგიძლიათ ჩაერთოთ პროექტების შემუშავებაში და დახმარებას AI რისკის მართვის ჩარჩოს ფორმულირებაში (გაითვალისწინეთ, რომ NIST ახორციელებს საჯარო სემინარებს, რომლებიც მიესალმებიან ასეთ შეყვანას). თქვენ ნამდვილად შეგიძლიათ დაეხმაროთ ისტორიის შედგენას.

მოდით მოკლედ გამოვიკვლიოთ მნიშვნელოვანი შეჯამება, რომელიც არსებობს ხელოვნური ინტელექტის ეთიკასა და ხელოვნური ინტელექტის რისკებს შორის. ხელოვნური ინტელექტის რისკები განუყოფელია ეთიკური ხელოვნური ინტელექტის გამოყენებისთვის. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, მხოლოდ რამდენიმეს დასახელებისთვის. თქვენ შეგიძლიათ მარტივად თქვათ, რომ ხელოვნური ინტელექტის რისკი ჩაეფლო AI ეთიკის ყველა პრინციპსა თუ პრინციპში. მოსახერხებელი გონებრივი მოდელი იქნება ისეთი ცხრილების წარმოდგენა, რომლითაც ხელოვნური ინტელექტის ეთიკის პრინციპები, როგორც ჰორიზონტალური ელემენტები (სვეტები) და ხელოვნური ინტელექტის რისკი არის ვერტიკალური კომპონენტი (სტრიქონები), რომელიც ჩასმულია ჰორიზონტალურად და მთელს ჰორიზონტალურად.

ხელოვნური ინტელექტის რისკებზე საუბრისას ჩნდება სხვადასხვა ნიუანსი იმის შესახებ, თუ რა სახის ხელოვნურ ინტელექტს გულისხმობს. მიუხედავად იმისა, რომ აჟიტირებული სათაურები ხელოვნური ხელოვნური ინტელექტის გამოცხადებული ადამიანის მსგავსი საოცრებების შესახებ, დღეს არ არსებობს არც ერთი AI, რომელიც მგრძნობიარე იყოს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა სენტიმენტალურ AI-ს და არც გონიერი ხელოვნური ინტელექტი როგორმე სასწაულებრივად სპონტანურად წარმოიქმნება გამოთვლითი შემეცნებითი სუპერნოვას სახით (ჩვეულებრივ უწოდებენ სინგულარობას, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე აქცენტს ვაკეთებ აქ, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს.

თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

მოდით მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები, რომლებიც ადრე განვიხილეთ ჩემს სვეტებში, რათა ავღნიშნოთ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის და ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს. შემდეგ ჩვენ ჩავუღრმავდებით AI რისკების თემას.

როგორც ვატიკანმა განაცხადა რომის მოწოდება AI ეთიკისკენ და როგორც მე გავაშუქე ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი.
  • ჩართვა: მხედველობაში უნდა იქნას მიღებული ყველა ადამიანის მოთხოვნილება, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა.
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას.
  • საიმედოობა: AI სისტემებს უნდა შეეძლოს საიმედოდ მუშაობა.
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე გავაშუქე ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესების და ოპერაციული მეთოდების სათანადო გაგებას, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიებით, მონაცემთა წყაროებით, დიზაინის პროცედურებისა და დოკუმენტაციის ჩათვლით.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდია, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

ადრე აღვნიშნე, რომ AI რისკი არის საკითხი, რომელიც კვეთს AI ეთიკის ყველა პრინციპს. ამ მსგავსების სრულად გამოვლენის მიზნით, განიხილეთ ხელოვნური ინტელექტის ეთიკის ძირითადი პრინციპების ხელახალი ფორმულირება, რათა გაირკვეს AI რისკის საკითხი:

  • გამჭვირვალობა და მასთან დაკავშირებული AI რისკები
  • სამართლიანობა და სამართლიანობა და დაკავშირებული AI რისკები
  • არა-დაზიანება და მასთან დაკავშირებული AI რისკები
  • პასუხისმგებლობა და დაკავშირებული AI რისკები
  • კონფიდენციალურობა და მასთან დაკავშირებული AI რისკები
  • სარგებელი და მასთან დაკავშირებული AI რისკები
  • თავისუფლება და ავტონომია და დაკავშირებული AI რისკები
  • ნდობა და მასთან დაკავშირებული AI რისკები
  • მდგრადობა და დაკავშირებული AI რისკები
  • ღირსება და მასთან დაკავშირებული AI რისკები
  • სოლიდარობა და მასთან დაკავშირებული AI რისკები

სანამ ამას გავხსნით, მოდით განვიხილოთ რას ნიშნავს სიტყვა „რისკი“.

ამას იმიტომ ვამბობ, რომ რისკს, როგორც ჩამჭრელ სიტყვას, განსხვავებული მნიშვნელობა აქვს იმისდა მიხედვით, თუ ვისთან საუბრობთ. ამ ასპექტის შესწავლისას, მე ასევე მოვიყვან კიდევ ერთ NIST დოკუმენტს, რომლის შესწავლაც უნდა განიხილოთ, თუ აპირებთ AI RMF-ში მოხვედრას, კერძოდ, რომ არსებობს NIST რისკის მართვის საერთო ჩარჩო (RMF), რომელიც მოიცავს ინფორმაციული ტექნოლოგიების სისტემებსა და რისკებს. მენეჯმენტი, რომელიც გარკვეული პერიოდის განმავლობაში მუშაობდა. AI RMF არსებითად არის უფრო ფართო RMF-ის ინსტანცია (შეიძლება გულდასმით თქვათ, რომ AI RMF არის ყველა თქმული RMF-ის ვაჟი ან ქალიშვილი).

მთლიანი NIST RMF-ის მიხედვით, აქ არის რისკის განმარტება: „რისკი არის საზომი იმისა, თუ რამდენად ემუქრება ერთეულს პოტენციური გარემოება ან მოვლენა. რისკი ასევე არის არასასურველი ზემოქმედების ფუნქცია, რომელიც წარმოიქმნება გარემოების ან მოვლენის დადგომისას და მომხდარის ალბათობის. რისკის სახეები მოიცავს პროგრამის რისკს; შესაბამისობა/მარეგულირებელი რისკი; ფინანსური რისკი; სამართლებრივი რისკი; მისია/ბიზნესის რისკი; პოლიტიკური რისკი; უსაფრთხოებისა და კონფიდენციალურობის რისკი (მათ შორის, მიწოდების ჯაჭვის რისკი); პროექტის რისკი; რეპუტაციის რისკი; უსაფრთხოების რისკი; სტრატეგიული დაგეგმვის რისკი“.

NIST AI RMF პროექტი განსაზღვრავს რისკს ასე: „რისკი არის საზომი იმისა, თუ რამდენად უარყოფით გავლენას ახდენს ერთეულზე პოტენციური გარემოება ან მოვლენა. როგორც წესი, რისკი არის 1) გვერდითი ზემოქმედების ფუნქცია, რომელიც შეიძლება წარმოიშვას გარემოების ან მოვლენის დადგომის შემთხვევაში; და 2) დადგომის ალბათობა. ერთეულები შეიძლება იყვნენ ინდივიდები, ჯგუფები ან თემები, ისევე როგორც სისტემები, პროცესები ან ორგანიზაციები“.

უფრო ღრმად იჭრება და შესაძლოა წყლების დაბინძურება სტენფორდის ენციკლოპედია ფილოსოფია თავისუფლად აღნიშნავს, რომ რისკი ხშირად ხუთი განსხვავებული კონოტაციით არის გამოხატული:

1) რისკი არის არასასურველი მოვლენა, რომელიც შეიძლება მოხდეს ან არ მოხდეს

2) რისკი არის გამოიწვევს არასასურველი მოვლენის შესახებ, რომელიც შეიძლება მოხდეს ან არ მოხდეს

3) რისკი არის ალბათობა არასასურველი მოვლენის შესახებ, რომელიც შეიძლება მოხდეს ან არ მოხდეს

4) რისკი არის სტატისტიკური მოლოდინის ღირებულება არასასურველი მოვლენის შესახებ, რომელიც შეიძლება მოხდეს ან არ მოხდეს

5) რისკი არის ის ფაქტი, რომ გადაწყვეტილება მიიღება ცნობილი ალბათობის პირობებში

ახლა, მოდით კოლეგიურად შევთანხმდეთ, რომ ამ დისკუსიის ფარგლებში ვაპირებთ განზოგადებულად განვიხილოთ ცნება იმის შესახებ, თუ რა არის რისკი, ზემოხსენებული NIST RMF და NIST AI RMF განმარტებების მიხედვით და არ გავჩერდეთ რთულ ვარიაციებზე. მე მჯერა, რომ თქვენ კომფორტულად გრძნობთ ჩემს ზემოთ ჩამოთვლილ საფუძველს, რომ ამ დროისთვის განვსაზღვრეთ ხელოვნური ინტელექტის კონტექსტური მნიშვნელობა და რისკის მნიშვნელობა.

ხელოვნური ინტელექტის რისკების მართვის ჩარჩო არის ხელოვნური ინტელექტის რისკების აღმოსაფხვრელად და იმედია ამ რისკების მართვასთან ერთად.

AI RMF-ის თანახმად, აქ არის AI რისკის მართვის ჩარჩოს ფორმალური მიზანი ან მისწრაფება: „AI რისკის მართვის ჩარჩოს (AI RMF, ან Framework) შეუძლია გადაჭრას AI სისტემებისთვის უნიკალური გამოწვევები. ეს AI RMF არის საწყისი მცდელობა აღწეროს, თუ როგორ განსხვავდება AI-ზე დაფუძნებული სისტემების რისკები სხვა დომენებისგან და წაახალისოს და აღჭუროს AI-ში მრავალი განსხვავებული დაინტერესებული მხარე ამ რისკების მიზანმიმართულად გადასაჭრელად. ეს ნებაყოფლობითი ჩარჩო უზრუნველყოფს მოქნილ, სტრუქტურირებულ და გაზომვად პროცესს ხელოვნური ინტელექტის რისკების გადასაჭრელად მთელი AI სასიცოცხლო ციკლის განმავლობაში, სთავაზობს მითითებებს სანდო და პასუხისმგებელი AI-ს შემუშავებისა და გამოყენებისთვის.

NIST ასევე აცნობიერებს, რომ AI RMF, როგორც შემოთავაზებული სტანდარტი, უნდა იყოს ადვილად გამოსაყენებელი, უნდა განახლდეს ტექნოლოგიის წინსვლისას და განასახიეროს სხვა ძირითადი კრიტერიუმები: „რისკების მართვის ჩარჩო უნდა უზრუნველყოფდეს სტრუქტურირებულ, მაგრამ მოქნილ მიდგომას საწარმოსა და სოციალური რისკების მართვისთვის. AI სისტემების პროდუქტებში, პროცესებში, ორგანიზაციებში, სისტემებსა და საზოგადოებებში ინკორპორაციის შედეგად. ორგანიზაციები, რომლებიც მართავენ საწარმოს ხელოვნური ხელოვნური ინტელექტის რისკს, ასევე უნდა გაითვალისწინონ უფრო დიდი სოციალური AI მოსაზრებები და რისკები. თუ რისკების მართვის ჩარჩო დაგეხმარებათ AI რისკისა და უარყოფითი ზემოქმედების ეფექტურად განხილვაში და მართვაში, ამან შეიძლება გამოიწვიოს უფრო სანდო AI სისტემები.

ზოგიერთ თქვენგანს, რომელიც ცოტათი სკეპტიკურად არის განწყობილი, შეიძლება კითხულობდეს, რატომ გვჭირდება AI RMF მხოლოდ განზოგადებულ RMF-ზე დაყრდნობის წინააღმდეგ, რომელიც უკვე ხელმისაწვდომია. ჩვენ უბრალოდ ხელახლა არ ვიგონებთ ბორბალს? პასუხი არის არა, ჩვენ არ ვიგონებთ ბორბალს. ბორბალი მორგებულია კონკრეტულ საჭიროებებზე. გონივრული ადამიანი, სავარაუდოდ, აღიარებს, რომ არსებობს სხვადასხვა ფორმისა და ზომის ბორბლები. თვითმფრინავის ბორბალი უდავოდ საკმაოდ განსხვავდება ბავშვის ტრიციკლის ბორბალისგან. რა თქმა უნდა, ორივე ბორბალია, მაგრამ ისინი განსხვავებულად არის შემუშავებული და, შესაბამისად, განსხვავებული მახასიათებლები აქვთ და სამართლიანადაც შეიძლება მკაფიოდ გამოკვლეული იყოს.

AI RMF დოკუმენტი გამოხატავს მსგავს განწყობას: „რისკები ნებისმიერი პროგრამული უზრუნველყოფის ან ინფორმაციაზე დაფუძნებული სისტემის მიმართ ვრცელდება AI-ზე; ეს მოიცავს კიბერუსაფრთხოებასთან, კონფიდენციალურობას, უსაფრთხოებასა და ინფრასტრუქტურასთან დაკავშირებულ მნიშვნელოვან საკითხებს. ეს ჩარჩო მიზნად ისახავს შეავსოს ხარვეზები, რომლებიც დაკავშირებულია კონკრეტულად AI-სთან. ”

AI RMF პროექტის არსებულ ვერსიაში ისინი განსაზღვრავენ დაინტერესებულ მხარეთა ოთხ ჯგუფს:

  • AI სისტემის დაინტერესებული მხარეები
  • ოპერატორები და შემფასებლები
  • გარე დაინტერესებული მხარეები
  • Ფართო საზოგადოებისათვის

ხელოვნური ინტელექტის რისკზე ყურადღების დიდი ნაწილი, ჩვეულებრივ, მიემართება AI სისტემის დაინტერესებულ მხარეებზე. რომ აზრი აქვს. ესენი არიან დაინტერესებული მხარეები, რომლებიც ჩართულნი არიან ხელოვნური ინტელექტის შემუშავებაში, დიზაინში, მშენებლობაში და განვითარებაში. გარდა ამისა, ჩვენ შეგვიძლია შევიტანოთ ისეთებიც, რომლებიც იძენენ ან ლიცენზირებულნი არიან AI გამოყენებისთვის. ჩვენ მიდრეკილნი ვართ იმ დაინტერესებულ მხარეებად მივიჩნიოთ, როგორც უაღრესად თვალსაჩინო მხარეები, რომლებმაც მძიმე წვლილი შეიტანეს ხელოვნური ინტელექტის სისტემის არსებობაში და ხელი შეუწყეს მის განთავსებას.

თქვენ შეიძლება ერთნაირად არ გიფიქრიათ ან არ მიიჩნიეთ ინსტრუმენტული AI ოპერატორები და შემფასებლები. როგორც AI RMF-შია ნათქვამი, AI ოპერატორები და შემფასებლები აკეთებენ ამას: „ოპერატორები და შემფასებლები უზრუნველყოფენ სისტემის მუშაობის მონიტორინგს და ფორმალურ/არაფორმალურ ტესტს, შეფასებას, ვალიდაციას და გადამოწმებას (TEVV), როგორც ტექნიკურ, ისე სოციალურ-ტექნიკურ მოთხოვნებთან მიმართებაში. ” ისინი გადამწყვეტია AI-სთვის და ასევე AI რისკების ჯგუფში.

გარე დაინტერესებული მხარეები მოიცავს სუბიექტების ფართო სპექტრს, მათ შორის სავაჭრო ჯგუფებს, ადვოკატირების ჯგუფებს, სამოქალაქო საზოგადოების ორგანიზაციებს და სხვა. ფართო საზოგადოება შედგება მომხმარებლებისგან და სხვებისგან, რომლებიც განიცდიან არასასურველ AI-სთან დაკავშირებულ რისკს.

შეიძლება გაინტერესებთ, რამდენად ასატანია რისკი, როდესაც საქმე AI-ს ეხება.

ბოდიშს გიხდით იმის თქმა, რომ არ არსებობს კონკრეტული რიცხვი ან მინიჭებული მნიშვნელობა, რომელიც შეგვიძლია მივცეთ ასატანი ან მისაღები რისკის ოდენობას, რომელიც შეიძლება მივიჩნიოთ ღირებულ ან სოციალურად დასაშვებად. მათთვის, ვისაც სურს სტანდარტიზებული განსაზღვრული რიცხვითი აღნიშვნა, თქვენ უნდა შეამსუბუქოთ ეს სურვილი AI RMF პროექტში ამ მნიშვნელოვანი პუნქტით: „AI RMF არ განსაზღვრავს რისკის ზღვრებს ან მნიშვნელობებს. რისკის შემწყნარებლობა - რისკის დონე ან გაურკვევლობის ხარისხი, რომელიც მისაღებია ორგანიზაციებისთვის ან საზოგადოებისთვის - არის კონტექსტი და გამოყენება კონკრეტული შემთხვევისთვის.”

AI RMF-ის მიერ რეკომენდებული მეთოდოლოგია ხელოვნური ინტელექტის რისკის შესამოწმებლად და მართვისთვის გამოსახულია, როგორც საბაზისო საფეხურებისგან შემდგარი ეტიკეტირებული რუკა, გაზომვა და მართვა. რუქის ფუნქცია აყალიბებს AI სისტემის რისკებს. Measure ფუნქცია მოიცავს AI რისკის თვალყურის დევნებას და ანალიზს. Manage ფუნქცია იყენებს რუკისა და გაზომვის ფუნქციებს, რათა შემდეგ შეეცადოს მინიმუმამდე დაიყვანოს არასასურველი ზემოქმედება ხელოვნური ინტელექტის უპირატესობების გაზრდით. AI RMF-ის პროექტის მიხედვით, სტანდარტის შემდგომი ვერსიები მოიცავს პრაქტიკის სახელმძღვანელოს, როგორც კომპანიონს, რათა აჩვენოს AI RMF-ის გამოყენების მაგალითები და პრაქტიკა.

უფრო ფართო NIST RMF სტანდარტში არის შვიდი ნაბიჯის გაფორმებული ნაკრები, რომელიც ემთხვევა IT და სისტემების რისკის მართვის ყოვლისმომცველ ძალისხმევას. მე მივხვდი, რომ ეს შვიდი ნაბიჯი მოსახერხებელია გასათვალისწინებლად, მათ შორის ხელოვნური ინტელექტის სისტემების შექმნისა და დანერგვისას.

შვიდი ნაბიჯი არის (ციტირება NIST RMF სტანდარტიდან):

1. მოემზადეთ RMF-ის შესასრულებლად ორგანიზაციის და სისტემის დონის პერსპექტივიდან უსაფრთხოებისა და კონფიდენციალურობის რისკის მართვის კონტექსტისა და პრიორიტეტების ჩამოყალიბებით.

2. სისტემის და სისტემის მიერ დამუშავებული, შენახული და გადაცემული ინფორმაციის კატეგორიზაცია დანაკარგის გავლენის ანალიზის საფუძველზე.

3. შეარჩიეთ სისტემის საწყისი კონტროლის ნაკრები და შეცვალეთ კონტროლი საჭიროებისამებრ, რათა შემცირდეს რისკი მისაღებ დონეზე, რისკის შეფასების საფუძველზე.

4. განახორციელეთ კონტროლი და აღწერეთ, როგორ გამოიყენება კონტროლი სისტემაში და მის სამოქმედო გარემოში.

5. შეაფასეთ კონტროლი, რათა დადგინდეს, არის თუ არა კონტროლის დანერგვა სწორად, მოქმედებს თუ არა დანიშნულებისამებრ და იძლევა თუ არა სასურველ შედეგებს უსაფრთხოებისა და კონფიდენციალურობის მოთხოვნების დაკმაყოფილებასთან დაკავშირებით.

6. სისტემის ან საერთო კონტროლის ავტორიზაცია იმის საფუძველზე, რომ მისაღებია რისკი ორგანიზაციული ოპერაციებისა და აქტივებისთვის, პირებისთვის, სხვა ორგანიზაციებისთვის და ქვეყნისთვის.

7. სისტემის და მასთან დაკავშირებული კონტროლის მონიტორინგი მუდმივ საფუძველზე, რათა მოიცავდეს კონტროლის ეფექტურობის შეფასებას, ოპერაციულ სისტემასა და გარემოში ცვლილებების დოკუმენტირებას და რისკის შეფასების ჩატარებას.

ამ მნიშვნელოვანი დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ხელოვნური ინტელექტის რისკების ბუნება. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა ხელოვნური ინტელექტის რისკების შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI რისკები

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა ჩვენ მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკური AI შესაძლებლობები, რაც იწვევს ხელოვნური ინტელექტის რისკების ბუნებას.

როგორც ადამიანი მძღოლი, თქვენ ხართ კარგად მორგებული რისკის კალკულატორი.

ასეა, როცა მანქანას მართავთ, რეალურ დროში გევალებათ გაარკვიოთ ის რისკები, რომ ფეხით მოსიარულე შეიძლება მოულოდნელად გაუშვას ქუჩაში, ან რომ თქვენს წინ მყოფი მანქანა მოულოდნელად დაამუხრუჭოს. აშკარად ბუნდოვანი სიბნელე და ბუნდოვანებაა მართვის სიტუაციებში, რომლებსაც ჩვენ ვხვდებით.

თქვენ ცდილობთ მაქსიმალურად შეაფასოთ რისკები, რომლებიც დაკავშირებულია ავტომობილის მართვის ყოველ მომენტში და თქვენ უნდა აიღოთ თქვენი შეფასების შედეგები. სამწუხაროა, რომ ყოველწლიურად მხოლოდ შეერთებულ შტატებში ხდება დაახლოებით 40,000 2.5 ავტოსაგზაო შემთხვევის მსხვერპლი და დაახლოებით XNUMX მილიონი დაშავებული (იხილეთ ასეთი სტატისტიკის ჩემი კოლექცია აქ. ბმული აქ). ხანდახან ნივთებს საკმაოდ ახლოს ჭრით და ცუდ ვითარებას კბილების კანზე გაურბიხართ. სხვა დროს არასწორად აფასებთ და რაღაცას ეჯახებით ან ვინმეს ეჯახებით.

თქვენ ჩვეულებრივ გონებრივად განაახლებთ რისკის ასპექტებს, რადგან მამოძრავებელი ძალისხმევა მიმდინარეობს. წარმოიდგინეთ უბრალო შემთხვევა, როდესაც რამდენიმე ბავშვი მიზნად ისახავს იაროს. თავდაპირველად, თქვენ შეიძლება შეაფასოთ მათი გასეირნების რისკი და გაგიკვირდეთ, როგორც საკმაოდ მაღალი. მაგრამ შემდეგ შეამჩნევთ, რომ ახლომახლო ზრდასრული უბიძგებს მათ, რომ არ იარონ, და ამით ბავშვების ქუჩაში შეჭრის და გაქცევის რისკი მცირდება. თუმცა გაითვალისწინეთ, რომ რისკი არ დაეცა ნულამდე, რადგან მათ მაინც შეუძლიათ აირჩიონ გზაზე შესვლა.

არსებობს საავტომობილო სფეროში რისკთან დაკავშირებული ცნობილი სტანდარტი, რომელიც ცნობილია როგორც ავტომობილების უსაფრთხოების მთლიანობის დონის (ASIL) რისკის კლასიფიკაციის სქემა, რომელიც დაფუძნებულია ოფიციალურ დოკუმენტზე, რომელიც მოხსენიებულია როგორც ISO 26262. მე გავაშუქე სხვადასხვა AI თვითმართვადი მანქანის მართვა. -ორიენტირებული რისკთან დაკავშირებული მოსაზრებები ზე ბმული აქ ასევე ბმული აქ.

მანქანის მართვისას რისკის დადგენისას, აქ არის განტოლება, რომელიც საშუალებას გაძლევთ გაუმკლავდეთ რისკის ასპექტებს:

  • რისკი = სიმძიმე x (ექსპოზიცია x კონტროლირებადი)

განვიხილოთ ფორმულა და მისი კომპონენტები.

სიმძიმის გათვალისწინება მნიშვნელოვანია მანქანის მართვისას რისკის დადგენისას, რადგან შესაძლოა მიდიხართ აგურის კედელთან, რაც გამოიწვევს თქვენ და თქვენს მგზავრებს დაშავებას ან დაღუპვას (განსაკუთრებით მაღალი სიმძიმის შედეგი) ავტომაგისტრალზე გადაგდებულ გაზიანი სასმელის ქილაზე დარტყმისას. იყოს შედარებით დაბალი სიმძიმით. ფორმალურად ISO სტანდარტის მიხედვით, სიმძიმე არის პოტენციური ზიანის საზომი, რომელიც შეიძლება წარმოიშვას და იყოფა (S0) დაზიანებების გარეშე, (S1) მსუბუქი და ზომიერი დაზიანებები, (S2) მძიმე დაზიანებები, (S3) სიცოცხლისთვის საშიში და ფატალური დაზიანებები .

ექსპოზიცია არის თუ არა ინციდენტის დადგომის შანსები არსებითი და ნაკლებად სავარაუდოა, რომ თქვენ მოხვდეთ ამ საკითხთან (ანუ სახიფათო ხასიათის ოპერაციულ სიტუაციაში ყოფნის მდგომარეობა). ISO სტანდარტის მიხედვით, ექსპოზიცია შეიძლება დაიყოს (E0) უმნიშვნელო, (E1) ძალიან დაბალი, (E2) დაბალი, (E3) საშუალო და (E4) მაღალი.

კონტროლირებადი გულისხმობს მანქანის მანევრირების შესაძლებლობას მოსალოდნელი უბედურების თავიდან ასაცილებლად. ეს შეიძლება მერყეობდეს სიტუაციის მთლიანად თავიდან აცილებიდან ან უბრალოდ მის გვერდის ავლით, ან რომ არ აქვს მნიშვნელობა რას აკეთებთ, არასაკმარისია სამართავი, დამუხრუჭება ან აჩქარება და მომენტის თავიდან აცილება. ISO სტანდარტი მიუთითებს, რომ კონტროლირებადი შეიძლება დაიყოს (C0) ზოგადად კონტროლირებადი, (C1) უბრალოდ კონტროლირებადი, (C2) ნორმალურად კონტროლირებადი და (C3) რთული ან უკონტროლო.

სიმძიმის, ექსპოზიციისა და კონტროლირებადობის სამი ფაქტორის კომბინაციით, შეგიძლიათ მიაღწიოთ რისკის შეფასების მითითებას მართვის მოცემულ სიტუაციაში. სავარაუდოდ, ჩვენ ამას ვაკეთებთ ჩვენს თავში, კოგნიტურად, თუმცა რეალურად როგორ ვაკეთებთ ამას და ვიყენებთ თუ არა ამ სახის აშკარა ლოგიკას, სადავოა, რადგან არავინ იცის, როგორ მუშაობს ჩვენი გონება ამ შესაძლებლობებში.

არ შეგიყვანოთ შეცდომაში ერთი შეხედვით მათემატიკური ფორმულით და გაითვალისწინეთ, რომ მანქანის მართვისას რისკის გამოტანის საკითხი რატომღაც სრულიად გასაგებია. არსებობს უზარმაზარი განსჯა, რომელიც ეხება იმას, თუ როგორ ახარისხებთ თქვენ, როგორც ადამიანი, ექსპოზიციას, სიმძიმეს და კონტროლირებადობას.

მართვის რისკის ეს წარმოშობა რთულია ადამიანებისთვის. ასევე არაჩვეულებრივად რთულია ხელოვნური ინტელექტის შექმნის მცდელობა. აღსანიშნავია, რომ ხელოვნური ინტელექტის მართვის სისტემის ძირითადი შესაძლებლობა გულისხმობს ალგორითმზე დაფუძნებული გადაწყვეტილებების (ADM) მიღებას მართვის რისკებთან დაკავშირებით. შეიძლება გაგიკვირდეთ, რომ იცოდეთ, რომ ბევრი ხელოვნური ინტელექტის მართვის სისტემა დღეს არ ახორციელებს მართვის რისკის გაანგარიშებას და შეფასებას. ზოგადად, ძალიან უხეში და უაღრესად გამარტივებული მიდგომები გამოიყენება. გაიზრდება თუ არა ეს თვითმართვადი მანქანების ფართო გამოყენებამდე, ღია კითხვაა. მეტი ამ დილემის შესახებ, რომელიც დაკავშირებულია ცნობილ სააზროვნო ექსპერიმენტთან, რომელიც ცნობილია როგორც ტროლეის პრობლემა, იხილეთ ჩემი ანალიზი აქ ეს ბმული აქ.

კიდევ ერთი შეშფოთება არის ის, რომ ხელოვნური ინტელექტის მართვის სისტემები ხშირად ბიზანტიურად არის დაპროგრამებული და ის ნაწილები, რომლებიც ეხება მართვის რისკის ასპექტებს, ღრმად არის ჩაფლული კოდის ბუნდოვანში. მცირე გამჭვირვალობაა იმის შესახებ, თუ როგორ აირჩია კონკრეტული ავტომწარმოებელი ან თვითმართვადი ტექნიკური ფირმა, დაეპროგრამებინა მათი AI სისტემის მამოძრავებელი რისკის შესაძლებლობები. არსებობს იმის ალბათობა, რომ ჩვენ ვიხილავთ მარეგულირებელ და საზოგადოებრივ შემოწმებას, როდესაც თვითმართვადი მანქანები უფრო გავრცელდება.

შეგახსენებთ, რომ ხელოვნური ინტელექტის რისკის მართვის ჩარჩომ განსაზღვრა დაინტერესებული მხარეების ოთხი ჯგუფი, რომლებისთვისაც შესაძლებელია თვითმართვადი მანქანების ნახვა:

  • AI სისტემის დაინტერესებული მხარეები - ავტომწარმოებლები და თვითმართვადი ტექნიკური ფირმები
  • ოპერატორები და შემფასებლები - ფლოტის ოპერატორები
  • გარე დაინტერესებული მხარეები – ქალაქის ლიდერები, მარეგულირებლები და ა.შ.
  • Ფართო საზოგადოებისათვის – ფეხით მოსიარულეები, ველოსიპედისტები და ა.შ.

ავტომწარმოებლებმა და თვითმართვადი ტექნიკური ფირმებმა უნდა შეისწავლონ ის რისკები, რომლებიც დაკავშირებულია AI-სთან, რომელსაც ისინი ავითარებენ და ახორციელებენ თვითმართველ მანქანებში. ხელოვნური ინტელექტის განვითარების რისკის საფუძველი იქნება ხელოვნური ინტელექტის მართვის სისტემის ელემენტები, თუმცა არსებობს ხელოვნური ინტელექტის სხვა გამოყენება ავტონომიურ მანქანებსა და უმართავ მანქანებში.

მოლოდინი არის, რომ იქნებიან ფლოტის ოპერატორები, რომლებიც პასუხისმგებელნი იქნებიან თვითმართვადი მანქანების დიდი ნაკრების მართვაზე საზოგადოებისთვის გამოსაყენებლად. ამ ფლოტის ოპერატორებმა, როგორც წესი, უნდა შეინარჩუნონ ავტონომიური მანქანები სათანადო მართვის ფორმაში და დარწმუნდნენ, რომ თვითმართვადი მანქანები უსაფრთხოა გამოსაყენებლად. მათი ფოკუსირება ძირითადად მიზნად ისახავს აპარატურას და ნაკლებად ეხება ბორტ პროგრამულ უზრუნველყოფას. ნებისმიერ შემთხვევაში, მათ ასევე უნდა განიხილონ AI რისკები, რომლებიც დაკავშირებულია თვითმართველ მანქანებთან და მათ ოპერატიულ გამოყენებასთან.

სადაც არ უნდა იყოს დამტკიცებული თვითმართვადი მანქანები საჯარო მოხმარებისთვის, ალბათობაა, რომ სხვადასხვა ქალაქის, შტატის და ზოგჯერ ფედერალური დონის დამტკიცება და შესაძლოა ზედამხედველობა განხორციელდეს. ასევე არსებობს სხვადასხვა არსებული კანონები და ახლად მიღებული კანონები, რომლებიც არეგულირებს, თუ როგორ შეიძლება თვითმართვადი მანქანების განლაგება საჯარო გზებზე, იხილეთ ჩემი გაშუქება: ბმული აქ. საზოგადოებისთვის მოაზროვნე ამ დაინტერესებულმა მხარეებმა ასევე უნდა გამოიკვლიონ AI რისკები, რომლებიც დაკავშირებულია თვითმართველ მანქანებთან.

სანამ თვითმართვადი მანქანები განთავსდება საჯარო მაგისტრალებზე და გზებზე, ფართო საზოგადოებამ ასევე უნდა იფიქროს ხელოვნური ინტელექტის რისკებზე. ფეხით მოსიარულეებს ემუქრებათ თვითმართვადი მანქანის შეჯახება მათში. იგივე ველოსიპედისტებისთვის. გზის ყველა სხვა მომხმარებელი პოტენციურად დაუცველია ხელოვნური ინტელექტის რისკების მიმართ, რომლებიც დაკავშირებულია ავტონომიური სატრანსპორტო საშუალებების გამოყენებაში ნებისმიერ მოცემულ ლოკალში.

დასკვნა

ჩვენ მეტი ყურადღება უნდა მივაქციოთ AI რისკებს. ხელოვნური ინტელექტის რისკების მართვის სტანდარტიზებული ჩარჩოს არსებობა ხელსაყრელ ინსტრუმენტს წარმოადგენს AI რისკების დასადგენად. ასევე დიდია შანსი იმისა, რომ ხელოვნური ინტელექტის ეთიკის გაიდლაინების გაფართოებული გამოყენება განაპირობებს ხელოვნური ინტელექტის რისკების განსაზღვრის აუცილებლობას.

მე დავიწყე ეს დისკუსია იმით, რომ გენერალმა პატონმა თქვა, რომ ჩვენ აშკარად უნდა გამოვთვალოთ რისკი. მან ასევე ცნობილი მოუწოდა, რომ ადამიანებმა ყოველთვის უნდა გააკეთონ იმაზე მეტი, ვიდრე მათგან მოეთხოვებათ.

გთხოვთ, გაითვალისწინოთ, რომ მაშინაც კი, თუ თქვენ არ გჭირდებათ ხელოვნური ინტელექტის რისკების შემოწმება, თქვენ გულმოდგინედ უნდა გადახვიდეთ ნორმას და შეეცადოთ ამის გაკეთება. მოდით, ყველანი გავუსწოროთ ხელოვნური ინტელექტის რისკებს და დავრწმუნდეთ, რომ არ ავიდეთ არასაიმედო სოციალურ ზონაზე, საიდანაც უსაფრთხოდ ვერ დავბრუნდებით.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could- გააძლიერე-ავტონომიური-თვითმართვა-მანქანა-მცდელობებიც/