ხელოვნური ინტელექტის ეთიკა და ხელოვნური ინტელექტის კანონი, რომელიც განმარტავს, თუ რა არის სინამდვილეში სანდო ხელოვნური ინტელექტი

ნდობა ყველაფერია, ასე ამბობენ.

ცნობილმა ფილოსოფოსმა ლაო ძიმ თქვა, რომ ვისაც საკმარისად არ ენდობა, არ ენდობა. ერნესტ ჰემინგუეი, პატივცემული რომანისტი, თქვა, რომ საუკეთესო გზა იმის გასარკვევად, შეგიძლიათ თუ არა ვინმეს ენდოთ, არის მისი ნდობა.

იმავდროულად, როგორც ჩანს, ნდობა ძვირფასი და მყიფეა. ნდობა, რომელიც ადამიანს აქვს, შეიძლება ჩამოინგრა, როგორც ბანქოს სახლი, ან მოულოდნელად აფეთქდეს, როგორც ამოვარდნილი ბურთი.

ძველი ბერძენი ტრაგიკოსი სოფოკლე ამტკიცებდა, რომ ნდობა კვდება, მაგრამ უნდობლობა ყვავის. ფრანგი ფილოსოფოსი და მათემატიკოსი დეკარტი ამტკიცებდა, რომ გონივრულია არასოდეს ვენდოთ მათ, ვინც ერთხელაც კი მოგვატყუა. მილიარდერი ბიზნეს-ინვესტორი არაჩვეულებრივი უორენ ბაფეტი აფრთხილებდა, რომ სანდო რეპუტაციის ჩამოყალიბებას ოცი წელი სჭირდება და მის გაფუჭებას ხუთი წუთი სჭირდება.

შეიძლება გაგიკვირდეთ, რომ იცოდეთ, რომ ყველა ეს განსხვავებული შეხედულება და ნდობის შესახებ პროვოკაციული მოსაზრება გადამწყვეტია ხელოვნური ინტელექტის (AI) გაჩენისთვის.

დიახ, არის რაღაც მკაცრად მოხსენიებული, როგორც სანდო AI რაც ამ დღეებში დიდ ყურადღებას იპყრობს, მათ შორის AI-ს სფეროდან ხელნაკეთი ზარები და ასევე აურზაური აფეთქებები ხელოვნური ინტელექტის სფეროს გარეთ. საერთო ცნება გულისხმობს, იქნება თუ არა საზოგადოება მზად, ნდობა გამოუცხადოს ხელოვნურ ინტელექტუალურ სისტემებს.

სავარაუდოდ, თუ საზოგადოება არ ენდობა ან ვერ ენდობა ხელოვნურ ინტელექტს, დიდი ალბათობაა, რომ ხელოვნური ინტელექტის სისტემები ვერ მოიპოვებენ ზიდვას. ხელოვნური ინტელექტი, როგორც ჩვენ ვიცით, ის გვერდით გაიწევს და მხოლოდ მტვერს შეაგროვებს. შოკისმომგვრელია, რომ ხელოვნური ინტელექტი შეიძლება აღმოჩნდეს უსარგებლო გროვაში, რომელიც ისტორიულად დაქვეითებული იყო მხოლოდ უიმედოდ გამოცდილი, მაგრამ სანახაობრივად წარუმატებელი მაღალტექნოლოგიური ექსპერიმენტით. ნებისმიერი მცდელობა ხელოვნური ინტელექტის გაძლიერების მიზნით, პოტენციურად უზარმაზარ რთულ ბრძოლას წააწყდება და შეჩერდება ყველანაირი წინააღმდეგობისა და აშკარა პროტესტის გამო. სავარაუდოდ, ხელოვნური ინტელექტისადმი ნდობის ნაკლებობის გამო.

რომელი იქნება, ვენდოთ AI-ს, თუ არ უნდა ვენდოთ AI-ს?

არსებითად, გვექნება თუ არა ნამდვილად სანდო AI?

ეს უწინდელი და გადაუჭრელი კითხვებია. მოდი გავშალოთ.

AI ეთიკა და ბრძოლა სანდო AI-სთვის

AI-ში ბევრის რწმენაა, რომ ხელოვნური ინტელექტის სისტემების დეველოპერებს შეუძლიათ მოიპოვონ ნდობა ხელოვნური ინტელექტის მიმართ, სათანადოდ შემუშავებული AI, რომელიც სანდოა. არსი იმაში მდგომარეობს, რომ თქვენ არ გაქვთ ნდობის მოპოვების იმედი, თუ ხელოვნური ინტელექტი არ არის ერთი შეხედვით სანდო საწყის ეტაპზე. ხელოვნური ინტელექტის სისტემების ისე შემუშავებით, რომელიც აღქმული იქნება სანდო, არსებობს დიდი შანსი იმისა, რომ ადამიანები მიიღებენ AI-ს და აითვისებენ AI-ს გამოყენებას.

ერთი უბედურება, რომელიც უკვე აწუხებს ამ სანდო AI მოსაზრებას, არის ის, რომ ჩვენ შეიძლება უკვე ვიყოთ ა საზოგადოების ნდობის დეფიციტი როდესაც საქმე AI-ს ეხება. შეიძლება ითქვას, რომ ხელოვნურმა ინტელექტუალმა, რომელიც ჩვენ უკვე ვნახეთ, გათხარა ორმო და დიდი რაოდენობით არღვევს ნდობას. ამრიგად, იმის ნაცვლად, რომ დაიწყოს სანდოობის საკმარის ბაზაზე, AI-ს მოუწევს გასაოცრად ასვლა დეფიციტიდან, ყოველი სასურველი უნცია დამატებული ნდობისთვის, რომელიც საჭირო იქნება ხალხის დასარწმუნებლად, რომ AI რეალურად სანდოა.

ამ გამოწვევაში შედის AI ეთიკა და AI სამართალი.

ხელოვნური ინტელექტის ეთიკა და ხელოვნური ინტელექტის სამართალი ძლიერ იბრძვიან იმის გარკვევაში, თუ რა დასჭირდება ხელოვნური ინტელექტის სანდო გახადოს. ზოგიერთი ვარაუდობს, რომ არსებობს ფორმულა ან რკინით დაფარული კანონები, რომლებიც AI-ს სანდო სამოთხეში მიიყვანს. სხვები მიუთითებენ, რომ დასჭირდება შრომისმოყვარეობა და ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ხელოვნური ინტელექტის კანონის პრინციპების თანმიმდევრული და შეუპოვარი დაცვა, რათა მიიღოთ საზოგადოების დიდებული ნდობა.

თანამედროვე იდუმალი ხელოვნური ინტელექტისადმი ნდობის შესახებ თავისთავად ახალი არ არის.

თქვენ შეგიძლიათ მარტივად დაბრუნდეთ 1990-იანი წლების ბოლოს და თვალყური ადევნოთ იმ დროიდან „სანდო გამოთვლების“ სურვილის გაჩენას. ეს იყო ფართომასშტაბიანი ტექნიკური ინდუსტრიის მცდელობა იმის გასარკვევად, შეიძლებოდა თუ არა ყველა კომპიუტერის დამზადება ისე, რომ საზოგადოებისთვის სანდო იყოს.

ძირითადი კითხვები შედგებოდა:

  • შეიძლებოდა თუ არა კომპიუტერული ტექნიკის შექმნა ისეთი, რომ სანდო ყოფილიყო?
  • შეიძლება თუ არა პროგრამული უზრუნველყოფის შექმნა ისე, რომ სანდო იყოს?
  • შეიძლება თუ არა გლობალური ქსელური კომპიუტერების განთავსება, რომლებიც სანდო იქნებოდა?
  • და ასე შემდეგ.

იმ დროს გაბატონებული სენტიმენტი და რომელიც დღემდე გრძელდება არის ის, რომ სანდო გამოთვლები რჩება წმინდა გრაალის ტიპად, რომელიც სამწუხაროდ ჯერ კიდევ არ არის ჩვენს ხელმისაწვდომობაში (როგორც აღნიშნულია ნაშრომში სახელწოდებით "სანდო AI" კომუნიკაციების ACM). თქვენ შეგიძლიათ დამაჯერებლად ამტკიცებდეთ, რომ AI არის გამოთვლითი სანდოობის კონვერტის კიდევ ერთი კომპონენტი, მაგრამ AI ხდის ნდობის ძიებას კიდევ უფრო რთულ და გაურკვეველს. AI გახდა პოტენციური სპოილერი სანდო გამოთვლების მისაღწევად ბრძოლაში. შესაძლოა, ჯაჭვის ყველაზე სუსტი რგოლი, როგორც ეს იყო.

მოდით გადავხედოთ იმას, თუ რატომ გააღვივა ხელოვნურმა ინტელექტუალურმა ჭკუაზე ნაკლები სანდოობა. გარდა ამისა, ჩვენ შევისწავლით ხელოვნური ინტელექტის ეთიკის პრინციპებს, რომლებიც, იმედია, დაგვეხმარება დღევანდელი ხელოვნური ინტელექტის უკვე ნახევრად წყალქვეშა აღქმული ნდობის (ან მზარდი უნდობლობის) გაძლიერებაში. AI ეთიკის ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით ეს დავუკავშიროთ კითხვას სანდო AI-ს შესახებ

ჩვენ, რა თქმა უნდა, არ გვსურს ვენდოთ ხელოვნურ ინტელექტს, რომელიც ავლენს უარყოფით მიკერძოებებს და დისკრიმინაციულ ქმედებებს. ჩვენი რწმენა, ამ შემთხვევაში, იქნება, რომ ასეთი ხელოვნური ინტელექტი აშკარად არ არის სანდო, ამიტომ ჩვენ მივისწრაფვით აქტიური უნდობლობისკენ. ანთროპომორფული შედარების გადაჭარბების გარეშე (დაწვრილებით ვიტყვი ხელოვნური ინტელექტის ანთროპომორფიზაციის შესახებ ერთ მომენტში), ადამიანი, რომელიც ავლენს არასასურველ მიკერძოებას, ასევე დაექვემდებარება შეფასებას, როგორც არ არის განსაკუთრებით სანდო.

იჭრება ნდობა და სანდოობა

შესაძლოა, ჩვენ უნდა გადავხედოთ რას ვგულისხმობთ, როდესაც ვამტკიცებთ, რომ ვაკეთებთ ან არ ვენდობით ვინმეს ან რაღაცას. პირველი, განიხილეთ ნდობის რამდენიმე ყოველდღიური ლექსიკონის განმარტება.

მაგალითები, თუ რას ნიშნავს ნდობა, არის:

  • გარანტირებული დამოკიდებულება ვინმეს ან რაღაცის ხასიათზე, შესაძლებლობებზე, ძალაზე ან სიმართლეზე (Merriam-Webster ონლაინ ლექსიკონი).
  • ადამიანის ან ნივთის მთლიანობაზე, ძალაზე, შესაძლებლობებზე, გარანტიაზე და ა.შ (Dictionary.com)
  • მტკიცე რწმენა ვინმეს ან რაღაცის სანდოობის, ჭეშმარიტების, შესაძლებლობების ან სიძლიერის (ოქსფორდის ენების ონლაინ ლექსიკონი).

მინდა აღვნიშნო, რომ ყველა ეს განმარტება ეხება "ვიღაცას" და ასევე ეხება "რაღაცას", როგორც პოტენციურად სანდოს. ეს საყურადღებოა, რადგან ზოგიერთმა შეიძლება დაჟინებით მოითხოვოს, რომ ჩვენ მხოლოდ ადამიანებს ვენდოთ და რომ ნდობის აქტი დაცულია მხოლოდ კაცობრიობისთვის, როგორც ჩვენი სანდოობის სამიზნე. Ასე არა. შეგიძლიათ ენდოთ თქვენი სამზარეულოს ტოსტერს. თუ, როგორც ჩანს, ის საიმედოდ ამზადებს თქვენს სადღეგრძელოს და ამის გაკეთება რეგულარულად მუშაობს, თქვენ ნამდვილად შეგიძლიათ გქონდეთ ნდობა იმის შესახებ, არის თუ არა ტოსტერი რეალურად სანდო.

იმავე აზროვნებაში, ხელოვნური ინტელექტი ასევე შეიძლება იყოს ჩვენი ნდობის თვალსაზრისის საგანი. შანსები არის, რომ AI-თან დაკავშირებული ნდობა ბევრად უფრო რთული იქნება, ვიდრე ვთქვათ, ამქვეყნიური ტოსტერი. ტოსტერს ჩვეულებრივ შეუძლია მხოლოდ რამდენიმე მოქმედების შესრულება. ხელოვნური ინტელექტის სისტემა, სავარაუდოდ, გაცილებით რთული იქნება და ნაკლებად გამჭვირვალედ მუშაობს. ჩვენი უნარი შევაფასოთ და დავადგინოთ ხელოვნური ინტელექტის სანდოობა ბევრად უფრო რთული იქნება და გამოვავლინოთ განსხვავებული გამოწვევები.

გარდა იმისა, რომ უფრო რთულია, ტიპიური ხელოვნური ინტელექტის სისტემა არის არადეტერმინისტული და პოტენციურად თვითრეგულირებადი ან თვითრეგულირებადი. ჩვენ შეგვიძლია მოკლედ გამოვიკვლიოთ ეს ცნება.

დეტერმინისტული მანქანა მიდრეკილია ერთი და იგივე საქმის კეთებას უსასრულოდ, პროგნოზირებად და მისი ფუნქციონირების აშკარად შესამჩნევი ნიმუშით. თქვენ შეიძლება თქვათ, რომ ჩვეულებრივი ტოსტერი დაახლოებით ერთნაირად სვამს სადღეგრძელოს და აქვს სადღეგრძელოს კონტროლი, რომელიც არეგულირებს ტოსტერს, რაც ზოგადად პროგნოზირებადია იმ პირის მიერ, ვინც იყენებს ტოსტერს. ამის საპირისპიროდ, კომპლექსური ხელოვნური ინტელექტის სისტემები ხშირად შემუშავებულია არადეტერმინისტულად, რაც იმას ნიშნავს, რომ მათ შეუძლიათ გააკეთონ სრულიად განსხვავებული საქმეები იმის მიღმა, რასაც სხვაგვარად მოელოდი. ეს შეიძლება ნაწილობრივ კიდევ უფრო გაძლიერდეს, თუ AI დაწერილია თვითრეგულირებისთვის, ასპექტი, რომელიც ხელს შეუწყობს AI-ს გაუმჯობესების საშუალებას ML/DL-ის შემთხვევაში, თუმცა ასევე შეიძლება შემაშფოთებლად გამოიწვიოს AI-ის დაქვეითება ან რიგებში შესვლა. ხელოვნური ინტელექტის ცუდზე. შეიძლება არ იცოდეთ რა დაგემართათ საუბრის მანერაში, რადგან AI-ის ქმედებებმა სრულიად გაუფრთხილებლად დაიჭირეს.

რა შეგვიძლია გავაკეთოთ იმისათვის, რომ AI მივაახლოოთ სანდოობას?

ერთი მიდგომა მოიცავს მცდელობას იმის უზრუნველსაყოფად, რომ ისინი, ვინც ამუშავებენ და ამუშავებენ AI-ს, ემორჩილებიან AI ეთიკის პრინციპებს. როგორც ამ ხელოვნური ინტელექტის მკვლევარებმა აღნიშნეს: ”ნდობა არის დამოკიდებულება, რომ აგენტი მოიქცევა ისე, როგორც მოსალოდნელია და მასზე შეიძლება დაეყრდნოთ მიზნის მისაღწევად. ნდობა იშლება აგენტსა და სანდო ინდივიდს შორის შეცდომის ან გაუგებრობის შემდეგ. ხელოვნური ინტელექტისადმი ნდობის ფსიქოლოგიური მდგომარეობა რთული სისტემის წარმოშობის თვისებაა, რომელიც ჩვეულებრივ მოიცავს დიზაინის, ტრენინგის, განლაგების, შესრულების გაზომვის, რეგულირების, ხელახალი დიზაინისა და გადამზადების მრავალ ციკლს“ (მითითებულია კომუნიკაციების ACMსტიუარტ მიდლტონის, ემანუელ ლეტუზის, ალი ჰოსაინის და ადრიან ჩეპმენის მიერ, „ნდობა, რეგულაცია და ადამიანის მარყუჟის AI ევროპულ რეგიონში“, 2022 წლის აპრილი).

არსი ის არის, რომ თუ ჩვენ შევძლებთ ხელოვნური ინტელექტის დეველოპერებს დაიცვან ეთიკური AI, ისინი იმედია საბოლოოდ გამოიმუშავებენ სანდო AI-ს. ეს ყველაფერი კარგია, მაგრამ რეალურ სამყაროში გარკვეულწილად არაპრაქტიკული ჩანს, თუმცა ეს არის აბსოლუტურად გზა, რომლის გატარებაც ღირს.

აი რას ვგულისხმობ.

დავუშვათ, გულმოდგინე ძალისხმევა ახორციელებენ AI დეველოპერებს, რომლებიც ქმნიან AI სისტემას გარკვეული მიზნით, რომელსაც ჩვენ ზოგადად ვუწოდებთ X. ისინი ყურადღებით დარწმუნდებიან, რომ AI ემორჩილება AI ეთიკის გამჭვირვალობის პრინციპებს. ისინი მკაცრად უზრუნველყოფენ, რომ კონფიდენციალურობა სათანადოდ არის ჩაშენებული AI-ში. ხელოვნური ინტელექტის ეთიკის თითქმის ყველა ჩვეულებრივი პრინციპისთვის, ხელოვნური ინტელექტის შემქმნელები ამომწურავად უზრუნველყოფენ, რომ AI აკმაყოფილებს მოცემულ პრინციპს.

ახლა უნდა ენდოთ ამ AI-ს?

ნება მომეცით დაგეხმაროთ თქვენი აზრების გააზრებაში ამ ღია კითხვაზე.

ირკვევა, რომ კიბერ თაღლითებმა შეძლეს AI-ში შეღწევა და AI-ს მოტყუებით აეყვანათ X-ის შესრულება და ამავდროულად მიაწოდონ კიბერ ჰაკერებს ყველა იმ მონაცემით, რომელსაც AI აგროვებს. ამით, ეს ბოროტმოქმედები მზაკვრულად არღვევენ კონფიდენციალურობის პრინციპს. თქვენ არ იცით, რომ ეს ხდება ხელოვნური ინტელექტის ქვეშ.

ამ დამატებული ინფორმაციით, ისევ იგივე კითხვას დაგისვამთ.

ენდობით ამ AI-ს?

მე შემიძლია ვთქვა, რომ ადამიანების უმეტესობა მაშინვე აცხადებს, რომ ნამდვილად აკეთებს არ ენდეთ ამ კონკრეტულ AI-ს. შეიძლება ადრეც ენდობოდნენ. ისინი ახლა გადაწყვეტენ, აღარ განიხილონ AI სანდო.

ამ მარტივ მაგალითზე დაფუძნებული რამდენიმე ძირითადი მოსაზრება დაფიქრების ღირსია:

  • ნდობის დინამიკა. საუკეთესო განზრახვაც კი, რომელიც მოიცავს ყველა საფუძველს იმის უზრუნველსაყოფად, რომ AI ეთიკა ჩაშენებულია AI სისტემაში, არ არის გარანტია იმისა, თუ როგორი შეიძლება აღმოჩნდეს ან გახდეს AI. ხელოვნური ინტელექტის გამოყენებაში გამოყენების შემდეგ, აუტსაიდერებს შეუძლიათ პოტენციურად შეარყიონ ეთიკური AI დარიცხვები.
  • Undercutting ნდობა შიგნიდან. სანდოობის შელახვის აქტი სულაც არ უნდა იყოს აუტსაიდერები. ინსაიდერმა, რომელიც რეგულარულად ახორციელებს ხელოვნური ინტელექტის სისტემას, შეიძლება შეცდომაში შეიყვანოს და დაასუსტოს AI ნაკლებად სანდო. ხელოვნური ინტელექტის ამ შემქმნელმა შესაძლოა არ იცის რა გააკეთეს.
  • ნდობის უნებლიე კომპრომისები. თვითრეგულირებადი ან თვითრეგულირებადი ხელოვნური ინტელექტი შეიძლება რაღაც მომენტში შეცვალოს საკუთარი თავი და გადაიქცეს არასანდო ტერიტორიაზე. შესაძლოა, ხელოვნური ინტელექტი ცდილობს გააძლიეროს AI-ს გამჭვირვალობა და ამავე დროს და არასათანადოდ აყენებს კომპრომისს კონფიდენციალურობის ასპექტებზე.
  • ნდობის გაფანტვა. ხელოვნური ინტელექტის ეთიკის ყველა დებულების მიღწევის მცდელობა საიმედოობის ერთნაირი მაქსიმალური ხარისხით, როგორც წესი, არ არის ადვილად სიცოცხლისუნარიანი, რადგან ისინი ხშირად ჯვარედინი მიზნებისთვის არიან ან აქვთ სხვა თანდაყოლილი პოტენციური კონფლიქტები. საკმაოდ იდეალიზებული პერსპექტივაა იმის დაჯერება, რომ ეთიკური ხელოვნური ინტელექტის ყველა დებულება სიზმრის მიხედვით არის გასწორებული და ყველა მიღწევადია თანაბარი მაქსიმიზაციის ხარისხით.
  • ნდობის მიღწევა შეიძლება ძვირი დაჯდეს. შედარებით მაღალი იქნება სანდო ხელოვნური ინტელექტის მაღალი დონის მცდელობისა და სხვადასხვა ვრცელი და ამომწურავი ნაბიჯების გადადგმის და ხელოვნური ინტელექტის ეთიკის პრინციპების მთელი რიგის დაცვით მიღწეული ხარჯი. თქვენ შეგიძლიათ მარტივად ამტკიცებთ, რომ ღირებულება აკრძალული იქნება ზოგიერთი ხელოვნური ინტელექტის სისტემის გამოყენების თვალსაზრისით, რომელსაც სხვაგვარად აქვს მნიშვნელოვანი მნიშვნელობა საზოგადოებისთვის, მაშინაც კი, თუ AI იყო, სანდოობის სურვილიდან ვიტყვით იდეალურზე ნაკლებს.
  • და ასე შემდეგ.

ნუ განმარტავთ წინა შენიშვნებს, რათა გვთავაზობდეთ, რომ როგორმე უნდა ავიცილოთ მცდელობა სანდო ხელოვნური ინტელექტის საფუძვლიანად აშენებისა და განხორციელებისკენ. თქვენ მოკლედ გადააგდებდით ბავშვს აბაზანის წყლით, როგორც ეს იყო. სწორი ინტერპრეტაცია არის ის, რომ ჩვენ გვჭირდება ამ სანდო აქტივობების შესრულება, რათა ხელოვნური ინტელექტი სანდო განხილვაში მივიღოთ, და მაინც ეს მარტო წამალი ან ვერცხლის ტყვია არ არის.

მრავალპროფილიანი ბილიკები სანდო AI-სკენ

არსებობს მნიშვნელოვანი დამატებითი მრავალმხრივი გზები სანდო AI-სკენ სწრაფვისთვის.

მაგ ბმული აქ მდე ბმული აქ.

ეს კანონიერი დამცავი რელსები გადამწყვეტია, როგორც ყოვლისმომცველი საშუალება იმის უზრუნველსაყოფად, რომ ისინი, ვინც შეიმუშავებენ AI-ს, პასუხისმგებელნი იქნებიან თავიანთი AI-სთვის. ასეთი პოტენციური სამართლებრივი საშუალებებისა და კანონიერი ჯარიმების გარეშე, ისინი, ვინც აჩქარებენ AI-ს ბაზარზე, სავარაუდოდ გააგრძელებენ ამას სანდო ხელოვნური ინტელექტის მიღწევის მცირე თუ რაიმე სერიოზული ზრუნვით. მე შემიძლია დავამატო, რომ თუ ეს კანონები და რეგულაციები ცუდად არის შემუშავებული ან არაადეკვატურად განხორციელებული, მათ შეუძლიათ, სამწუხაროდ, შეაფერხოს სანდო AI-ს დევნა, შესაძლოა ირონიულად და უცნაურად ხელი შეუწყონ არასანდო AI-ს სანდო AI-ზე (იხილეთ ჩემი სვეტის დისკუსიები დამატებითი ახსნისთვის).

მე ასევე ვიყავი მტკიცე ადვოკატი იმისა, რასაც მე გულმოდგინედ მოვიხსენიებდი ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტები (იხილეთ ჩემი გაშუქება აქ ბმული აქ). ეს არის მომავალი მეთოდი ან მიდგომა ცეცხლთან ბრძოლის მცდელობისთვის, კერძოდ, ხელოვნური ინტელექტის გამოყენებით, რათა დაგვეხმაროს სხვა AI-თან ურთიერთობაში, რომელიც შეიძლება იყოს ან არ იყოს სანდო.

პირველი, ზოგიერთი ფონური კონტექსტი სასარგებლო იქნება.

დავუშვათ, თქვენ ირჩევთ დაეყრდნოთ AI სისტემას, რომელიც არ ხართ დარწმუნებული მის სანდოობაში. მთავარი საზრუნავი შეიძლება იყოს ის, რომ თქვენ მარტო ხართ მცდელობებში, გაარკვიოთ, სანდოა თუ არა AI. AI არის პოტენციურად უფრო სწრაფი გამოთვლითი ვიდრე თქვენ და შეუძლია ისარგებლოს თქვენ. თქვენ გჭირდებათ ვინმე ან რაღაც თქვენს გვერდით დასახმარებლად.

ერთი პერსპექტივა არის ის, რომ ყოველთვის უნდა არსებობდეს ადამიანი, რომელიც დაგეხმარებათ AI სისტემის გამოყენებაში. თუმცა ეს პრობლემური გამოსავალია. თუ ხელოვნური ინტელექტი მუშაობს რეალურ დროში, რაზეც ჩვენ მომენტალურად განვიხილავთ, როდესაც საქმე ეხება AI-ზე დაფუძნებული თვითმართვადი მანქანების გამოჩენას, ადამიანის ჩართვა შეიძლება არ იყოს საკმარისი. ხელოვნური ინტელექტი შეიძლება მოქმედებდეს რეალურ დროში და იმ დროისთვის, როდესაც სურათზე დანიშნული ადამიანი შემოდის, რათა გაარკვიოს, მუშაობს თუ არა AI გამართულად, შესაძლოა უკვე მომხდარიყო კატასტროფული შედეგი.

გარდა ამისა, ეს იწვევს ნდობის კიდევ ერთ ფაქტორს. ჩვენ ჩვეულებრივ ვანიჭებთ ნდობის დონეს იმ კონტექსტიდან ან გარემოებიდან გამომდინარე, რომლის წინაშეც ვდგავართ. თქვენ შეიძლება სრულად ენდოთ თქვენს პატარა შვილს ან ქალიშვილს, რომ ერთგული იქნებით თქვენს მიმართ, მაგრამ თუ ლაშქრობაში ხართ და გადაწყვეტთ, დაეყრდნოთ პატარას, რომ გითხრათ, უსაფრთხოა თუ არა კლდის კიდეზე ფეხის გადადგმა, ვფიქრობ, ბრძენი იქნებით. განიხილოს შეუძლია თუ არა პატარას ასეთი სახის რჩევები სიცოცხლე-სიკვდილის შესახებ. ბავშვმა შეიძლება ასე მოიქცეს გულმოდგინედ და გულწრფელად და, მიუხედავად ამისა, ვერ შეძლოს ადეკვატურად გასცეს ასეთი რჩევა.

იგივე ცნება ასოცირდება ნდობასთან, როდესაც საქმე AI-ს ეხება. ხელოვნური ინტელექტის სისტემა, რომელსაც იყენებთ ჩეკის ან ჭადრაკის სათამაშოდ, სავარაუდოდ, არ არის ჩართული სიცოცხლისა და სიკვდილის საკითხებში. თქვენ შეგიძლიათ უფრო მშვიდად იყოთ თქვენი ნდობის დავალებით. ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანა, რომელიც გზატკეცილზე მაღალი სიჩქარით მოძრაობს, მოითხოვს ნდობის ბევრად უფრო დაძაბულ დონეს. ხელოვნური ინტელექტის მართვის სისტემის უმცირესმა შეცდომამ შეიძლება პირდაპირ გამოიწვიოს თქვენი და სხვების სიკვდილი.

გლობალური Deloitte AI ინსტიტუტის აღმასრულებელი დირექტორისა და წიგნის ავტორის Beena Ammanath-ის გამოქვეყნებულ ინტერვიუში. სანდო AI, მსგავსი აქცენტი კონტექსტუალური ასპექტების გათვალისწინებაზე, სადაც AI სანდოობა მოქმედებს: „თუ თქვენ ქმნით AI გადაწყვეტას, რომელიც აკეთებს პაციენტის დიაგნოზს, სამართლიანობა და მიკერძოება ძალიან მნიშვნელოვანია. მაგრამ თუ თქვენ აშენებთ ალგორითმს, რომელიც პროგნოზირებს რეაქტიული ძრავის უკმარისობას, სამართლიანობა და მიკერძოება არ არის ისეთი მნიშვნელოვანი. სანდო ხელოვნური ინტელექტი ნამდვილად არის სტრუქტურა, რომელიც საშუალებას მოგცემთ იფიქროთ თქვენი ორგანიზაციის ნდობის ზომებზე“ (VentureBeat, 22 წლის 2022 მარტი).

სანდო ხელოვნური ინტელექტის განხილვისას, თქვენ შეგიძლიათ ეს თემა მრავალი გზით ახსნათ.

მაგალითად, სანდო AI ეს არის ის, რასაც ჩვენ ყველანი ვუყურებთ, როგორც სასურველ და მისწრაფებულ მიზანს, კერძოდ, რომ ჩვენ უნდა გვქონდეს სურვილი სანდო ხელოვნური ინტელექტის შემუშავებისა და გავრცელების შესახებ. არსებობს ფრაზების კიდევ ერთი გამოყენება. გარკვეულწილად ალტერნატიული გამოყენება არის ის სანდო AI არის მდგომარეობის ან გაზომვის მდგომარეობა, ისეთი, რომ ვინმემ შეიძლება დაამტკიცოს, რომ მათ შექმნეს AI სისტემა, რომელიც სანდო AI-ს მაგალითია. თქვენ ასევე შეგიძლიათ გამოიყენოთ ფრაზა სანდო AI შესთავაზოს მეთოდი ან მიდგომა, რომელიც შეიძლება გამოყენებულ იქნას ხელოვნური ინტელექტის სანდოობის მისაღწევად. და ა.შ.

ამასთან დაკავშირებით, მჯერა, რომ გესმით, რომ ყველა ხელოვნური ინტელექტი ერთნაირი არ არის და ჩვენ უნდა ვიყოთ ყურადღებიანი, რომ არ გავაკეთოთ აბსოლუტური განცხადებები ყველა ხელოვნური ინტელექტის შესახებ. კონკრეტული AI სისტემა, სავარაუდოდ, მნიშვნელოვნად განსხვავდება სხვა AI სისტემისგან. ერთ-ერთი AI სისტემა შეიძლება იყოს ძალიან სანდო, ხოლო მეორე შეიძლება იყოს ოდნავ სანდო. იყავით ფრთხილად, თუ როგორმე ვივარაუდოთ, რომ AI არის მონოლითი, რომელიც ან მთლიანად სანდოა, ან სრულიად არასანდო.

ეს უბრალოდ ასე არ არის.

მსურს შემდეგ მოკლედ გავაშუქო ზოგიერთი ჩემი მიმდინარე კვლევა სანდო AI-ს შესახებ, რომელიც შეიძლება დაგაინტერესოთ, რომელიც მოიცავს წარმოშობილ როლს ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტები.

აი, როგორ მიდის საქმე.

თქვენ შეიარაღებული იქნებით AI სისტემით (AI მფარველი ანგელოზი ბოტი), რომელიც შექმნილია სხვა AI სისტემის სანდოობის შესაფასებლად. ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტი უმთავრეს ფოკუსირებას ახდენს თქვენს უსაფრთხოებაზე. იფიქრეთ იმაზე, თითქოს თქვენ გაქვთ საშუალება თვალყური ადევნოთ AI-ს, რომელსაც თქვენ ეყრდნობით, ჯიბეში სხვა ხელოვნური ინტელექტის სისტემის არსებობით, შესაძლოა, გაშვებული თქვენს სმარტფონზე ან სხვა ასეთ მოწყობილობებზე. თქვენს ანდაზურ AI მეურვეს შეუძლია გამოთვალოს იმის საფუძველზე, რომ ხელოვნური ინტელექტი, რომელსაც თქვენ ეყრდნობით, ასევე მუშაობს, მუშაობს სწრაფი სიჩქარით და გამოთვლის სიტუაციას რეალურ დროში, ბევრად უფრო სწრაფად, ვიდრე ამას შეუძლია ადამიანი-ში-ში.

შეიძლება ერთი შეხედვით იფიქროთ, რომ AI, რომელსაც უკვე ეყრდნობით, უნდა ჰქონდეს გარკვეული შიდა ხელოვნური ინტელექტის დამცავი რელსები, რომლებიც აკეთებენ იგივეს, რაც ცალკე გამოთვლითი ხელოვნური ინტელექტის მფარველი ანგელოზის ბოტი. დიახ, რა თქმა უნდა სასურველი იქნებოდა. ერთი უბედურება ის არის, რომ ხელოვნური ინტელექტის სისტემაში ჩაშენებული AI დამცავი რელსები შესაძლოა ინტეგრალურად და ზიანს აყენებდეს AI-ს თავისთავად, ამდენად, სავარაუდო ხელოვნური ინტელექტის საფარს აღარ შეუძლია გარკვეული გაგებით დამოუკიდებლად გადაამოწმოს ან დაადასტუროს AI.

კონტრასტული იდეა არის ის, რომ თქვენი ხელოვნური ინტელექტის მფარველი ანგელოზის ბოტი არის დამოუკიდებელი ან მესამე მხარის AI მექანიზმი, რომელიც განსხვავდება ხელოვნური ინტელექტისგან, რომელსაც თქვენ ეყრდნობით. ის ზის სხვა ხელოვნური ინტელექტის მიღმა, რჩება თქვენი ერთგული და არ არის მიძღვნილი იმ AI-ს, რომელსაც აკვირდებიან ან ფასდება.

ამის შესახებ ფიქრის პირდაპირი საშუალება შეიძლება გამოიხატოს შემდეგი გამარტივებული განტოლების მსგავსი განცხადებებით. შეიძლება ითქვას, რომ "P"-ს სურს პოტენციურად ენდოს "R"-ს კონკრეტული დავალების "X"-ს შესასრულებლად:

ეს იქნება შემდეგი, როდესაც მხოლოდ ხალხია ჩართული:

  • პირი P ენდობა პირ R-ს დავალების X შესრულებას.

როდესაც ჩვენ ვირჩევთ დავეყრდნოთ AI-ს, განცხადება შემდეგნაირად იცვლება:

  • პირი P ენდობა AI instance-R-ს X დავალების შესასრულებლად.

ჩვენ შეგვიძლია დავამატოთ ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტი შემდეგი სიტყვებით:

  • პირი P ენდობა AI instance-R-ს, რათა შეასრულოს დავალება X, როგორც მას აკონტროლებს AI მფარველი ანგელოზი ბოტის მაგალითი-Z

ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტი დაუღალავად და დაუნდობლად აფასებს ხელოვნურ ინტელექტს, რომელსაც თქვენ ეყრდნობით. როგორც ასეთი, თქვენმა მოხერხებულმა AI მეურვემ შეიძლება გაგაფრთხილოთ, რომ ამ სხვა AI-ს ნდობა დაუსაბუთებელია. ან, ხელოვნური ინტელექტის მეურვე შეიძლება ელექტრონულად დაუკავშირდეს სხვა ხელოვნურ ინტელექტს, რათა უზრუნველყოს, რომ ნებისმიერი სხვაობა, რომელიც არ არის სანდო, სწრაფად გამოსწორდება და ასე შემდეგ (იხილეთ ჩემი გაშუქება ამ დეტალების შესახებ აქ ბმული აქ).

სანდო ნდობის რეზერვუარის მეტაფორა

ვინაიდან ჩვენ განვიხილავთ ნდობის განსხვავებულ დონეს, თქვენ შეგიძლიათ იპოვოთ მოსახერხებელი მეტაფორა სანდოობის შესახებ, ნდობის, როგორც რეზერვუარის სახეობის აღქმით.

თქვენ გაქვთ გარკვეული ნდობა კონკრეტული ადამიანის ან ნივთის მიმართ კონკრეტულ ვითარებაში დროის კონკრეტულ მომენტში. ნდობის დონე მოიმატებს ან დაეცემა, იმის მიხედვით, თუ რა მოხდება ამ კონკრეტულ პიროვნებასთან ან ნივთთან დაკავშირებით. ნდობა შეიძლება იყოს ნულოვან დონეზე, როდესაც თქვენ არ გაქვთ რაიმე ნდობა პიროვნების ან ნივთის მიმართ. ნდობა შეიძლება იყოს ნეგატიური, როდესაც თქვენ გექნებათ უნდობლობა ამ ადამიანის ან ნივთის მიმართ.

ხელოვნური ინტელექტის სისტემების შემთხვევაში, თქვენი ნდობის რეზერვუარი იმ კონკრეტული AI-სთვის, რომელსაც ეყრდნობით კონკრეტულ ვითარებაში, გაიზრდება ან დაეცემა, რაც დამოკიდებულია თქვენს მიერ AI-ს სანდოობის შეფასებაზე. ზოგჯერ შეიძლება კარგად იცოდეთ AI-ს მიმართ ნდობის ეს განსხვავებული დონე, ხოლო სხვა შემთხვევებში შეიძლება ნაკლებად იცოდეთ და უფრო მეტად, სანდოობის შესახებ განსჯის გამოტანით.

გზები, რომლებზეც ჩვენ განვიხილეთ აქ ხელოვნური ინტელექტის ნდობის დონის გაზრდის საშუალებებს მოიცავს:

  • AI ეთიკის დაცვა. თუ ხელოვნური ინტელექტი, რომელსაც თქვენ ეყრდნობით, შეიმუშავეს AI ეთიკის სათანადო პრინციპების დაცვის მცდელობით, თქვენ სავარაუდოდ გამოიყენებდით ამ გაგებას თქვენი ნდობის რეზერვუარის დონის ასამაღლებლად ამ კონკრეტული AI სისტემისთვის. როგორც გვერდითი შენიშვნა, ასევე შესაძლებელია, რომ განზოგადოთ სხვა ხელოვნური ინტელექტის სისტემებზე მათი სანდოობის შესახებ, თუმცა ეს ზოგჯერ შეიძლება იყოს შეცდომაში შემყვანი ფორმა, რასაც მე ვუწოდებ. AI ნდობის აურის გავრცელება (ამას ფრთხილად იყავით!).
  • გამოიყენეთ Human-In-The-Loop. თუ AI-ს აქვს ადამიანი-ის მარყუჟში, თქვენ შეიძლება დადებითად დაამატოთ თქვენი აღქმული ნდობა AI-ს მიმართ.
  • ჩამოაყალიბეთ კანონები და რეგულაციები. თუ არსებობს კანონები და რეგულაციები, რომლებიც დაკავშირებულია ხელოვნური ინტელექტის ამ კონკრეტულ ტიპთან, თქვენ ასევე შეგიძლიათ გაზარდოთ თქვენი ნდობის დონე.
  • დაასაქმეთ AI Guardian Angel Bot. თუ თქვენ მზად გაქვთ ხელოვნური ინტელექტის მფარველი ანგელოზი ბოტი, ეს ასევე კიდევ უფრო გაზრდის თქვენს ნდობას.

როგორც უკვე აღვნიშნეთ, ნდობა შეიძლება იყოს საკმაოდ მყიფე და მყისიერად დაინგრევა (ანუ, ნდობის რეზერვუარი სწრაფად და მოულოდნელად ტოვებს მთელ ნდობას).

წარმოიდგინეთ, რომ თქვენ იმყოფებით ხელოვნური ინტელექტის ბაზაზე დაფუძნებულ თვითმართველ მანქანაში და AI მოძრაობს უეცრად რადიკალურად მარჯვნივ, რის შედეგადაც ბორბლები ღრიალებს და თითქმის აიძულებს ავტონომიურ მანქანას სახიფათო გადახვევაში. რა მოუვა თქვენს ნდობას? როგორც ჩანს, მაშინაც კი, თუ მანამდე თქვენ გაქვთ AI-ს ნდობის გაზრდის დონე, თქვენ მკვეთრად და მოულოდნელად ჩამოაგდებთ ნდობის დონეს, გონივრულად.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ დამატებითი საილუსტრაციო მაგალითები, რომლებიც შეიძლება წარმოაჩინონ სანდო ხელოვნური ინტელექტის ბუნება და მასშტაბები. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს ხელოვნური ინტელექტის ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა ხელოვნურ ინტელექტის ბაზაზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა სანდო ხელოვნური ინტელექტის ძიებაზე და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და სანდო AI

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ჩვენ მზად ვართ ახლა ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებსა და სანდო AI-ს.

ნდობა არის ყველაფერი, განსაკუთრებით AI-ზე დაფუძნებული თვითმართვადი მანქანების შემთხვევაში.

როგორც ჩანს, საზოგადოება სიფრთხილით ადევნებს თვალს თვითმართვადი მანქანების გაჩენას. ერთის მხრივ, არსებობს დიდი იმედი, რომ ნამდვილი თვითმართვადი მანქანების გამოჩენა აშკარად შეამცირებს ავტომობილებთან დაკავშირებული ყოველწლიური დაღუპულების რაოდენობას. მხოლოდ შეერთებულ შტატებში არის დაახლოებით 40,000 ადამიანი იღუპება ყოველწლიურად და დაახლოებით 2.5 მილიონი დაშავებულია ავტოავარიების გამო, იხილეთ ჩემი სტატისტიკის კოლექცია: ბმული აქ. ადამიანები სვამენ და მართავენ. ადამიანები მართავენ ყურადღების გაფანტვისას. მანქანის მართვის ამოცანა, როგორც ჩანს, შედგება იმაში, რომ შეძლოთ განმეორებითი და შეუცდომელი ფოკუსირება ავტომობილის მართვაზე და თავიდან აიცილოთ ავტოავარიაში მოხვედრა. როგორც ასეთი, ჩვენ შეიძლება ოცნებულად ვიმედოვნებთ, რომ AI მართვის სისტემები განმეორებით და შეუცდომლად უხელმძღვანელებენ თვითმართველ მანქანებს. თქვენ შეგიძლიათ ახსნათ თვითმართვადი მანქანები ორად, რაც შედგება ავტოავარიის შედეგად დაღუპულთა და დაშავებულთა მოცულობის შემცირებით, აგრეთვე მობილურობის პოტენციურად ხელმისაწვდომობით ბევრად უფრო ფართო და ხელმისაწვდომ საფუძველზე.

მაგრამ შეშფოთება იმავდროულად ჩნდება საზოგადოების აღქმაზე იმის შესახებ, იქნება თუ არა თვითმართვადი მანქანები საკმარისად უსაფრთხო იმისათვის, რომ ჩვენს საჯარო გზებზე იმყოფებოდნენ.

თუ თუნდაც ერთი თვითმართვადი მანქანა მოხვდება ავარიაში ან შეჯახებაში, რომელიც იწვევს ერთ სიკვდილს ან მძიმე დაზიანებას, თქვენ შეიძლება წინასწარ ველოდოთ, რომ დღევანდელი გარკვეულწილად გაძლიერებული ნდობა იმ AI-ზე დაფუძნებული მძღოლის გარეშე მანქანების მიმართ მკვეთრად დაეცემა. ჩვენ ვნახეთ, რომ ეს მოხდა, როდესაც ახლა უკვე სამარცხვინო ინციდენტი მოხდა არიზონაში, რომელშიც მონაწილეობდა გარკვეულწილად (არა ნამდვილად) თვითმართვადი მანქანა, რომელიც დაეჯახა და მოკლა ფეხით მოსიარულე (იხილეთ ჩემი გაშუქება აქ ეს ბმული აქ).

ზოგიერთი ექსპერტი აღნიშნავს, რომ უსამართლო და შეუსაბამოა ხელოვნური ინტელექტის თვითმართვადი მანქანების ნდობის დაყრა იმ ასპექტზე, რომ მხოლოდ ერთმა მორიგი სიკვდილის მომტანი ავარია ან შეჯახება შეიძლება ძირი გამოუთხაროს ისედაც შედარებით ავარიის გარეშე საჯარო გზის საცდელებს. გარდა ამისა, შემდგომი უსამართლო საფუძველზე, შანსები არის ის, რომ მიუხედავად იმისა, თუ რომელი AI თვითმართვადი მანქანის ბრენდი ან მოდელი მოხვდება სამწუხარო ინციდენტში, საზოგადოება უეჭველად დაადანაშაულებს ყველა თვითმართვადი მანქანის ბრენდს.

მთლიანი თვითმართვადი მანქანები შეიძლება მოკლედ დაიმსხვრას და მთლიანმა ინდუსტრიამ შეიძლება განიცადოს უზარმაზარი რეაქცია, რაც გამოიწვევს ყველა საჯარო საგზაო საცდელების შესაძლო გამორთვას.

ასეთი დარტყმის წვლილი გვხვდება თვითმართვადი მანქანების აშკარა მომხრეების უაზრო განცხადებებში, რომ ყველა უმართავი მანქანა ავარიული იქნება. შეუქცევადობის ეს იდეა არა მხოლოდ მცდარია (იხ ბმული აქ), ის მზაკვრულად აყალიბებს თვითმართვადი მანქანების ინდუსტრიას სრულიად გაუაზრებელი მოლოდინებისთვის. ეს უცნაური და მიუწვდომელი განცხადებები იმის შესახებ, რომ არ იქნება სიკვდილი თვითმართვადი მანქანების გამო, აძლიერებს მცდარ წარმოდგენას, რომ ნებისმიერი უმართავი მანქანის ავარია არის დარწმუნებული ნიშანი იმისა, რომ მთელი ნაკრები და კაბუდლი უაზროა.

აშკარა მწუხარებაა იმის გაცნობიერება, რომ თვითმართვადი მანქანებისკენ მიმავალი პროგრესი და საზოგადოების ნდობის ინჩის დაგროვება შეიძლება მყისიერად განადგურდეს. ეს იქნება ნდობის მტვრევადობის ერთგვარი ჩვენება.

დასკვნა

ბევრი ავტომწარმოებელი და თვითმართვადი ტექნიკური ფირმა ზოგადად იცავს ხელოვნური ინტელექტის ეთიკის პრინციპებს, რათა სცადონ სანდო ხელოვნური ინტელექტის შექმნა და დანერგვა უსაფრთხო და საიმედო AI-ზე დაფუძნებული თვითმართვადი მანქანების თვალსაზრისით. გთხოვთ, გაითვალისწინოთ, რომ ამ ფირმებიდან ზოგიერთი უფრო ძლიერია და უფრო ერთგულია ეთიკური ხელოვნური ინტელექტის პრინციპების მიმართ, ვიდრე სხვები. ასევე არის შემთხვევითი სტარტაპები, რომლებიც დაკავშირებულია თვითმართვასთან დაკავშირებულ ავტომანქანებთან, რომლებიც, როგორც ჩანს, გვერდს უვლიან ხელოვნური ინტელექტის ეთიკის საფუძვლების დიდ ნაწილს (იხილეთ ჩემი მიმოხილვა აქ ბმული აქ).

სხვა კუთხით, ახალი კანონები და რეგულაციები, რომლებიც მოიცავს თვითმართველ მანქანებს, თანდათან განთავსდა იურიდიულ წიგნებში. აქვთ თუ არა მათ საჭირო კბილები მათ დასამტკიცებლად, ეს სხვა საკითხია, ისევე როგორც ამ კანონების აღსრულება სერიოზულად აღიქმება თუ შეუმჩნეველი (იხილეთ ჩემი სვეტები ამის შესახებ ანალიზისთვის).

ამას ასევე აქვს მაღალტექნოლოგიური კუთხე. მე ვიწინასწარმეტყველე, რომ თანდათან ვიხილავთ ხელოვნური ინტელექტის მფარველი ანგელოზის ბოტების ვარიანტებს, რომლებიც წინა პლანზე გამოვა ავტონომიური მანქანებისა და თვითმართვადი მანქანების არენაზე. ჯერ იქ არ ვართ. ეს უფრო გავრცელებული გახდება მას შემდეგ, რაც თვითმართვადი მანქანების პოპულარობა უფრო ფართოდ გავრცელდება.

ეს უკანასკნელი პუნქტი გვაწვდის ცნობილ ხაზს ნდობის შესახებ, რომელიც უდავოდ უკვე ზეპირად იცით.

Ენდე, მაგრამ შეამოწმე.

ჩვენ შეგვიძლია საკუთარ თავს უფლება მივცეთ ჩვენი ნდობა, შესაძლოა, გულუხვად. ამასობაში, ჩვენც ქორივით უნდა ვუყუროთ, რათა დავრწმუნდეთ, რომ ჩვენს მიერ გამოვლენილი ნდობა შემოწმებულია როგორც სიტყვით, ასევე საქმით. მოდით, ვენდოთ ხელოვნურ ინტელექტს, მაგრამ უსასრულოდ ვამოწმებთ, რომ ვენდობით სათანადოდ და ფართოდ გახელილი თვალებით.

თქვენ შეგიძლიათ დამიჯეროთ ამაში.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/