ხელოვნური ინტელექტის ეთიკა სკეპტიკურადაა განწყობილი ეგრეთ წოდებული წითელი დროშის ხელოვნური ინტელექტის კანონების დაწესების შესახებ მიკერძოებული ალგორითმების გამოძახებისთვის ავტონომიურ AI სისტემებში

მოდით ვისაუბროთ წითელი დროშის კანონებზე.

თქვენ უდავოდ იცით, რომ წითელი დროშის კანონების ცნება ბოლო დროს ფართოდ გაშუქდა ახალ ამბებში. სათაურები, რომლებიც აშუქებს თემას, უამრავია. ვნებები და მგზნებარე დებატები ასეთ საკითხებზე არის სულისკვეთება, როგორც საზოგადოების საზრუნავი და მოიცავს დღევანდელ და სწრაფად განვითარებად წითელი დროშის იარაღის კანონებს.

თუმცა, გაბედულად ვიტყვი, რომ თქვენ შეიძლება არ იცნობდეთ 1800-იანი წლების ბოლოს მიღებული წითელი დროშის სხვა კანონებს, რომლებიც ეხებოდა მოტორიზებულ მანქანებს და დღევანდელი ყოველდღიური თანამედროვე ავტომობილების წინამორბედებს. დიახ, ეს ასეა, წითელი დროშის კანონები ისტორიაში ბრუნდება, თუმცა მოიცავს სხვა თემებს დღევანდელ თანამედროვე აქცენტთან შედარებით. ეს ჩვეულებრივ მოხსენიებულია, როგორც წითელი დროშის საგზაო მოძრაობის კანონები.

ეს უკვე საუკუნოვანი და სრულიად გაუქმებული კანონები მოითხოვდა, რომ ნებისმიერი მოტორიზებული ვაგონი ან ორთქლით მოძრავი ძრავა იმ დროს უნდა ყოფილიყო ავტომობილის წინ უსწრებდა ზრდასრულ ადამიანს და ატარებდა წითელი დროშას გამაფრთხილებელი მიზნებისთვის. იდეა იმაში მდგომარეობდა, რომ პირუტყვი შეიძლება შეაშფოთა იმ ხმაურიანმა და აურზაურმა კონტრაქტებმა, რომლებიც ნელა და არათანაბრად მიდიოდნენ ჭუჭყიან ან ზღვრულად მოკირწყლულ გზებზე, და ამგვარად, ვინმეს გასეირნება ხელსაწყოს წინ და ენერგიულად აფრიალებს წითელ დროშას, იმედია, თავიდან აიცილებს უბედურებებს. თუ გაინტერესებთ, რკინიგზა და მატარებლები ითვლებოდა გარიყულად იმავე კანონებიდან, რადგან ისინი წარმოადგენდნენ ლიანდაგზე განუყოფლად მიბმული სატრანსპორტო საშუალებებს და ჰქონდათ სხვა კანონები, რომლებიც მოიცავს მათ ქმედებებს.

წარმოიდგინეთ, რომ დღეს მოგიწევთ წითელი დროშების ფრიალი, როგორც მოთხოვნა ყველა მანქანისთვის ჩვენს საჯარო გზებზე.

მაგალითად, ჩვეულებრივი მძღოლი, რომელიც ჩამოდის თქვენს სამეზობლოში, უნდა დარწმუნდეს, რომ წითელი დროშას ფრიალი ზრდასრული ადამიანი იმყოფება და აღლუმს მოძრავი მანქანის წინ. ეს უნდა მოხდეს თითოეული მანქანისთვის, რომელიც გადის თქვენს ქუჩაზე. შესაძლოა, ადამიანები გახდნენ წითელი დროშის მუშაკები, რომლებიც დაიქირავეს გამვლელი მანქანის მძღოლებზე, რომლებსაც სხვაგვარად არ ჰყავდათ მეგობარი ან ნათესავი, რომელსაც შეეძლო წინ წასულიყო და გაეკეთებინა გათვალისწინებული ქმედებები.

დღესდღეობით ჩვენ მიდრეკილნი ვართ ავტომაგისტრალთან დაკავშირებული წითელი დროშის ფრიალებს საგზაო გზების სამშენებლო უბნებთან დავაკავშიროთ. გათხრილ გზასთან მიახლოებისას მუშებს მაღლა ეჭირათ წითელი დროშა თქვენი ყურადღების მისაპყრობად. ეს გეუბნებათ, რომ შეანელოთ და იყოთ მზადყოფნაში. შეიძლება იყოს ბულდოზერი, რომელიც აპირებს თქვენს გზას. შესაძლოა გიგანტური ხვრელი იყოს წინ და თქვენ მოგიწევთ ფრთხილად იაროთ მის გარშემო.

მაგრამ მოდით დავუბრუნდეთ 1800-იან წლებში წითელი დროშების გამოყენებას.

გინდ დაიჯერეთ თუ არა, წითელი დროშის ტალღა უნდა ყოფილიყო მინიმუმ მერვე მილის დაშორება მომავალ მოტორიზებულ მანქანამდე. როგორც ჩანს, საკმაოდ დიდი მანძილია. თუმცა შეიძლება ვივარაუდოთ, რომ ამას იმ დღეებში უხვად ჰქონდა აზრი. ძრავის გამაოგნებელი ხმები და შესაძლოა მანქანის უბრალო დანახვაც საკმარისი იყოს ცხოველების განერვიულებისთვის. იმ ეპოქის წითელი დროშის ზოგიერთი კანონი ასევე მოითხოვდა, რომ კაშკაშა წითელი შუქი გაჩერებულიყო ღამის საათებში, რათა ვიზუალურად აშკარა წითელი გაფრთხილება შემეძლო ჩაბნელებული მანძილიდან დანახვა.

ზოგადად, ვფიქრობ, სამართლიანია იმის მტკიცება, რომ ჩვენ, როგორც საზოგადოება, მიდრეკილნი ვართ მივაკუთვნოთ წითელი დროშა, როგორც ერთგვარი სიგნალი ან ნიშანი იმისა, რომ რაღაც პოტენციურად არასწორია ან სულ მცირე, საჭიროებს ჩვენს ერთგულ ყურადღებას.

მოემზადეთ ამ წითელი დროშის ფენომენის ცოტათი გადახვევისთვის.

არსებობს მოსაზრება, რომ ჩვენ უნდა მოვითხოვოთ წითელი დროშის დებულებები, როდესაც საქმე ეხება ხელოვნურ ინტელექტს (AI).

ეს ცოტა გამაოგნებელი და გასაკვირი კონცეფციაა, რომელიც ბევრს აწუხებს. შეიძლება გაგიკვირდეთ, როგორ ან რატომ უნდა არსებობდეს ე.წ წითელი დროშის AI კანონები. გთხოვთ, გაითვალისწინოთ, რომ მე ამას ვასახელებ, როგორც წითელი დროშის მქონე ხელოვნური ინტელექტის კანონებს, რათა განვასხვავო საკითხი წითელი დროშის საგზაო მოძრაობის კანონებისგან (როგორიცაა 1800-იანი წლების ბოლოს) და ასევე გამოვყო ისინი დღევანდელი სხვა უფრო გავრცელებული წითელი დროშის იარაღის კანონებისგან.

ნამდვილად გვჭირდება წითელი დროშის AI კანონები, რომლებიც მკაფიოდ და მხოლოდ ორიენტირებულია ხელოვნური ინტელექტის საკითხებზე?

შემოთავაზებული მიდგომის მომხრეები დაჟინებით მოითხოვენ, რომ ჩვენ აბსოლუტურად გვჭირდება სამართლებრივი დებულებები, რომლებიც ხელს შეუწყობს ხელოვნური ინტელექტის შეზღუდვას, რომელიც შეიცავს არასათანადო მიკერძოებას და მოქმედებს დისკრიმინაციული გზებით. ამჟამად, ხელოვნური ინტელექტის აშენება და განლაგება ველური დასავლეთის მსგავსია. ცუდი ხელოვნური ინტელექტის შეკავების მცდელობები ამჟამად დამოკიდებულია ხელოვნური ინტელექტის ეთიკის სახელმძღვანელო პრინციპების ფორმულირებასა და მიღებაზე. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ნელ-ნელა ყალიბდება და ამოქმედდება ცუდი AI-ში არსებული კანონები, იხილეთ ჩემი გაშუქება აქ ბმული აქ. ზოგიერთი წუხს, რომ კანონმდებლები საკმარისად სწრაფად არ მიდიან. როგორც ჩანს, წყალდიდობის კარიბჭე, რომელიც საშუალებას მისცემს მიკერძოებული ხელოვნური ინტელექტის განვითარებას მსოფლიოში, ახლა დიდწილად ღიაა. ხელის დარტყმა ამბობს, რომ იმ დროისთვის, როცა ახალი კანონები წიგნებში მოხვდება, ბოროტი ჯინი უკვე ბოთლიდან გამოვა.

არც ისე სწრაფად, კონტრარგუმენტები მიდის. შეშფოთება არის ის, რომ თუ კანონები ძალიან სწრაფად ამოქმედდება, ჩვენ მოვკლავთ ოქროს ბატს, როგორც ეს იყო, რითაც AI ძალისხმევა გაშრება და ჩვენ ვერ მივიღებთ ახალი AI სისტემების სოციალურად გამაძლიერებელ სარგებელს. ხელოვნური ინტელექტის დეველოპერები და ფირმები, რომელთაც სურთ გამოიყენონ ხელოვნური ინტელექტი, შეიძლება შეშინდნენ, თუ ფედერალურ, შტატ და ადგილობრივ დონეზე უცებ ამოქმედდება ბიზანტიური კანონები, რომლებიც არეგულირებს ხელოვნურ ინტელექტს, რომ აღარაფერი ვთქვათ AI-თან დაკავშირებულ საერთაშორისო კანონებზე, რომლებიც ასევე წინ მიიწევს.

ამ ბინძურ საქმეში მოდის წითელი დროშის AI კანონების მოწოდება.

სანამ კიდევ ცოტა ხორცსა და კარტოფილს შევეხებით ველური და მატყლის მოსაზრებების შესახებ, რომლებიც საფუძვლად უდევს გათვალისწინებული წითელი დროშის ხელოვნური ინტელექტის კანონს, მოდით დავადგინოთ რამდენიმე დამატებითი საფუძვლები ღრმად აუცილებელ თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ AI ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლის (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდია, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას Red Flag AI კანონებზე.

ძირითადი კონცეფცია არის ის, რომ ადამიანებს შეეძლებათ აღმართონ წითელი დროშა, როდესაც მათ სჯეროდათ, რომ ხელოვნური ინტელექტის სისტემა მოქმედებდა ზედმეტად მიკერძოებულ ან დისკრიმინაციულ რეჟიმში. თქვენ არ აღმართავთ ფიზიკურ დროშას თავისთავად, არამედ უბრალოდ იყენებთ ელექტრონულ საშუალებებს თქვენი შეშფოთების გასაცნობად. სქემის ან მიდგომის წითელი დროშის ნაწილი უფრო მეტაფორაა, ვიდრე ფიზიკური განსახიერება.

წარმოიდგინეთ, რომ ითხოვდით საცხოვრებლის სესხს. თქვენ ირჩევთ ონლაინ ბანკინგის სერვისის გამოყენებას სესხის მისაღებად. ზოგიერთი პერსონალური მონაცემების შეყვანის შემდეგ, თქვენ მომენტალურად ელოდებით AI სისტემას, რომელიც გამოიყენება იმისათვის, რომ გადაწყვიტოთ ხართ თუ არა სესხის ღირსი. AI გეუბნებათ, რომ თქვენ უარი თქვეს სესხზე. ახსნა-განმარტების მოთხოვნის შემდეგ, თუ რატომ გითხარით უარი, ტექსტური ნარატივი, როგორც ჩანს, ვარაუდობს, რომ AI იყენებდა ზედმეტ მიკერძოებულ ფაქტორებს გადაწყვეტილების მიღების ალგორითმის ნაწილად.

დროა ავწიოთ წითელი დროშა ხელოვნური ინტელექტის შესახებ.

ზუსტად სად ფრიალებს ეს წითელი დროშა?

ეს მილიონი დოლარის კითხვაა.

ერთი თვალსაზრისი არის ის, რომ ჩვენ უნდა შევქმნათ ეროვნული მონაცემთა ბაზა, რომელიც საშუალებას მისცემს ადამიანებს აღნიშნონ ხელოვნური ინტელექტის შესაბამისი წითელი დროშები. ზოგი ამბობს, რომ ეს ფედერალურმა მთავრობამ უნდა დაარეგულიროს. ფედერალური სააგენტოები პასუხისმგებელნი იქნებიან წითელი დროშების შესწავლაზე და ფართო საზოგადოების დასახმარებლად სიმართლის შესახებ და სავარაუდოდ „ცუდი AI“-სთან გამკლავებაზე, რამაც გამოიწვია წითელი დროშის მოხსენების შედეგები.

ეროვნული წითელი დროშის AI კანონი, როგორც ჩანს, დაარსებული იქნება კონგრესის მიერ. კანონი განსაზღვრავს რა არის ხელოვნური ინტელექტის შესაბამისი წითელი დროშა. კანონი აღწერს, თუ როგორ არის აღმართული ხელოვნური ინტელექტის შემზარავი წითელი დროშები. Და ასე შემდეგ. შეიძლება ასევე მოხდეს, რომ ცალკეულმა სახელმწიფოებმა ასევე აირჩიონ საკუთარი წითელი დროშის AI კანონების შექმნა. შესაძლოა, ისინი ამას აკეთებენ ეროვნული ინიციატივის ნაცვლად, ან ამას აკეთებენ იმ დეტალების გასაძლიერებლად, რომლებიც განსაკუთრებით მიმზიდველია მათი კონკრეტული სახელმწიფოსთვის.

ფედერალური ან მთავრობის მიერ მხარდაჭერილი Red Flag AI პროგრამის კრიტიკოსები ამტკიცებენ, რომ ეს არის ის, რისი გაკეთებაც კერძო ინდუსტრიას შეუძლია და ჩვენ არ გვჭირდება დიდი ძმა, რომ გამოვიდეს წინა პლანზე. ინდუსტრიას შეუძლია შექმნას ონლაინ საცავი, რომელშიც ადამიანებს შეუძლიათ დაარეგისტრირონ AI სისტემების წითელი დროშები. ინდუსტრიის მიერ თვითპოლიციური მოქმედება საკმარისად გაუმკლავდება ამ საკითხებს.

სავარაუდო ინდუსტრიის მიდგომის შესახებ წუხილი ის არის, რომ მას, როგორც ჩანს, მეგობრობის სუნი აქვს. იქნებიან თუ არა ფირმები მზად, დაემორჩილონ კერძო Red Flag AI მონაცემთა ბაზას? ბევრი ფირმა პოტენციურად უგულებელყოფს მონიშნულ წითელ დროშებს მათი ხელოვნური ინტელექტის შესახებ. არ იქნებოდა მკვეთრი კბილები იმისთვის, რომ კომპანიებმა გაუმკლავდნენ შეყვანილ წითელ დროშებს.

ჰეი, კერძო სექტორის მიდგომის მომხრეები ჟღერს, ეს იქნება Yelp-ის მსგავსი ეროვნული სერვისის მსგავსი. მომხმარებლებს შეუძლიათ შეხედონ წითელ დროშებს და თავად გადაწყვიტონ, სურთ თუ არა ბიზნესის კეთება კომპანიებთან, რომლებმაც შეაგროვეს AI-ზე ორიენტირებული წითელი დროშები. ბანკს, რომელიც ათობით წითელ დროშებს იღებდა თავისი ხელოვნური ინტელექტის შესახებ, ყურადღება უნდა მიაქციოს და განაახლოს ხელოვნური ინტელექტის სისტემები, ასე რომ, ლოგიკა მიდის, წინააღმდეგ შემთხვევაში, მომხმარებლები აირიდებდნენ ფირმას, როგორც ჭირი.

მთელი ეს მიდგომა განხორციელდება მთავრობის მიერ თუ ინდუსტრიის მიერ არის მხოლოდ აისბერგის მწვერვალი ეკლიან კითხვებზე, რომელთა წინაშეც დგას შემოთავაზებული წითელი დროშის AI კანონების პოსტულატი.

ჩადექით იმ ფირმის ადგილზე, რომელმაც შეიმუშავა ან იყენებს AI. შესაძლოა, მომხმარებლებმა აღმართონ წითელი დროშები, მიუხედავად იმისა, რომ არ არსებობდა ამის რეალური საფუძველი. თუ ადამიანებს შეეძლოთ თავისუფლად გამოაქვეყნონ წითელი დროშა ხელოვნური ინტელექტის შესახებ, მათ შეიძლება გაუჩნდეთ ცდუნება ამის გაკეთება ახირებულად, ან შესაძლოა შურისძიების მიზნით იმ ფირმის წინააღმდეგ, რომელმაც სხვაგვარად არაფერი დაუშავებია მომხმარებლის მიმართ.

მოკლედ, შეიძლება ბევრი ცრუ დადებითი წითელი დროშა იყოს ხელოვნური ინტელექტის შესახებ.

კიდევ ერთი გასათვალისწინებელია მიღებული წითელი დროშების მასიური ზომა ან სიდიდე. შეიძლება ადვილად იყოს აღმართული მილიონობით მილიონი წითელი დროშა. ვინ მიჰყვება ამ წითელ დროშებს? რა დაჯდება ამის გაკეთება? ვინ გადაიხდის წითელი დროშის შემდგომი ძალისხმევას? და ა.შ.

თუ თქვენ უნდა თქვათ, რომ ვინც დაარეგისტრირებს ან აცნობებს AI-ს შესახებ წითელ დროშას, უნდა გადაიხადოს საფასური, თქვენ შეხვედით ბუნდოვან და მზაკვრულ სფეროში. შეშფოთება ის იქნებოდა, რომ მხოლოდ მდიდრებს შეეძლოთ წითელი დროშების აღმართვა. ეს თავის მხრივ გულისხმობს, რომ გაღატაკებულები ვერ შეძლებენ თანაბრად მონაწილეობას წითელი დროშის აქტივობებში და არსებითად არ ექნებათ ადგილი უარყოფითი ხელოვნური ინტელექტის შესახებ გაფრთხილებისთვის.

ახლა მხოლოდ ერთი დამატებითი გადახვევა, კერძოდ ის, რომ წითელი დროშის მსგავსი კანონები ან სახელმძღვანელო მითითებები ხელოვნური ინტელექტის შესახებ, როგორც ჩანს, ფაქტის შემდეგ ხდება და არა წინასწარ გაფრთხილებად.

წითელი დროშის საგზაო მოძრაობის კანონებს რომ დავუბრუნდეთ, წითელი დროშის გამოყენების აქცენტი იყო თავიდან ავიცილოთ უბედურება. წითელი დროშის ფრიალი უნდა ყოფილიყო მოახლოებული მანქანის წინ. ავტომობილის წინ ყოფნით, პირუტყვს გაფრთხილება ექნება და მათ, ვინც პირუტყვს იცავდნენ, იცოდნენ, რომ სიფრთხილის ზომები უნდა მიეღოთ მალე მისვლის შემაშფოთებელი წყაროს გამო.

თუ ადამიანებს შეუძლიათ მხოლოდ წითელი დროშის აღმართვა ხელოვნური ინტელექტის შესახებ, რომელმაც ერთი შეხედვით უკვე დააზარალა ან შელახა მათი უფლებები, ანდაზური ცხენი უკვე ბეღელიდანაა. ყველაფერი, რისი მიღწევაც ჩანს, არის ის, რომ იმედია, სხვა ადამიანები, რომლებიც ახლა მოდიან, ეცოდინებათ, რომ უფრთხილდებოდნენ AI სისტემის მიმართ. იმავდროულად, ბრალდებულმა უკვე დაზარალდა.

ზოგიერთი ვარაუდობს, რომ შესაძლოა ჩვენ მივცეთ ადამიანებს უფლება აღმართონ წითელი დროშები ხელოვნური ინტელექტის შესახებ ეჭვმიტანილი შეიძლება იყოს მიკერძოებული, მაშინაც კი, თუ მათ არ გამოუყენებიათ AI და არ იყვნენ უშუალოდ ზემოქმედება AI-მ. ამრიგად, წითელი დროშა ფრიალებს ზიანის მიყენებამდე.

დიახ, გიპასუხებთ, თქვენ ნამდვილად აპირებთ ხელოვნური ინტელექტის დაძლევის წითელ დროშებს სრულიად უმართავ და ქაოტურ საქმედ აქციოთ. თუ ვინმეს რაიმე მიზეზით შეუძლია აწიოს წითელი დროშა ხელოვნური ინტელექტის სისტემის შესახებ, მიუხედავად იმისა, რომ არაფერი გაუკეთებია ამ AI-ით, თქვენ დატბორული იქნებით წითელი დროშებით. კიდევ უარესი, თქვენ ვერ შეძლებთ ხორბლის გარჩევას ჭაობიდან. მთელი წითელი დროშის მიდგომა დაინგრევა საკუთარი სიმძიმის ქვეშ, ჩამოიშორებს იდეის სიკეთეს ფლოტსამს და რიფრაფს მთელი გემის ჩაძირვის საშუალებას.

თავბრუდამხვევი და დამაბნეველი.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა წითელი დროშის AI კანონების შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და წითელი დროშის AI კანონები

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

მოდით გამოვსახოთ სცენარი, რომელიც შეიძლება გამოიყენოს წითელი დროშის AI კანონი.

თქვენ ჯდებით AI-ზე დაფუძნებულ თვითმართველ მანქანაში და გსურთ, რომ ავტონომიურმა მანქანამ მიგიყვანოთ ადგილობრივ სასურსათო მაღაზიაში. შედარებით ხანმოკლე მოგზაურობის დროს, ხელოვნური ინტელექტი გადის მარშრუტს, რომელიც, როგორც ჩანს, გარკვეულწილად არასწორია. იმის მაგივრად, რომ პირდაპირ გზას გაუყვეს, ხელოვნური ინტელექტი ნავიგაციას უწევს გზადაგზა ქუჩებს, რაც იწვევს ტარების დროის უფრო მაღალს, ვიდრე ჩვეულებრივ შეიძლება იყოს.

Რა ხდება?

თუ ვივარაუდებთ, რომ თქვენ იხდით თვითმართვადი მანქანის გამოყენებას, შეიძლება ეჭვი გეპაროთ, რომ AI დაპროგრამებული იყო გრძელი მარშრუტის გასატარებლად, რათა სცადოთ მგზავრობის საფასური ან ღირებულება. ყველამ, ვინც ოდესმე აიღო ჩვეულებრივი ადამიანის ტარებით კაბინა, იცის რა ხრიკების შესახებ შეიძლება მოხდეს მრიცხველზე მეტი ცომის მისაღებად. რა თქმა უნდა, იმ ადამიანებს, რომლებსაც აქვთ GPS სმარტფონებზე კაბინაში ან ექვივალენტში ტარებისას, შეგიძლიათ ადვილად დაიჭიროთ ადამიანი მძღოლი, რომელიც, როგორც ჩანს, მოპარულად დადის ზედმეტად გრძელ მარშრუტებზე.

გამოდის, რომ თქვენ გაქვთ კიდევ ერთი საზრუნავი მარშრუტის არჩევასთან დაკავშირებით, რაც ნამდვილად შეგაწუხებთ.

დავუშვათ, მარშრუტი გაკეთდა, რათა თავიდან ავიცილოთ ქალაქის გარკვეული ნაწილები რასობრივი ასპექტების გამო. არის ადამიანის მძღოლების დოკუმენტირებული შემთხვევები, რომლებიც დაიჭირეს ამგვარი არჩევანის გაკეთებაში, იხილეთ ჩემი განხილვა აქ ბმული აქ. შესაძლოა, ხელოვნური ინტელექტი დაპროგრამებულია მის უარყოფითად.

თქვენ გადაწყვიტეთ აღმართოთ წითელი დროშა.

მოდით, განხილვისთვის დავუშვათ, რომ ამოქმედდა წითელი დროშის AI კანონი, რომელიც მოიცავს თქვენს იურისდიქციას. ეს შეიძლება იყოს ადგილობრივი კანონი, სახელმწიფო კანონი, ფედერალური ან საერთაშორისო სამართალი. ჰარვარდის ავტონომიური სატრანსპორტო საშუალებების პოლიტიკის ინიციატივის (AVPI) თანაავტორი ანალიზისთვის ადგილობრივი ხელმძღვანელობის მზარდი მნიშვნელობის შესახებ, როდესაც თემები იღებენ თვითმართვადი მანქანების გამოყენებას, იხ. ბმული აქ.

ასე რომ, თქვენ შედიხართ ონლაინ Red Flag AI მონაცემთა ბაზაში. ინციდენტების მონაცემთა ბაზაში შეიყვანთ ინფორმაციას თვითმართვადი მანქანით მგზავრობის შესახებ. ეს მოიცავს მარშრუტის თარიღსა და დროს, თვითმართვადი მანქანის ბრენდსა და მოდელთან ერთად. შემდეგ თქვენ შედიხართ სანავიგაციო მარშრუტზე, რომელიც საეჭვო ჩანდა და თქვენ ვარაუდობთ ან შესაძლოა პირდაპირ ამტკიცებთ, რომ AI შეიქმნა მიკერძოებული ან დისკრიმინაციული განზრახვით და შესაძლებლობებით.

ჩვენ მოგვიწევს სპეკულირება Red Flag AI კანონის სხვა დეტალებზე, თუ რა მოხდება შემდეგ ამ კონკრეტულ სცენარში. თეორიულად, იქნება დებულება, რომ ვინმემ გადახედოს წითელ დროშას. სავარაუდოდ, ისინი შეეცდებიან აიძულონ ავტომწარმოებელი ან თვითმართვადი ტექნიკური ფირმა, აეხსნათ თავიანთი აზრი წითელ დროშაზე. კიდევ რამდენი ასეთი წითელი დროშაა რეგისტრირებული? რა შედეგები მოჰყვა ამ წითელ დროშებს?

და ასე შემდეგ წავიდოდა.

დასკვნა

ამაზრზენი, ზოგიერთი სკეპტიკოსი მოუწოდებს.

ჩვენ არ გვჭირდება წითელი დროშის AI კანონები, ისინი მკაცრად მოქმედებენ. რაიმე სახის კეთება გააფუჭებს საქმეს, როდესაც საქმე ეხება ხელოვნური ინტელექტის ტემპს და პროგრესს. ნებისმიერი ასეთი კანონი არახელსაყრელი იქნება. თქვენ შექმნით პრობლემას, რომელიც პრობლემას არ წყვეტს. არსებობს AI-სთან გამკლავების სხვა გზები, რომლებიც ცუდია. ბრმად ნუ დაიჭერთ ჩალას, რათა გაუმკლავდეთ მიკერძოებულ AI-ს.

გადაცემის გადაცემისას ჩვენ ყველამ ვიცით, რომ ხარი მებრძოლები იყენებენ წითელ კონცხებს გაბრაზებული ხარის ყურადღების მისაპყრობად. მიუხედავად იმისა, რომ წითელი არის ფერი, რომელსაც ჩვენ ყველაზე მეტად ვუკავშირებთ ამ პრაქტიკას, შეიძლება გაგიკვირდეთ, თუ იცით, რომ მეცნიერები ამბობენ, რომ ხარები არ აღიქვამენ მულეტას წითელ ფერს (ისინი დალტონიკით წითელზე არიან). პოპულარული შოუ მითიბუსტერები ჩაატარა საკმაოდ სახალისო გამოკვლევა ამ საკითხთან დაკავშირებით. კონცხის მოძრაობა მთავარი ელემენტია, ვიდრე არჩეული ფერი.

მათთვის, ვინც გვერდს უვლის Red Flag AI კანონების აუცილებლობას, საპასუხო პრეტენზია არის ის, რომ ჩვენ გვჭირდება რაღაც დრამატული და უტყუარი ტალღოვანი ბუნების, რათა დავრწმუნდეთ, რომ AI დეველოპერები და ფირმები, რომლებიც ახორციელებენ AI-ს, თავს არიდებენ მიკერძოებულ ან ცუდ AI-ს. რომ არა წითელი დროშა, შესაძლოა ფრიალი კონცხი ან, ძირითადად, ნებისმიერი სახის გამაფრთხილებელი მიდგომა შეიძლება იყოს სათანადო განხილვის სფეროში.

ჩვენ ნამდვილად ვიცით, რომ ცუდი AI არსებობს და რომ ბევრად უფრო ცუდი AI იქნება ჩვენი მიმართულებით. არასასურველი ხელოვნური ინტელექტისგან თავის დასაცავად გზების პოვნა გადამწყვეტია. ანალოგიურად, დამცავი რელსების დაყენება, რათა შეაჩერონ ცუდი AI მსოფლიოში მოხვედრა, თანაბრად მნიშვნელოვანია.

ერნესტ ჰემინგუეიმ ცნობილმა თქვა, რომ კურო მებრძოლების გარდა არავინ ცხოვრობს ბოლომდე. ჩვენ უნდა დავრწმუნდეთ, რომ ადამიანებს შეუძლიათ მთელი ცხოვრება იცხოვრონ, მიუხედავად ხელოვნური ინტელექტის ბოროტებისა თუ სიგიჟისა, რომელიც ჩვენზეა გამოცხადებული.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- მიკერძოებული-ალგორითმები-in-autonomous-ai-systems/