ხელოვნური ინტელექტის ეთიკა და ლეგალური ხელოვნური ხელოვნური ინტელექტი შეძრწუნებულია მატყუარა პრეტენზიებით, რომლებიც ცნობილია როგორც ხელოვნური ინტელექტის ეთიკის რეცხვა, რომელიც არის ეთიკური ხელოვნური ინტელექტის დაცვის ცრუ პრეტენზიები, მათ შორის ავტონომიური თვითმართვადი მანქანებისთვის.

მოდით გამოვიკვლიოთ უამრავი გზა, რომლითაც სიტყვების „დაბანა“ და „გარეცხვა“ შეიძლება გაიწელოს და გამოიყენოს სიბრძნის მარგალიტების სხვადასხვა კომუნიკაციისთვის.

მაგალითად, ჩვენ ვიცით, რომ ადამიანები ზოგჯერ წინასწარ გვაფრთხილებენ, რომ არ უნდა გარეცხოთ თქვენი ჭუჭყიანი სამრეცხაო საჯაროდ. ბავშვობაში მახსოვს, რომ მოზარდები ხშირად აფრთხილებდნენ, რომ არასწორად წარმოთქმულმა გამონათქვამმა შეიძლება გამოიწვიოს პირის ღრუს საპნით ამორეცხვა. კიდევ ერთი ხშირად ციტირებული ფრაზა იყო, რომ ყველაფერი, როგორც ჩანს, საბოლოოდ გამოდის სარეცხი.

თუ ღელავდით რაიმეზე, რომელთანაც არ გინდოდათ გქონოდათ ასოცირება, რეკომენდირებული იდეა იყო იმის დანახვა, შეგიძლიათ თუ არა მისგან ხელების დაბანა. რეცხვასთან დაკავშირებული ყველა სახის მოსაზრება, როგორც წესი, ასახულია, მათ შორის, რომ თქვენ შეიძლება მოკლედ დაიბანოთ ან ჩამოიბანოთ. სახიდან კვერცხის დაბანა ძველი ანდაზაა, რომელიც, როგორც ჩანს, ჯერ კიდევ ზოგჯერ ჩნდება საუბრებში.

შედარებით კარგად არის ცნობილი ფერების გამოყენება სარეცხის ვარიაციების წარმოსაჩენად. ამბობენ, რომ ქვითკირის ცნება ჯერ კიდევ 1500-იანი წლებიდან მოდის. გამოთქმულია შეშფოთება წითელ რეცხვასთან, იასამნისფერ რეცხვასთან და ა.შ. მე გაბედავ ვიტყოდი, რომ შესაძლოა greenwashing არის ერთ-ერთი ყველაზე ხშირად გამოყენებული გამოთქმა ამ დღეებში, რომელიც გულისხმობს ვითომ სიღრმის აქტს მდგრადობის რეკლამირებისას და მაინც არ ამტკიცებს მტკიცებულ საუბარს საუბრისას რაიმე მატერიით.

თქვენ შეიძლება არ იცოდეთ რეცხვის ერთ-ერთი უახლესი ვერსიის, კერძოდ, AI Ethics washing-ის შესახებ.

ზოგიერთს ურჩევნია ფრაზების შემცირება ეთიკის რეცხვაზე, თუმცა ამან შეიძლება გამოიწვიოს გარკვეული დაბნეულობა, რადგან ეს ერთი შეხედვით ალტერნატიული ფორმულირება შეიძლება ეხებოდეს ეთიკურზე ორიენტირებულ რეცხვას. ეთიკის რეცხვის კონკრეტული ფორმა, რომელსაც მე განვიხილავ აქ, შედგება AI-ზე ორიენტირებული ეთიკისა და ყველა დაკავშირებული ეთიკური მოსაზრებებისგან. სიცხადისთვის, მინდა შემოგთავაზოთ, რომ Ethics Washing მოიცავს ეთიკური რეცხვის მრავალფეროვნებას, რომელსაც შესაძლოა მცირე ან საერთოდ არაფერი ჰქონდეს საერთო AI-სთან. და რომ AI Ethics washing არის ეთიკის რეცხვის განსაკუთრებული სახეობა, რომელიც მიზნად ისახავს კონკრეტულად ხელოვნური ინტელექტის სფეროს.

ალბათ გაინტერესებთ, რისგან შედგება AI Ethics რეცხვა?

ჩემი ზოგადი განმარტება არის ის, რომ AI ეთიკის რეცხვა შეიძლება განისაზღვროს შემდეგნაირად:

  • ხელოვნური ინტელექტის ეთიკის რეცხვა გულისხმობს ტუჩების მოვლას ან ფანჯრის ჩაცმას ხელოვნური ინტელექტის ეთიკის წესების შესახებ პრეტენზიული მზრუნველობისთვის, მათ შორის, ზოგჯერ არა მხოლოდ ეთიკური AI მიდგომების დაცვას, არამედ იქამდეც კი მიდის, რომ არღვევს ან ამცირებს AI ეთიკის მიდგომებს.

AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

AI ეთიკის რეცხვის სწრაფი მაგალითი შეიძლება იყოს თქვენთვის საილუსტრაციო.

დავუშვათ, ფირმას, რომელიც აწარმოებს ხელოვნური ინტელექტის სისტემას, სურს აცნობოს მსოფლიოს იმის შესახებ, თუ რამდენად დიდი იქნება მათი AI. ფირმა გადაწყვეტს, რომ AI-ის შესახებ პრესისა და სოციალური მედიის დიდი ყურადღების მიქცევის ერთ-ერთი საშუალება იქნება იმის გამოქვეყნება, რომ იგი შექმნილია სრულიად სამართლიანი და დაბალანსებული ხელოვნური ინტელექტის ფუნქციონირებაში. AI მთლიანად სანდოა. ფირმა მკაცრად იცავდა დებულებებს შექმნის ე.წ პასუხისმგებელი AIიხილეთ ჩემი გაშუქება აქ ბმული აქ. მტკიცება არის ის, რომ AI ეთიკის ყველა გაბატონებული პრინციპი ინტეგრალურად იყო გადაჯაჭვული AI სისტემაში.

კარგად ჟღერს!

მხოლოდ ერთი პატარა პრობლემა.

აღმოჩნდა, რომ ფირმას არც ერთი ეს არ გაუკეთებია.

ისინი არ იცავდნენ ხელოვნური ინტელექტის ეთიკის პრინციპებს. თქვეს, რომ გააკეთეს, მაგრამ არ გააკეთეს. ფირმის ხელმძღვანელებმა და მარკეტინგის გუნდმა გადაწყვიტეს, რომ იმის მტკიცება, რომ ისინი მკაცრად იცავდნენ ეთიკური ხელოვნური ინტელექტის მოსაზრებებს, სავარაუდოდ კარგი იქნებოდა ბიზნესისთვის. არ არის საჭირო რეალურად შეასრულოთ შრომისმოყვარეობა იმ შემაშფოთებელი ხელოვნური ინტელექტის ეთიკის მითითებებთან დაკავშირებით, და ამის ნაცვლად უბრალოდ თქვით, რომ თქვენ გააკეთეთ.

თუმცა, ისინი მყისიერად ახერხებენ თავიანთი AI-ის პოპულარიზაციას AI ეთიკის ბანდაგზე გადახტომით.

ადვილი პეიზაჟი.

მაგრამ ეს არის სარისკო გზა და რომელიც რეალურად პოტენციურად დიდ პრობლემებს გამოიწვევს.

ფირმები და ლიდერები, რომლებიც გადაწყვეტენ ყალბად გამოიყენონ ხელოვნური ინტელექტის ეთიკა, როდესაც მათ ცოტა რამ გააკეთეს ეთიკური AI-ს დასაცავად, პოტენციურად ემუქრებათ თავს ბევრი შედეგისთვის. პირველი, თუ ისინი ოდესმე გამოაშკარავდნენ თავიანთი ხელოვნური ინტელექტის ეთიკის სიცრუეს, ისინი საფრთხეს უქმნიან სერიოზულ რეპუტაციას. ისინი იტყუებოდნენ იმის შესახებ, რომ იყვნენ ხელოვნური ინტელექტის ეთიკა. გარდა ამისა, ტყუილში დაჭერა, განურჩევლად იმისა, რომ AI ეთიკას აქვს კავშირი, ასევე აქცევს მათ დამატებით ცხელ წყალში. ეს არის ტყუილის ორი ნაწილი.

მეორეც, მრავალრიცხოვანმა სამართლებრივმა შედეგებმა შეიძლება დააზიანოს ისინი და მათი ფირმა. ერთი ის არის, რომ მათ არ გააკეთეს ის, რაც თქვეს, რომ გააკეთეს და შეიძლება იურიდიულად პასუხისმგებელი იყოს მათი ყალბი პრეტენზიებისთვის. კიდევ ერთი ის არის, რომ მათი ხელოვნური ინტელექტი სავარაუდოდ არღვევს კანონებს, რომლებიც მოიცავს სოციალურად მგრძნობიარე სფეროებს, როგორიცაა არასათანადო მიკერძოების გამოვლენა და დისკრიმინაციული გზებით მოქმედება. იურიდიული საკითხების სია გრძელია და შესაძლოა ფირმა აიძულოს ძვირადღირებულ იურიდიულ ბრძოლებში და შესაძლოა მთელი გემი ჩაძიროს, როგორც ეს იყო.

რატომ ირჩევენ ფირმა და მისი ლიდერები ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებების გამოყენებას?

კარგად, შეიძლება გარკვეულწილად ძვირი დაჯდეს ეთიკური AI პრაქტიკის ჩართვა, თუმცა საპირისპირო არგუმენტი არის ის, რომ ღირებულება, საბოლოო ჯამში, ადვილად გადააჭარბებს AI-ის ჭეშმარიტი და გაძლიერებული კალიბრის სარგებლობას AI ეთიკის მიდგომების დაცვაში. მიუხედავად ამისა, ზოგიერთ ფირმას ურჩევნია თავისი AI რაც შეიძლება მალე გაიაროს, და მოგვიანებით, იფიქრებენ იმაზე, რომ არ განიხილონ ეთიკური AI განვითარების პროცესში.

ძველი ხაზი, როგორც ჩანს, გამართლებულია, რომელიც შედგება ახლა გადამიხადო ან მოგვიანებით გადამიხადო. ზოგიერთი ლიდერი და ფირმა თვლის, რომ ღირს კამათლის გადაგდება და იმის იმედი, რომ მათ არ მოუწევთ გადახდის შემდგომი ფასის გადახდა, როდესაც ისინი აიცილებენ თავიდან აიცილონ გადახდის ახლავე ასპექტები. მე ვიტყოდი, რომ არ არის უფასო ლანჩი, როდესაც საქმე AI ეთიკას ეხება. თქვენ ან აკეთებთ თქვენს ნაწილს, ან თქვენ იღებთ შედეგებს.

ეს არ ნიშნავს იმას, რომ ამ ყველაფერში ბევრი ადგილი არ არის.

ფირმებმა შეიძლება ხელი შეუშალონ ხელოვნური ინტელექტის ეთიკას და შემდეგ შეეცადონ გაზვიადონ, რამდენი გააკეთეს. მათი პოტენციური ვარაუდი არის ის, რომ მათ ექნებათ საკმარისი დაცვა, რათა დაუპირისპირდნენ ნებისმიერ ბრალდებას, რომ ისინი საერთოდ არ აერთიანებდნენ AI ეთიკას. მათ შეუძლიათ მიუთითონ ხელოვნური ხელოვნური ინტელექტის ეთიკის ნახევრად გულგრილი აქტივობები, რამაც შესაძლოა მათ თავი დაანებოს. ამგვარად, დებატები გადაინაცვლებს მათ მიერ AI-ის ეთიკის მცდელობების არ გაკეთების თაობაზე და ამის ნაცვლად ხდება, გააკეთეს თუ არა საკმარისად.

ეს არის არგუმენტი, რომელიც შეიძლება თითქმის უსასრულოდ წავიდეს და AI Ethics-ის გამრეცხვის მიმწოდებელს მანევრირების დიდი ადგილი მისცეს.

უაზრო ასპექტების ნაწილი არის ის, რომ ჯერ კიდევ არ არის შეთანხმებული უნივერსალური და საბოლოოდ განსახორციელებელი სტანდარტები AI ეთიკის შესახებ. მეტრიკის თანმიმდევრული და ყოვლისმომცველი ნაკრების გარეშე, ნებისმიერი დისკუსია იმის შესახებ, იყო თუ არა სათანადოდ დაცული ხელოვნური ინტელექტის ეთიკის დაცვა, იქნება სუსტი და დაბინდული. ფირმა დაჟინებით მოითხოვს, რომ მათ გააკეთეს საკმარისი. აუტსაიდერს ან სხვას, რომელიც ამტკიცებს, რომ ფირმამ საკმარისი არ გააკეთა, ექნება რთული ბრძოლა, რომელიც ასახავს ასეთ წინააღმდეგობას. შეიძლება გაურკვევლობა სუფევდეს.

სანამ ხორცსა და კარტოფილს შევეხებით ველური და მატყლის მოსაზრებებს, რომლებიც ემყარება ხელოვნური ინტელექტის ეთიკის რეცხვას, მოდით ჩამოვაყალიბოთ რამდენიმე დამატებითი საფუძვლები ღრმად ინტეგრალურ თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ ხელოვნური ინტელექტის ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ახლა დავუბრუნდეთ AI ეთიკის რეცხვის თემას.

არსებობს ხელოვნური ინტელექტის ეთიკის რეცხვის ოთხი ძირითადი ვარიანტი, რომელსაც ჩვეულებრივ ვხედავ (ამას ცოტა ხანში აგიხსნით):

1) ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებმაც არ იციან, რომ არიან: ხელოვნური ხელოვნური ინტელექტის ეთიკა იგნორირება ან გაუნათლებლობა ხელოვნური ინტელექტის ან/და ხელოვნური ინტელექტის ეთიკის შესახებ

2) ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებიც მასში მოხვდება: ხელოვნური ინტელექტის ეთიკის რეცხვა უნებლიე გადაცურვით, თუმცა სხვაგვარად ნამდვილია AI ეთიკისა და ხელოვნური ინტელექტის შესახებ

3) ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებიც თხლად იჭიმება: ხელოვნური ინტელექტის ეთიკის რეცხვა მიზანმიმართული განზრახვით, თუმცა მხოლოდ ნაღდად და ზოგჯერ თითქმის საპატიებელი (ან არა)

4) ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებმაც იციან და თავხედურად ყიდიან მას: AI Ethics ასუფთავებს სრულყოფილს და მზაკვრული და ხშირად აღმაშფოთებელი დიზაინით

მე ზოგადად ვარაუდობდი, რომ ოთხი ვარიანტი მერყეობს ყველაზე უდანაშაულოდან ყველაზე დამნაშავემდე, რაც შეეხება ცნობიერებას, თუ რა არის ხელოვნური ინტელექტის ეთიკის რეცხვა. მოდით გავიაროთ ოთხივედან, დავიწყოთ პირველიდან და მივიღოთ გზა საკმაოდ სამარცხვინო მეოთხემდე.

პირველი, თქვენ გაქვთ ისეთები, რომლებიც გარკვეულწილად გაურეცხავია იმით, რომ მათ არ იციან რა არის ხელოვნური ინტელექტის ეთიკა, მათ არ იციან რა არის ხელოვნური ინტელექტის ეთიკის რეცხვა და, ალბათ, არც კი იციან ბევრი რამ ხელოვნური ინტელექტის შესახებ. შეიძლება ითქვას, რომ უცოდინრები ან გაუნათლებლები არიან ამ თემებზე. მათთვის, ისინი ალბათ ახორციელებენ ხელოვნური ინტელექტის ეთიკის რეცხვას და ბრმად და ნეტარებით ვერ აცნობიერებენ, რომ ამას აკეთებენ.

Ეს სამწუხაროა.

ეს შეიძლება განსაკუთრებით ცუდი იყოს, თუ ხელოვნური ინტელექტის ეთიკის რეცხვა ხდება მთავარი ახალი ამბების სააგენტოს ან სოციალური მედიის მაღალი დონის გავლენის ქვეშ. ისინი შესაძლოა ტყუილის კალაპოტით იკვებებოდნენ და ამ სიცრუეს არ ამოწმებდნენ. იმავდროულად, ისინი იყენებენ თავიანთ წვდომას და გავლენას AI ეთიკის სარეცხი პრეტენზიების გასამყარებლად. სამწუხაროა და კიდევ უარესი, რომ ეს ყველაფერი საზოგადოებისთვის ზიანს აყენებს. სირცხვილი მათ, ვინც თავს იტყუებს. მათ გონიერება სჭირდებათ. დაიმახსოვრე, რომ მოტყუებულნი და სულელურად გამოიყურები, ახლო ბიძაშვილები არიან.

შემდეგი თანმიმდევრობით არის AI Ethics სარეცხი, რომელიც არის slipup. წარმოიდგინეთ, რომ ფირმა საკმაოდ კარგად ასრულებდა AI ეთიკის პრინციპებს. ჩვენ შეგვიძლია მივულოცოთ მათ ამის გაკეთება. სამწუხაროდ, დავუშვათ, რომ რაღაც მომენტში ისინი აკეთებენ განცხადებას თავიანთი AI-ის შესახებ, რომელიც კარგად არ არის მხარდაჭერილი AI ეთიკის თვალსაზრისით. თუ ეს არის შედარებით უვნებელი განცხადება ან უნებლიე შეცდომა, ჩვენ შეიძლება მივცეთ მათ გარკვეული თავისუფლება. რა თქმა უნდა, თუ მათ მიერ დასმული პუნქტი ხაზს უსვამს ხაზს, სრიალი არც ისე ადვილია შეუმჩნეველი. არსებობს ცნობილი სტრიქონი, რომელიც სამუდამოდ სჭირდება რეპუტაციის ჩამოყალიბებას, მაგრამ მხოლოდ მცირე მომენტი სჭირდება მის მთლიანად დანგრევას.

ჩვენ შემდეგ შევდივართ ოთხი კატეგორიიდან ბოლო ორში.

ეს ის დამნაშავეები არიან, რომლებმაც სრულად იციან ხელოვნური ინტელექტის ეთიკის რეცხვა და შეგნებულად აშკარა განზრახვით გადაწყვეტენ გამოიყენონ იგი, შესაძლოა, როგორც კორპორატიული სტრატეგიის ნაწილი ან სხვა ღვთაებრივი საშუალებებით. ამ უკანასკნელ ორს შორის მთავარი განსხვავება ისაა, რომ ხელოვნური ინტელექტის ეთიკის სარეცხი შეიძლება იყოს უმნიშვნელო ხასიათის, ან შეიძლება იყოს მნიშვნელოვანი და გადამწყვეტი ხასიათის. თქვენ გაქვთ ისეთები, რომლებიც ირჩევენ ნივთების გაჭიმვას და ოდნავ აწევენ ხაზს. არიან სხვები, რომლებიც მზად არიან AI ეთიკის რეცხვა უკიდურესობამდე მიიტანონ.

თქვენ შეიძლება ფიქრობთ, რომ რა თქმა უნდა, ნებისმიერი ექსტრემალური ხელოვნური ინტელექტის ეთიკის სარეცხი უნდა იყოს აშკარა და რომ ექსტრემისტი დაიჭიროს ხელში ფუნთუშების ქილაში. ყველა დაინახავდა, რომ იმპერატორს ტანსაცმელი არ აქვს. სამწუხაროა, რომ დღეს მსოფლიოში ხელოვნური ინტელექტისა და ხელოვნური ხელოვნური ინტელექტის ეთიკის შესახებ საერთო დაბნეულობაა, საკმაო სიბნელეა, რომ ექსტრემალური AI ეთიკის რეცხვასაც კი შეუძლია უფასო საშვის მიღება.

ეს შეიძლება საკმაოდ შემაშფოთებელი იყოს მათთვის, ვინც სერიოზულად და ფხიზელ აფასებს ხელოვნური ინტელექტის ეთიკის მიმართ. ისინი უყურებენ, თუ როგორ აგდებს ვიღაც სხვა ყველანაირ ნაბიჭვრებს, რაც ძალზედ აშკარაა ხელოვნური ინტელექტის ეთიკის რეცხვაში. ექსტრემისტი მედიის მასიური ყურადღების ცენტრშია. მათ აქვთ თავისი ანდაზის 15 წუთი დიდების. ისინი, ვინც აკეთებენ რეალურ საქმეს და სწორ საქმეს, როდესაც საქმე AI ეთიკას ეხება, შეიძლება სამართლიანად იგრძნონ გაღიზიანება და სამართლიანად აღელვებული, როდესაც AI Ethics-ის რეცხვა ბაზარზე სხვების მიერ უპრობლემოდ ხორციელდება.

ეს შეიძლება თითქმის შევადაროთ წვენსა და დოპინგს, რომელიც ხდება სპორტში. სპორტსმენი, რომელსაც გული და სული აქვს ჩადებული, რომ ბუნებრივად გახდეს უმაღლესი დონის სპორტსმენი, შეიძლება მთლიანად დაცემულ იქნეს, თუ ვინმე მოახერხებს იმავე დონეზე ასპარეზობას და ამას გააკეთებს აკრძალული ეფექტურობის გამაძლიერებელი წამლების გამოყენებით. სხვა სპოილერს უნდა დაუძახო? იქნებ ჩუმად აირჩიო ამ წამლების მიღებაც, ცეცხლთან ბრძოლა? ეს არის თავსატეხი. ჩემი დისკუსიისთვის იმის შესახებ, თუ როგორ ხდება წვენის მიღება ან დოპინგი ხელოვნური ინტელექტის სფეროში, იხ ბმული აქ.

ახლა, როდესაც ჩვენ ცოტათი გავაშუქეთ ხელოვნური ინტელექტის ეთიკის რეცხვის შესახებ, შეგვიძლია შემოგთავაზოთ სხვა დაკავშირებული ფრაზები, რომლებიც თანაბრად არიან იმავე ასპარეზზე.

აქ არის რამდენიმე, რაც შეგვიძლია მოკლედ შევისწავლოთ:

  • AI ეთიკის თეატრი
  • AI ეთიკის შოპინგი
  • AI ეთიკის შეურაცხყოფა
  • AI ეთიკის დაცვა
  • AI Ethics Fairwashing

მოდით მოკლედ განვიხილოთ თითოეული ეს ფრაზები. ყველა არ ეთანხმება იმას, რასაც თითოეული ფრაზა ზუსტად აღნიშნავს, ამიტომ მე გაგიზიარებთ ჩემს ზოგად შთაბეჭდილებებს.

AI ეთიკის თეატრი

ხელოვნური ინტელექტის ეთიკის თეატრი შეიძლება გარკვეულწილად იყოს ხელოვნური ინტელექტის ეთიკის რეცხვის მსგავსი, რადგან იდეა არის AI ეთიკის პრინციპების დაცვა განხილული და საზეიმო გზით. თუ ფირმა, რომელიც ახორციელებს ცირკს ან ხელოვნური ინტელექტის ეთიკის თეატრს, ნამდვილად იცავდა ხელოვნური ინტელექტის ეთიკის პრაქტიკას, შეგიძლიათ აჩვენოთ არგუმენტი, რომ მათ სამართლიანად უნდა შეეძლოთ ამის გაკეთება. მართლაც, შეგიძლიათ კიდევ ამტკიცებდეთ, რომ ეს, იმედია, შთააგონებს სხვებს, ასევე დაემორჩილონ ხელოვნური ინტელექტის ეთიკას.

მეორეს მხრივ, როგორც ჩანს, ხელოვნური ინტელექტის ეთიკის თეატრი ჩვეულებრივ ჭარბობს. საცირკო აქტი, რომელსაც ჰყავთ ყველა ეს პონი და სპილო, შეიძლება გადაჭარბებული იყოს იმაზე, რაც მართლაც იყო გაკეთებული. ეს თავის მხრივ იწყებს ზემოხსენებული AI ეთიკის რეცხვის მეორე, მესამე ან მეოთხე კატეგორიაში შესვლას. არის თუ არა თეატრი უფრო კარგი, ვიდრე ცუდი (როგორიცაა ინსპირაციული), თუ უფრო ცუდი, ვიდრე კარგი (შესაძლოა ხელს უწყობს ხელოვნური ინტელექტის ეთიკის რეცხვას სხვების მიერ), გასარკვევია.

AI ეთიკის შოპინგი

წარმოიდგინეთ, რომ კომპანია აპირებს AI სისტემის შექმნას და გააცნობიეროს, რომ მათ უნდა შეიცავდეს AI ეთიკის ასპექტებს ხელოვნური ინტელექტის განვითარების სასიცოცხლო ციკლის განმავლობაში. AI ეთიკის მრავალი სახელმძღვანელოდან რომელი უნდა გამოიყენონ?

რამდენიმე მათგანის ერთდროულად არჩევა შეიძლება დამაბნეველი იყოს და მათი AI ძალისხმევა ზედმეტად დიდი გახადოს. შანსები არის, რომ განვითარების ძალისხმევა უფრო მეტად დაემორჩილება ხელოვნური ინტელექტის ეთიკის პრაქტიკას, თუ არსებობს შინაგანად მიღებული ერთი ნაკრები, რომელსაც ყველას შეუძლია ადვილად მიმართოს და გააცნობიეროს.

კარგი, ასე რომ, ხელოვნური ინტელექტის ეთიკის პრინციპების ერთობლიობაზე დაშვების ერთ-ერთი საშუალება იქნება მრავალი ხელმისაწვდომიდან მხოლოდ ერთის არჩევა. სხვა იქნება რამდენიმე ნაკრების აღება და მათი გაერთიანების მცდელობა. შერწყმის პრობლემა შეიძლება იყოს ის, რომ თქვენ დახარჯავთ დიდ ძვირფას ენერგიას და დროს დებატებზე, თუ როგორ უკეთ გააერთიანოთ ნაკრები ერთ მთლიან მთლიანობაში. ასეთმა ყურადღებამ შესაძლოა გადაგახადოთ განვითარების პროცესის გაგრძელება, გარდა ამისა, შესაძლოა, ხელოვნური ინტელექტის გუნდი გააღიზიანოს მხოლოდ იმ მწვავე დებატებზე, რომლებიც შესაძლოა მომხდარიყო ხელოვნური ინტელექტის ეთიკის შერწყმის დროს.

საერთო ჯამში, თქვენ ასევე შეგიძლიათ სცადოთ თქვენი ყურადღება მიიპყროთ AI ეთიკის სახელმძღვანელო მითითებების ნაკრებისკენ, რომლის მიღებაც, თქვენი აზრით, ყველაზე მარტივი იქნება. ეს მშვენივრად ჩანდა. რატომ ართულებს ცხოვრებას, ვიდრე ეს ალბათ უკვე არის? იმავე ამოსუნთქვით, დავუშვათ, რომ აირჩევთ ხელოვნური ინტელექტის ეთიკის კომპლექტს, რომელიც წყალშია. თქვენ მიზნად ისახავთ მინიმუმის გაკეთებას, რისი გაკეთებაც შეგიძლიათ. გსურს თავი მაღლა აიწიო, რომ დაემორჩილე ხელოვნური ინტელექტის ეთიკის პრინციპებს, იმავდროულად ფარულად ირჩევ მინიმალისტურს ან, შესაძლოა, უფრო ნაკლებს.

ზოგიერთი ამას მოიხსენიებს, როგორც AI ეთიკის შოპინგი.

თქვენ ყიდულობთ, რათა იპოვოთ AI ეთიკის პრინციპები, რომლებიც მოგცემთ უმარტივეს გზას იმის მტკიცებისთვის, რომ იცავთ AI ეთიკის. ამას აქვს აზრი იმით, რომ რატომ უნდა გააკეთოთ იმაზე მეტი, ვიდრე საჭიროა? თუმცა, ეს შეიძლება დაამახინჯოს ხელოვნური ინტელექტის ეთიკის წვრილად დაფარული ნაკრების პოვნის და მასზე მიმაგრებით, თითქოს ის ძლიერი და კეთილსინდისიერია, როდესაც რეალობა ის არის, რომ ის იშვიათი და მარგინალურია.

AI Ethics Bashing

ხელოვნური ინტელექტის ეთიკის შელახვის ცნება გარკვეულწილად მარტივია.

თქვენ არღვევთ ან ამცირებთ ხელოვნური ინტელექტის ეთიკის პრინციპების ბუნებას და გამოყენებას. შეურაცხყოფის გავრცელებული ფორმა იქნება დაჟინებული მტკიცება, რომ ხელოვნური ინტელექტის ეთიკის სახელმძღვანელო პრინციპები უსარგებლოა და არ ღირს იმ ქაღალდზე, რომელზეც დაბეჭდილია. კიდევ ერთი პოპულარული შეურაცხყოფა არის ის, რომ AI ეთიკა არის აკადემიური სავარჯიშო, რომელსაც არაფერი აქვს საერთო რეალურ სამყაროსთან. არსებობს მოწოდებაც კი, რომ ხელოვნური ინტელექტის ეთიკა ცუდია, სავარაუდოდ, იმიტომ, რომ ის ყალბი საფარს აძლევს მათ, ვისაც სურს ჩანდეს, თითქოს ისინი სწორად ავითარებენ AI-ს. ამ გზით, ხელოვნური ინტელექტის ეთიკა არის დაფარვის სქემა.

მე არ ვეუბნები ხელოვნური ინტელექტის ეთიკის შეურაცხყოფის ფენომენს და გირჩევთ ნახოთ ჩემი გაშუქება იმის შესახებ, თუ რატომ არის ეს შეურაცხყოფა არასწორი ან, სულ მცირე, არასწორი, იხ. ბმული აქ.

AI ეთიკის დაცვა

ხელოვნური ინტელექტის ეთიკის დაცვა ჩვეულებრივ ეხება იმ აზრს, რომ AI ეთიკა არის მატყუარა ფარი, რომელსაც შეუძლია დამალოს ან დაჩრდილოს ცუდი მსახიობები და ცუდი AI ეთიკის ძალისხმევა. მე ამ დისკუსიის განმავლობაში არაერთხელ მითქვამს ამის შესახებ.

არსებობს მუდმივი შეშფოთება, რომ ზოგიერთი ამაყად აჩვენებს, რომ ისინი იყენებენ ხელოვნური ინტელექტის ეთიკას და საფუძვლიანი რეალობა არის ის, რომ ისინი თითქმის არაფერს აკეთებენ. მათთვის, ვინც ამბობს, რომ მთლიანად უნდა მოვიშოროთ ფარი, მე მიდრეკილება ვუპასუხო, რომ ეს ბავშვის აბაზანის წყლით გადაგდებას ჰგავს.

AI ეთიკის Fairwashing

სამართლიანობა მნიშვნელოვანია.

შეიძლება გახსოვთ, რომ როდესაც მე განვიხილავდი ხელოვნური ინტელექტის ეთიკის პრინციპებს, ერთ-ერთი ყველაზე ხშირად იდენტიფიცირებული ხელოვნური ინტელექტის ეთიკის სახელმძღვანელო არის მცდელობა იმის უზრუნველსაყოფად, რომ AI არის სამართლიანი ან ავლენს სამართლიანობის მსგავსებას. ამან წარმოშვა „სამართლიანი რეცხვის“ გამომწვევი ფრაზა, რომელიც ზოგჯერ გამოიყენება იმის გასახსენებლად, რომ ხელოვნური ინტელექტის სისტემა სამართლიანია, როდესაც ის შეიძლება არ იყოს სამართლიანი ან არსებობს მცირე მტკიცებულება იმისა, რომ ის სამართლიანია. ეს არის ხელოვნური ინტელექტის ეთიკის ერთგვარი შეხამება იმ კონცეპტუალური განხილვით, რომ ხელოვნური ინტელექტი სამართლიანია, ამიტომ ამის გამოხატვის მოკლე გზა არის იმის თქმა, რომ არსებობს პოტენციური Fairwashing რომ შეიძლება მოხდეს. მკვლევარები ამ საკითხს ასე აღწერენ: „კერძოდ, მანქანური სწავლების სამართლიანობის კონცეფციების მზარდი მნიშვნელობის გამო, კომპანიას შეიძლება ჰქონდეს ცდუნება განახორციელოს სამართლიანი რეცხვა, რაც ჩვენ განვსაზღვრავთ, როგორც ცრუ წარმოდგენას, რომ კომპანიის მიერ გამოყენებული სასწავლო მოდელები ისინი სამართლიანები არიან, მაშინ როცა შეიძლება ასე არ იყოს“ (ულრიხ აივოჯის, ჰირომი არაის, ოლივიე ფორტინოს, სებასტიენ გამბსის, სატოში ჰარას და ალენ ტეპის მიერ „Fairwashing: The Risk Of Rationalization“).

არსებობს კიდევ ერთი ცვლილება ხელოვნური ინტელექტის ეთიკის რეცხვის შესახებ, რომელიც უნდა გაითვალისწინოთ.

გარკვეულწილად მაკროსკოპული მასშტაბით, არსებობს გამოხატული შეშფოთება, რომ ხელოვნური ინტელექტის ეთიკის აღზევება არის ფარი ან საფარი რაღაც უფრო დიდებულისთვის. შესაძლოა იცოდეთ, რომ მრავალი ძალისხმევა მიმდინარეობს ხელოვნური ინტელექტის მართვის შესახებ კანონების დასამკვიდრებლად. ეს ხდება მთელ მსოფლიოში. მტკიცე მცდელობები მიმდინარეობს ევროკავშირში, რომელიც მე გავაშუქე ჩემს სვეტებში, ისევე როგორც აშშ-ში, რომელიც მიმდინარეობს ბევრ ქვეყანაში.

ზოგიერთი ვარაუდობს, რომ ხელოვნური ინტელექტის ეთიკის გამოყენება შეიძლება იყოს ამ კანონების ამოქმედების თავიდან აცილების საშუალება. კომპანიებს შეუძლიათ, როგორც ჩანს, დამაჯერებლად ამტკიცებენ, რომ ახალი კანონები არ არის საჭირო, რადგან ხელოვნური ინტელექტის ეთიკის გამოყენება შესაფერისად ეხება ხელოვნური ინტელექტის ნებისმიერ საკითხს. ხელოვნური ინტელექტის ეთიკა, როგორც წესი, კლასიფიცირებულია, როგორც „რბილი კანონის“ ფორმა და ჩვეულებრივ ნებაყოფლობითია (ყველა დანარჩენი თანაბარია). კანონები ხელოვნური ინტელექტის შესახებ კლასიფიცირებულია, როგორც ეგრეთ წოდებული „მყარი კანონები“ და არ არის ნებაყოფლობითი კონსტრუქციის (ზოგადად).

ჩვეულებრივ ამბობენ, რომ ფირმები უპირატესობას ანიჭებენ რბილ კანონებს მძიმე კანონებზე, რაც მათ უფრო მეტ თავისუფლებას და თავისუფლებას ანიჭებს. ყველა არ ეთანხმება ამ აზრს. ზოგიერთი ამბობს, რომ რბილი კანონები ფირმებს საშუალებას აძლევს თავი აარიდონ შეუსაბამო ძალისხმევას და ერთადერთი გზა მათზე მკაცრი კანონების მიღებაა. სხვები აღნიშნავენ, რომ ფირმები ხანდახან ამჯობინებენ მკაცრ კანონებს, რაც უფრო მკაფიო სათამაშო მოედანს უზრუნველყოფს. მკაცრი კანონები პოტენციურად ყველა მოთამაშეს შეუძლია დააკმაყოფილოს ერთი და იგივე წესები. რბილი კანონები იძლევა ერთგვარ არჩევანს, რაც ქმნის დაბნეულობას და არღვევს სათამაშო მოედანს.

აი, როგორ ასახავს კვლევა ხელოვნური ინტელექტის ეთიკის რეცხვას ამ გრანდიოზული ხედვის ფონზე, თუ რა შეიძლება მოხდეს: „ერთის მხრივ, ტერმინი გამოიყენეს კომპანიებმა, როგორც მისაღები ფასადი, რომელიც ამართლებს დერეგულირებას, თვითრეგულირებას ან ბაზრის მმართველობას, და სულ უფრო მეტად იდენტიფიცირებულია ტექნოლოგიური კომპანიების მიერ ეთიკური ქცევის გარეგნობის პირადი ინტერესების მიღებით. ჩვენ ვუწოდებთ ტექნიკური კომპანიების მიერ ეთიკური ენის ასეთ მზარდ ინსტრუმენტალიზაციას „ეთიკის რეცხვას“. ხელოვნური ინტელექტის ეთიკის საბჭოების გარდა, ეთიკის რეცხვა მოიცავს ეთიკური სამუშაოს ღირებულების გამარტივების სხვა მცდელობებს, რომლებიც ხშირად ქმნიან კორპორატიული კომუნიკაციის სტრატეგიის ნაწილს: შიდა მორალური ფილოსოფოსების დაქირავება, რომლებსაც მცირე ძალა აქვთ კომპანიის შიდა პოლიტიკის ჩამოყალიბებაში; ფოკუსირება ჰუმანურ დიზაინზე – მაგ., მომხმარებელთა დაძაბვა, რომ შეამცირონ აპებზე დახარჯული დრო – ნაცვლად იმისა, რომ გაუმკლავდეთ რისკებს, რომლებიც თან ახლავს თავად პროდუქტების არსებობას; „სამართლიანი“ მანქანათმცოდნეობის სისტემებზე მუშაობის დაფინანსება, რომელიც პოზიტიურად ფარავს ღრმა კითხვებს ამ სისტემების ფართო ზემოქმედების შესახებ საზოგადოებაზე“ (Elettra Bietti, „Ethics Washing to Ethics Bashing: A View on Tech Ethics from Within Moral Philosophy,“ სამართლიანობის, ანგარიშვალდებულებისა და გამჭვირვალობის შესახებ 2020 წლის კონფერენციის მასალები).

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რაიმეს აშუქებს ხელოვნური ინტელექტის ეთიკის რეცხვის შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ხელოვნური ინტელექტის ეთიკის რეცხვა

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

თქვენ ნამდვილად გინახავთ სათაურები, რომლებიც აცხადებენ გაბედულ მტკიცებას, რომ აქ არის ავტონომიური მანქანები და თვითმართვადი მანქანები უკვე დახვეწილია. როგორც წესი, იგულისხმება, რომ ავტონომიის ასპექტები მოგვარებულია. ჩვენ მივიღეთ ხელოვნური ინტელექტი, რომელიც ისეთივე კარგია, როგორც ადამიანების მძღოლები, შესაძლოა ადამიანებზე უკეთესიც კი.

მხოლოდ იმისთვის, რომ ბუშტი ამოიღოს და ჩანაწერი გაასწორო, ეს ჯერ ასე არ არის.

ჩვენ ვიცით, რომ ადამიანები მძღოლები შეერთებულ შტატებში ყოველწლიურად ხვდებიან დაახლოებით 2.5 მილიონ ავტოავარიაში, რაც ყოველწლიურად იწვევს 40,000-ზე მეტ სიკვდილს, იხილეთ ჩემი სტატისტიკა აქ. ბმული აქ. ნებისმიერი ერთი შეხედვით გონივრული მსგავსება მიესალმება ხელოვნური ინტელექტის მართვის სისტემებს, თუ მათ შეეძლოთ ავტომობილის მართვა ისევე უსაფრთხოდ ან უფრო უსაფრთხოდ, ვიდრე ადამიანები მძღოლები. გარდა ამისა, იმედი გვაქვს, რომ ჩვენ განვიცდით მობილურობას ყველასთვის, რაც საშუალებას მისცემს მათ, ვინც დღეს შეზღუდულია მობილურობით, ჰქონდეთ ხელოვნური ინტელექტის მქონე მანქანები, რომლებიც უზრუნველყოფენ მზა წვდომას მოსახერხებელი და იაფი ტრანსპორტისთვის.

ზოგიერთი ექსპერტი შოკისმომგვრლად გადის "ზედმეტ მილზე" და სამარცხვინო პრეტენზიას აცხადებს, რომ თვითმართვადი მანქანები შეუქცევადი იქნება. ეს არის აბსოლუტურად უაზრო და სრულიად მცდარი. კიდევ უფრო უარესი, ეს არის გაზრდილი მოლოდინების ჩამოყალიბება, რომელთა შესრულებაც შეუძლებელია. თუ თქვენ შეძლებთ დაარწმუნოთ ხალხი, რომ თვითმართვადი მანქანები ავარიული არ არის, ისინი ღრიალებენ და აოცებენ იმ მომენტს, როდესაც თვითმართვასთან დაკავშირებული ავარიის თუნდაც ერთი შემთხვევა მოხდება. ჩემი დეტალური ახსნისთვის, თუ რატომ არის უშედეგო პრეტენზია უაზრო და საზოგადოებისთვის ზიანის მომტანი, იხილეთ ჩემი გაშუქება: ბმული აქ.

ყველა ამ სახის გაზვიადება ან სხვა სიცრუე შეიძლება ითქვას, რომ დაფარულია ხელოვნური ინტელექტის ეთიკის პრინციპებით, რადგან თუ თქვენ იცავთ ხელოვნური ინტელექტის ეთიკის პრინციპებს, არ უნდა აკეთოთ ასეთი სახის ველური და დაუსაბუთებელი პრეტენზიები. ამრიგად, ეს მცდარი წარმოდგენები და სიცრუე ადვილად შედის AI ეთიკის რეცხვის რუბრიკაში.

AI ეთიკის რეცხვა, რომელიც დაკავშირებულია ავტონომიურ სატრანსპორტო საშუალებებთან და თვითმართველ მანქანებთან, ფართოდ და უხვად არის, სამწუხაროდ. ინტერნეტის შემთხვევითი და შორი ძიების საშუალებით გაჩვენებთ მილიონობით ამაზრზენ და დაუსაბუთებელ პრეტენზიას ავტონომიური მანქანების შესახებ. ეს არ შემოიფარგლება მხოლოდ იმ ადამიანებით, რომლებიც საკუთარ ბლოგებზე არიან. მსხვილი საინფორმაციო სააგენტოები ამ საქმეში არიან ჩართული. მსხვილი კომპანიები ამ საქმეში არიან ჩართული. სტარტაპები იჭერენ ამ საქმეს. ვენჩურული კაპიტალის ფირმები ამაში ჩაეჭიდებიან. აქციონერები ამაში ჩაეჭიდებიან. Და ასე შემდეგ.

პირქუში მაღალი დარწმუნებით ვიტყოდი, რომ ხელოვნური ინტელექტის ეთიკის რეცხვა ამ კონკრეტულ დომენში ყოვლისმომცველია.

AI ეთიკის სარეცხი ფრაზის სპეციალიზებული ვარიანტი, რომელიც გულისხმობს ავტონომიას და ავტონომიურ სისტემებს, არის ავტონომიის ცნება. აქ არის ავტორი ლიზა დიქსონი, რომელიც ასახავს ამას: ”ავტომატიზაციისთვის ადაპტირებული, autonowashing განისაზღვრება, როგორც დაუდასტურებელი ან შეცდომაში შემყვანი პრეტენზიების წარმოდგენის პრაქტიკა, რომელიც არასწორად ასახავს ადამიანის ზედამხედველობის შესაბამის დონეს, რომელიც მოითხოვს ნაწილობრივ ან ნახევრად ავტონომიურ პროდუქტს, სერვისს ან ტექნოლოგიას. Autonowashing ასევე შეიძლება გავრცელდეს სრულად ავტონომიურ სისტემებზე, იმ შემთხვევებში, როდესაც სისტემის შესაძლებლობები გადაჭარბებულია იმაზე, რაც შეიძლება საიმედოდ შესრულდეს ყველა პირობებში. Autonowashing რაღაც უფრო ავტონომიურად გამოიყურება, ვიდრე სინამდვილეშია. Autonowashing-ის მიზანია განასხვავოს და/ან შესთავაზოს სუბიექტს კონკურენტული უპირატესობები ზედაპირული სიტყვიერების გამოყენებით, რომელიც მიზნად ისახავს სისტემის საიმედოობის დონის გადმოცემას, რომელიც არასწორად შეესაბამება სისტემის ტექნიკურ შესაძლებლობებს. Autonowashing ასევე შეიძლება მოხდეს უნებლიეთ, როდესაც ერთი გაუცნობიერებლად იმეორებს მცდარ ინფორმაციას ავტომატური სისტემის შესაძლებლობების შესახებ მეორეს. Autonowashing არის დეზინფორმაციის ფორმა და ის, გარკვეული გაგებით, ვირუსულია“ (ტრანსპორტის კვლევის ინტერდისციპლინური პერსპექტივა, "ავტონორეცხვა: ავტომობილების ავტომატიზაციის მწვანე რეცხვა", 2020).

შეგახსენებთ, რომ ჩემი ადრინდელი მითითებაა, არსებობს ხელოვნური ინტელექტის ეთიკის რეცხვის ოთხი ძირითადი ვარიანტი, რომელსაც ჩვეულებრივ ვხედავ და ისინი ადვილად გვხვდება ავტონომიური მანქანების სფეროშიც:

  • AI ეთიკის სარეცხი საშუალებები, რომლებმაც არ იციან, რომ არიან: ხელოვნური ინტელექტის ეთიკის რეცხვა უცოდინრობით ან გაუნათლებლობით ხელოვნური ინტელექტის ან/და ხელოვნური ინტელექტის ეთიკის შესახებ ავტონომიურ მანქანებში
  • ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებიც მასში მოხვდება: ხელოვნური ინტელექტის ეთიკის რეცხვა უნებლიე ცურვით, თუმცა სხვაგვარად ნამდვილია AI ეთიკის და AI ავტონომიურ მანქანებში
  • ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებიც თხლად იჭიმება: ხელოვნური ინტელექტის ეთიკის რეცხვა მიზანმიმართული განზრახვით, თუმცა მხოლოდ ცბიერით და ზოგჯერ თითქმის საპატიებელი (ან არა) ავტონომიურ მანქანებში
  • ხელოვნური ინტელექტის ეთიკის სარეცხი საშუალებები, რომლებმაც იციან და თავხედურად ყიდიან მას: ხელოვნური ინტელექტის ეთიკა რეცხავს სრულყოფილ და მზაკვრულ და ხშირად აღმაშფოთებელ დიზაინს ავტონომიურ მანქანებში

გარდა ამისა, თქვენ შეგიძლიათ მარტივად იხილოთ ხელოვნური ინტელექტის ეთიკის სხვა ტიპის რეცხვის შემთხვევები და მასთან დაკავშირებული სარეცხი დაავადებები ავტონომიის სფეროში, მათ შორის:

  • AI ეთიკის თეატრი ავტონომიურ მანქანებსა და თვითმართველ მანქანებში
  • AI ეთიკის შოპინგი ავტონომიურ მანქანებსა და თვითმართველ მანქანებში
  • AI ეთიკის შეურაცხყოფა ავტონომიურ მანქანებსა და თვითმართველ მანქანებში
  • AI ეთიკის დაცვა ავტონომიურ მანქანებსა და თვითმართველ მანქანებში
  • AI Ethics Fairwashing ავტონომიურ მანქანებსა და თვითმართველ მანქანებში

დასკვნა

AI ეთიკის რეცხვა ჩვენს გარშემოა. ჩვენ მასში ვბანაობთ.

ვიმედოვნებ, რომ თქვენი ყურადღების მიქცევით ამ სერიოზულ და ერთი შეხედვით დაუსრულებელ საკითხზე, თქვენ შეძლებთ გაიგოთ, როდის გარეცხავთ AI Ethics-ს. შეიძლება ძნელი გასარკვევი იყოს. ისინი, ვინც ამუშავებენ ხელოვნური ინტელექტის ეთიკის რეცხვას, შეიძლება იყოს ძალიან ჭკვიანი და მზაკვრული.

ერთი მოსახერხებელი ხრიკი არის სარეცხში შეურიოთ ცოტა სიმართლე, რომელიც ერთმანეთში აირევა სიცრუესა და გაზვიადებას. იმის გამო, რომ თქვენ შეიძლება ადვილად აღმოაჩინოთ და დაეთანხმოთ ჭეშმარიტ ნაწილს, თქვენ პოტენციურად სჯერათ, რომ სხვა მცდარი ან მატყუარა ნაწილი ასევე მართალია. მოტყუების კარგი და საზიზღარი ფორმა.

მოდი დავარქვათ მას ღორები.

შეგვიძლია თუ არა პირის დაბანა მათ, ვინც პირდაპირ ახორციელებს ხელოვნური ინტელექტის ეთიკის რეცხვას?

ბოდიშს გიხდით იმის შესახებ, რომ ეს არც ისე მარტივად კეთდება, როგორც შეიძლება მოისურვოთ. როგორც ითქვა, მხოლოდ იმის გამო, რომ ხელოვნური ინტელექტის ეთიკის რეცხვის დაჭერა და გამოძახება შეიძლება იყოს შრომატევადი და ზოგჯერ ისეთივე იყოს, როგორც სიზიფემ მძიმე ლოდი გორაკზე ასწია, ჩვენ უნდა ვეცადოთ.

თუ თქვენ არ იცოდით, ზევსმა დაავალა გაეკეთებინა ეს ლოდი, რომელიც მარადისობისკენ უბიძგებდა და უზარმაზარი კლდე სამუდამოდ დაბრუნდებოდა, როგორც კი ძალისხმევა მწვერვალზე მიაღწევდა. ვფიქრობ, ჩვენ იგივე გაჭირვების წინაშე ვდგავართ, როდესაც საქმე ეხება ხელოვნური ინტელექტის ეთიკის რეცხვას.

ყოველთვის იქნება მეტი AI Ethics სარეცხი, რომელიც უნდა გაირეცხოს. ეს არის უდავო გარანტია, არაფრის სასიხარულო არაფერია.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- სარეცხი-რა-ცრუ-პრეტენზია-ეთიკური-ის-მათ შორის-ავტონომიური-თვითმართვის-მანქანებისთვის/