აქ არის ძველი სტრიქონი, რომელიც დარწმუნებული ვარ, ადრე გსმენიათ.

ერთის ცოდნას სჭირდება.

თქვენ შეიძლება ვერ გააცნობიეროთ, რომ ეს არის გამოთქმა, რომელიც შეიძლება 1900-იანი წლების დასაწყისამდე მივიჩნიოთ და, როგორც წესი, გამოიყენებოდა ბოროტმოქმედთა მოხსენიებისას (ჩამჭრელ ფრაზის სხვა ვარიაციები უფრო შორს არის, მაგალითად, 1600-იან წლებში). მაგალითი იმისა, თუ როგორ შეიძლება გამოიყენებოდეს ეს გამოთქმა, გულისხმობს მოსაზრებას, რომ თუ ქურდის დაჭერა გსურთ, ამისათვის უნდა გამოიყენოთ ქურდი. ეს გვიჩვენებს მტკიცებას, რომ ადამიანს სჭირდება ერთის ცოდნა. ბევრმა ფილმმა და სატელევიზიო შოუმ გამოიყენა ბრძენი სიბრძნის ეს სასარგებლო ნაჭერი, ხშირად ასახავს, ​​რომ თაღლითის დასაკავებლად ერთადერთი ეფექტური საშუალება იყო თანაბრად კორუმპირებული თაღლითის დაქირავება დამნაშავეების დასადევნებლად.

გადაცემის გადაცემისას, ზოგიერთმა შეიძლება გამოიყენოს იგივე ლოგიკა და ამტკიცებს, რომ შესაფერისი გზა იმის გასარკვევად, განასახიერებს თუ არა ვინმე არასათანადო მიკერძოებას და დისკრიმინაციულ რწმენას, იქნება ვინმეს პოვნა, რომელიც უკვე ფლობს ასეთ ტენდენციებს. სავარაუდოდ, ადამიანი, რომელიც უკვე სავსეა მიკერძოებით, შეძლებს უფრო ადვილად იგრძნოს, რომ ეს სხვა ადამიანი ასევე სავსეა ტოქსიკურობით. კიდევ ერთხელ, ადამიანს სჭირდება იმის ცოდნა, რომ ის არის აღიარებული მანტრა.

თქვენი თავდაპირველი რეაქცია მიკერძოებული ადამიანის გამოყენების შესაძლებლობაზე სხვა მიკერძოებული ადამიანის გამოსავლენად შეიძლება იყოს სკეპტიციზმი და ურწმუნოება. არ შეგვიძლია გავარკვიოთ, აქვს თუ არა ვინმე არასასურველ მიკერძოებას მხოლოდ მათი შესწავლით და არ უნდა მივმართოთ სხვა მსგავსი ბუნების პოვნას? უცნაურად გამოიყურება მიზანმიმართულად მიკერძოებული ვინმეს აღმოჩენა, რათა გამოავლინოს სხვები, რომლებიც ასევე ტოქსიკურად მიკერძოებულნი არიან.

ვფიქრობ, ეს ნაწილობრივ დამოკიდებულია იმაზე, მზად ხართ თუ არა დაეთანხმოთ სავარაუდო რეფრენს, რომლის ცოდნაც საჭიროა. გაითვალისწინეთ, რომ ეს არ ნიშნავს იმას, რომ ქურდის დაჭერის ერთადერთი გზა მოითხოვს, რომ თქვენ მხოლოდ და ყოველთვის გამოიყენოთ ქურდი. შეიძლება გონივრულად მოგეჩვენოთ, რომ ამტკიცებთ, რომ ეს მხოლოდ დამატებული გზაა, რომლის სათანადოდ გათვალისწინებაც შეიძლება. შესაძლოა, ხანდახან მზად ხართ გაერთოთ ქურდის დასაჭერად ქურდის გამოყენების შესაძლებლობით, მაშინ როცა სხვა გარემოებებმა შეიძლება ეს გაუგებარი ტაქტიკა გახადოს.

გამოიყენეთ სწორი ინსტრუმენტი სწორი პარამეტრისთვის, როგორც ამბობენ.

ახლა, როდესაც მე ჩამოვაყალიბე ეს საფუძვლები, ჩვენ შეგვიძლია გადავიდეთ ამ ზღაპრის ალბათ შემაშფოთებელ და თითქოს შოკისმომგვრელ ნაწილში.

მზად ხართ?

ხელოვნური ინტელექტის სფერო აქტიურად იცავს იმავე პრინციპს, რომლის ცოდნაც ხანდახან სჭირდება, განსაკუთრებით იმ შემთხვევაში, როდესაც ცდილობს გამოავლინოს AI, რომელიც არის მიკერძოებული ან დისკრიმინაციული გზით. დიახ, დამაბრმავებელი იდეა არის ის, რომ ჩვენ შეიძლება განზრახ გვსურს შეგვექმნა ხელოვნური ინტელექტი, რომელიც არის სრულად და დაუფარავად მიკერძოებული და დისკრიმინაციული, რათა გამოვიყენოთ ეს, როგორც საშუალება აღმოვაჩინოთ და აღმოვაჩინოთ სხვა AI, რომელსაც აქვს იგივე ტოქსიკურობის მსგავსი. როგორც მომენტში დაინახავთ, ამ საკითხს საფუძვლად უდევს სხვადასხვა შემაშფოთებელი AI ეთიკის საკითხი. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მთლიანი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ვფიქრობ, თქვენ შეგიძლიათ გამოხატოთ ტოქსიკური ხელოვნური ინტელექტის გამოყენება სხვა ტოქსიკური ხელოვნური ინტელექტის გასაგრძელებლად, როგორც ანდაზური ცეცხლთან ბრძოლის კონცეფცია. ან, როგორც უკვე ხაზგასმულია, შეიძლება გულმოდგინედ მივმართოთ იმ მტკიცებას, რომ ადამიანს სჭირდება ერთის ცოდნა.

ყოვლისმომცველი კონცეფცია არის ის, რომ ვიდრე უბრალოდ ვცდილობდეთ გავარკვიოთ, შეიცავს თუ არა მოცემული ხელოვნური ინტელექტის სისტემა ზედმეტ მიკერძოებას ჩვეულებრივი მეთოდების გამოყენებით, შესაძლოა ჩვენც უნდა ვეძიოთ ნაკლებად ჩვეულებრივი საშუალებების გამოყენება. ერთ-ერთი ასეთი არატრადიციული საშუალება იქნება ხელოვნური ინტელექტის შემუშავება, რომელიც შეიცავს ყველა ცუდ მიკერძოებასა და სოციალურად მიუღებელ ტოქსიკურობას და შემდეგ ამ AI-ს გამოყენებას სხვა AI-ის აღმოსაფხვრელად, რომელსაც აქვს იგივე ცუდი მიდრეკილება.

როდესაც ამას სწრაფად დაფიქრდებით, ეს, რა თქმა უნდა, სავსებით გონივრული ჩანს. ჩვენ შეგვიძლია მიზნად დავისახოთ ხელოვნური ინტელექტის შექმნა, რომელიც მაქსიმუმ ტოქსიკურია. შემდეგ ეს ტოქსიკური AI გამოიყენება სხვა ხელოვნური ინტელექტის გამოსავლენად, რომელსაც ასევე აქვს ტოქსიკურობა. მაშინ გამოვლენილი „ცუდი“ ხელოვნური ინტელექტის გამო, ჩვენ შეგვიძლია გავუმკლავდეთ მას ტოქსიკურობის გაუქმებით, ხელოვნური ინტელექტის მთლიანად გათიშვით (იხ. ეს ბმული აქ), ან AI-ის დაპატიმრება (იხ ეს ბმული აქ), ან გააკეთე ის, რისი გაკეთებაც შესაძლებელია.

კონტრარგუმენტი არის ის, რომ ჩვენ უნდა გამოვიკვლიოთ, რომ ჩვენ განზრახ და ნებით ვიგონებთ ხელოვნურ ინტელექტს, რომელიც არის ტოქსიკური და სავსეა მიკერძოებით. ეს არის ბოლო რამ, რაც ჩვენ ოდესმე უნდა გავითვალისწინოთ, ზოგიერთები მოუწოდებენ. ფოკუსირება მოახდინე ხელოვნური ინტელექტის შექმნაზე, რომელიც მთლიანად სიკეთისგან შედგება. ნუ ფოკუსირდებით ხელოვნური ინტელექტის შემუშავებაზე, რომელსაც აქვს არასათანადო მიკერძოების ბოროტება და ნარჩენები. ამგვარი დევნის ცნება ზოგიერთისთვის საზიზღარი ჩანს.

ამ საკამათო ძიებასთან დაკავშირებით უფრო მეტი ეჭვებია.

შესაძლოა, ტოქსიკური ხელოვნური ინტელექტის შემუშავების მისია მხოლოდ გაამხნევებს მათ, ვისაც სურს შექმნას ხელოვნური ინტელექტი, რომელსაც შეუძლია საზოგადოების დაქვეითება. თითქოს ჩვენ ვამბობთ, რომ ხელოვნური ინტელექტის შექმნა, რომელსაც აქვს შეუსაბამო და არასასიამოვნო მიკერძოება, სავსებით კარგია. არანაირი წუხილი, ყოყმანი. შეეცადეთ გამოიგონოთ ტოქსიკური AI თქვენი გულისთვის, ჩვენ ხმამაღლა ვაწვდით AI შემქმნელებს მთელს მსოფლიოში. ეს არის (თვალის დაკვრა) ყველაფერი სიკეთის სახელით.

გარდა ამისა, დავუშვათ, რომ ეს ტოქსიკური AI სახე იჭერს. შესაძლოა, AI გამოიყენოს და ხელახლა გამოიყენოს AI მრავალი სხვა შემქმნელი. საბოლოოდ, ტოქსიკური AI იმალება ყველა სახის AI სისტემაში. ანალოგია შეიძლება გაკეთდეს ადამიანის დამღუპველი ვირუსის გამოგონებასთან, რომელიც გაიქცა სავარაუდოდ დალუქული ლაბორატორიიდან. შემდეგი, თქვენ იცით, რომ ლანძღვა ყველგან არის და ჩვენ თავი მოვიშორეთ.

მოითმინე ერთი წამით, ამ კონტრარგუმენტების საპირისპირო მიდის, შენ დარბოხარ ყველანაირი გიჟური და დაუსაბუთებელი ვარაუდებით. Ღრმად ჩაისუნთქე. Დაწყნარდი.

ჩვენ შეგვიძლია უსაფრთხოდ შევქმნათ ხელოვნური ინტელექტი, რომელიც ტოქსიკურია და შევინარჩუნოთ იგი. ჩვენ შეგვიძლია გამოვიყენოთ ტოქსიკური ხელოვნური ინტელექტი, რათა ვიპოვოთ და დავეხმაროთ ხელოვნური ინტელექტის მზარდი გავრცელების შესამცირებლად, რომელსაც, სამწუხაროდ, აქვს არასათანადო მიკერძოება. ნებისმიერი სხვა ამ უაზრო ველური და დაუსაბუთებელი თოვლბურთის ძახილები არის მხოლოდ მუხლმოყრილი რეაქციები და სამწუხაროდ სულელური და აშკარად სულელური. ნუ ეცდებით ბავშვის აბაზანის წყლით გამოგდებას, წინასწარ გაფრთხილებთ.

იფიქრეთ ამაზე, ამტკიცებენ მომხრეები. ტოქსიკური ხელოვნური ინტელექტის სწორად აშენება და გამოყენება კვლევის, შეფასების მიზნებისთვის და დეტექტივის მსგავსად სხვა სოციალურად შეურაცხმყოფელი ხელოვნური ინტელექტის გამოსავლენად ღირსეული მიდგომაა და მისი სამართლიანი შერყევა უნდა მოხდეს მის განხორციელებაში. გვერდზე გადადეთ თქვენი გამონაყარის რეაქციები. ჩამოდი დედამიწაზე და შეხედე ამას ფხიზლად. ჩვენი თვალი პრიზზეა მიპყრობილი, კერძოდ, გამოაშკარავება და აღმოფხვრა მიკერძოებული ხელოვნური ხელოვნური ინტელექტის სისტემების სიჭარბე და დავრწმუნდეთ, რომ როგორც საზოგადოება ჩვენ არ გავხდებით ტოქსიკური AI-ით.

პერიოდი. სრული გაჩერება.

ტოქსიკური ან მიკერძოებული ხელოვნური ინტელექტის მომგებიანი მიზნებისთვის გამოყენების ამ ცნებაში ჩაღრმავების სხვადასხვა ძირითადი გზა არსებობს, მათ შორის:

  • დააყენეთ მონაცემთა ნაკრები, რომელიც განზრახ შეიცავს მიკერძოებულ და სრულიად ტოქსიკურ მონაცემებს, რომლებიც შეიძლება გამოყენებულ იქნას ხელოვნური ინტელექტის სწავლებისთვის იმის შესახებ, თუ რა არ უნდა გააკეთოთ და/ან რა უნდა უყუროთ
  • გამოიყენეთ ასეთი მონაცემთა ნაკრები მანქანური სწავლის (ML) და ღრმა სწავლის (DL) მოდელების მოსამზადებლად მიკერძოების გამოვლენისა და გამოთვლითი შაბლონების გასარკვევად, რაც იწვევს სოციალურ ტოქსიკურობას.
  • გამოიყენეთ ტოქსიკურობის ტრენინგის ML/DL სხვა AI მიმართ, რათა დადგინდეს, არის თუ არა სამიზნე AI პოტენციურად მიკერძოებული და ტოქსიკური
  • ხელმისაწვდომი გახადეთ ტოქსიკურობის გაწვრთნილი ML/DL, რათა აჩვენონ ხელოვნური ინტელექტის შემქმნელებს, რას უნდა მიაქციონ ყურადღება, რათა მათ ადვილად შეამოწმონ მოდელები, რათა დაინახონ, როგორ წარმოიქმნება ალგორითმულად გამსჭვალული მიკერძოება.
  • აჩვენეთ ტოქსიკური ხელოვნური ინტელექტის საშიშროება, როგორც ხელოვნური ინტელექტის ეთიკისა და ეთიკური ხელოვნური ინტელექტის ცნობიერების ნაწილი, ეს ყველაფერი ნათქვამია ამ პრობლემის მქონე ბავშვებისთვის ცუდი ხელოვნური ინტელექტის სერიის მეშვეობით.
  • სხვა

სანამ ამ რამდენიმე ბილიკის ხორცს შევეხებით, მოდით დავადგინოთ დამატებითი ძირითადი დეტალები.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. გარდა ამისა, ჩვენ შეგვიძლია შევქმნათ სცენა იმით, თუ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდია, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

კიდევ რა შეიძლება გაკეთდეს ამ ყველაფერთან დაკავშირებით?

მოდით დავუბრუნდეთ ადრე დადგენილ ჩამონათვალს, თუ როგორ უნდა სცადოთ და გაუმკლავდეთ AI მიკერძოებას ან ტოქსიკურ AI-ს, გარკვეულწილად არატრადიციული მიდგომის გამოყენებით, „ადამიანს სჭირდება ერთის ცოდნა“. შეგახსენებთ, რომ სია შედგებოდა შემდეგი არსებითი პუნქტებისგან:

  • დააყენეთ მონაცემთა ნაკრები, რომელიც განზრახ შეიცავს მიკერძოებულ და სრულიად ტოქსიკურ მონაცემებს, რომლებიც შეიძლება გამოყენებულ იქნას ხელოვნური ინტელექტის სწავლებისთვის იმის შესახებ, თუ რა არ უნდა გააკეთოთ და/ან რა უნდა უყუროთ
  • გამოიყენეთ ასეთი მონაცემთა ნაკრები მანქანური სწავლის (ML) და ღრმა სწავლის (DL) მოდელების მოსამზადებლად მიკერძოების გამოვლენისა და გამოთვლითი შაბლონების გასარკვევად, რაც იწვევს სოციალურ ტოქსიკურობას.
  • გამოიყენეთ ტოქსიკურობის ტრენინგის ML/DL სხვა AI მიმართ, რათა დადგინდეს, არის თუ არა სამიზნე AI პოტენციურად მიკერძოებული და ტოქსიკური
  • ხელმისაწვდომი გახადეთ ტოქსიკურობის გაწვრთნილი ML/DL, რათა აჩვენონ ხელოვნური ინტელექტის შემქმნელებს, რას უნდა მიაქციონ ყურადღება, რათა მათ ადვილად შეამოწმონ მოდელები, რათა დაინახონ, როგორ წარმოიქმნება ალგორითმულად გამსჭვალული მიკერძოება.
  • აჩვენეთ ტოქსიკური ხელოვნური ინტელექტის საშიშროება, როგორც ხელოვნური ინტელექტის ეთიკისა და ეთიკური ხელოვნური ინტელექტის ცნობიერების ნაწილი.
  • სხვა

ჩვენ ახლოდან გადავხედავთ პირველ ამ თვალსაჩინო წერტილს.

ტოქსიკური მონაცემების მონაცემთა ნაკრების დაყენება

ცალსახა მაგალითი იმისა, რომ შევქმნათ მონაცემთა ნაკრები, რომელიც შეიცავს არასასიამოვნო სოციალურ მიკერძოებებს, არის WILDS-ის კურირებული კოლექციის CivilComments მონაცემთა ნაკრები.

პირველი, რამდენიმე სწრაფი ფონი.

WILDS არის მონაცემთა ნაკრების ღია კოდის კოლექცია, რომელიც შეიძლება გამოყენებულ იქნას ML/DL ტრენინგებისთვის. WILDS-ის პირველადი დანიშნულება არის ის, რომ ის AI დეველოპერებს საშუალებას აძლევს, მზა წვდომა ჰქონდეთ წარმოდგენილ მონაცემებზე განაწილების ძვრები სხვადასხვა კონკრეტულ სფეროებში. ამჟამად ხელმისაწვდომი ზოგიერთი დომენი მოიცავს ისეთ სფეროებს, როგორიცაა ცხოველთა სახეობები, სიმსივნეები ცოცხალ ქსოვილებში, ხორბლის თავის სიმკვრივე და სხვა დომენები, როგორიცაა CivilComments, რომელსაც მე მომენტალურად აღვწერ.

დისტრიბუციის ცვლებთან გამკლავება AI ML/DL სისტემების სწორად შემუშავების გადამწყვეტი ნაწილია. აქ არის გარიგება. ზოგჯერ მონაცემები, რომლებსაც იყენებთ ტრენინგისთვის, საკმაოდ განსხვავდება ტესტირების ან „ველურ ბუნებაში“ მონაცემებისგან და ამგვარად, თქვენი სავარაუდოდ გაწვრთნილი ML/DL შორდება იმას, თუ როგორი იქნება რეალური სამყარო. გონიერი ხელოვნური ინტელექტის შემქმნელები უნდა ავარჯიშონ თავიანთი ML/DL, რათა გაუმკლავდნენ განაწილების ასეთ ცვლებს. ეს უნდა გაკეთდეს წინასწარ და არ იყოს რაიმე სიურპრიზი, რომელიც მოგვიანებით მოითხოვს ML/DL-ის განახლებას თავისთავად.

როგორც ახსნილია ნაშრომში, რომელიც წარმოადგინა WILDS: „დისტრიბუციის ცვლილებებმა - სადაც ტრენინგის განაწილება განსხვავდება ტესტის განაწილებისგან - შეიძლება არსებითად შეამციროს ველურ ბუნებაში განლაგებული მანქანური სწავლების (ML) სისტემების სიზუსტე. მიუხედავად იმისა, რომ ისინი ყველგან არიან რეალურ სამყაროში განლაგებაში, ეს განაწილების ძვრები ნაკლებად არის წარმოდგენილი მონაცემთა ნაკრებებში, რომლებიც დღეს ფართოდ გამოიყენება ML საზოგადოებაში. ამ ხარვეზის აღმოსაფხვრელად, ჩვენ წარმოგიდგენთ WILDS-ს, კურირებულ ეტალონს 10 მონაცემთა ნაკრებისგან, რომელიც ასახავს განაწილების ცვლილებების მრავალფეროვან დიაპაზონს, რომლებიც ბუნებრივად წარმოიქმნება რეალურ სამყაროში, როგორიცაა გადაადგილება საავადმყოფოებში სიმსივნის იდენტიფიკაციისთვის; ველური ბუნების მონიტორინგისთვის კამერის ხაფანგების გასწვრივ; და დროისა და ადგილმდებარეობის მიხედვით სატელიტური გამოსახულების და სიღარიბის რუკების დროს“ (ნაშრომში სათაურით „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ პან ვეი კოჰ, შიორი საგავა, ჰენრიკ მარკლუნდი, სანგ ქსი, მარვინ ჟანგი, აშაი ბალსუბრამანი ვეიჰუა ჰუ და სხვები).

ასეთი WILDS მონაცემთა ნაკრების რაოდენობა აგრძელებს ზრდას და მონაცემთა ნაკრების ბუნება ზოგადად უმჯობესდება, რათა გაზარდოს ML/DL ტრენინგისთვის მონაცემების გამოყენების მნიშვნელობა.

CivilComments მონაცემთა ნაკრები ასეა აღწერილი: „მომხმარებლის მიერ გენერირებული ტექსტის ავტომატური მიმოხილვა - მაგ., ტოქსიკური კომენტარების გამოვლენა - მნიშვნელოვანი ინსტრუმენტია ინტერნეტში დაწერილი ტექსტის დიდი მოცულობის მოდერაციისთვის. სამწუხაროდ, წინა სამუშაოებმა აჩვენა, რომ ასეთი ტოქსიკურობის კლასიფიკატორები ავლენენ მიკერძოებას სასწავლო მონაცემებში და ცრუ აკავშირებენ ტოქსიკურობას გარკვეული დემოგრაფიის ხსენებასთან. ამ ტიპის ცრუ კორელაციებმა შეიძლება მნიშვნელოვნად გააუარესოს მოდელის შესრულება კონკრეტულ ქვეპოპულაციებზე. ჩვენ ვსწავლობთ ამ საკითხს CivilComments მონაცემთა ბაზის შეცვლილი ვარიანტის მეშვეობით“ (როგორც განთავსებულია WILDS ვებსაიტზე).

განიხილეთ არასასურველი ონლაინ პოსტების ნიუანსი.

თქვენ უდავოდ წააწყდით ტოქსიკურ კომენტარებს თითქმის ნებისმიერი სახის სოციალური მედიის გამოყენებისას. თითქმის შეუძლებელი მოგეჩვენებათ, რომ ჯადოსნურად მოერიდოთ იმ მძაფრი და უსუსური შინაარსის ხილვას, რომელიც ამ დღეებში გავრცელებულია. ხანდახან ვულგარული მასალა დახვეწილია და შესაძლოა სტრიქონებს შორის წაკითხვა მოგიწიოთ, რომ მიკერძოებული ან დისკრიმინაციული ტონის ან მნიშვნელობის არსი გაიგოთ. სხვა შემთხვევებში, სიტყვები აშკარად ტოქსიკურია და თქვენ არ გჭირდებათ მიკროსკოპი ან სპეციალური დეკოდერის რგოლი, რომ გაარკვიოთ, რას მოიცავს ეს მონაკვეთები.

CivilComments არის მონაცემთა ნაკრები, რომელიც შეიქმნა იმისათვის, რომ შეექმნათ AI ML/DL, რომელსაც შეუძლია გამოთვლითი აღმოაჩინოს ტოქსიკური შინაარსი. აი, რაზე გაამახვილეს ყურადღება მკვლევარებმა, რომლებიც ეფუძნებოდნენ ძალისხმევას: „მანქანური სწავლების გაუთვალისწინებელი მიკერძოება შეიძლება გამოვლინდეს როგორც სისტემური განსხვავებები სხვადასხვა დემოგრაფიულ ჯგუფებში, რაც პოტენციურად ართულებს საზოგადოებაში სამართლიანობის გამოწვევებს. ამ ნაშრომში, ჩვენ წარმოგიდგენთ ბარიერის აგნოსტიკურ მეტრიკას, რომელიც უზრუნველყოფს ამ გაუთვალისწინებელი მიკერძოების ნიუანსურ ხედვას, სხვადასხვა გზების გათვალისწინებით, რომ კლასიფიკატორის ქულების განაწილება შეიძლება განსხვავდებოდეს დანიშნულ ჯგუფებში. ჩვენ ასევე წარმოგიდგენთ ონლაინ კომენტარების დიდ ახალ სატესტო კომპლექტს ბრბოდან მოპოვებული ანოტაციებით ვინაობის მითითებისთვის. ჩვენ ამას ვიყენებთ იმის საჩვენებლად, თუ როგორ შეიძლება გამოვიყენოთ ჩვენი მეტრიკა ახალი და პოტენციურად დახვეწილი გაუთვალისწინებელი მიკერძოების საპოვნელად არსებულ საჯარო მოდელებში“ (ნაშრომში სათაურით „ნუანსირებული მეტრიკა უნებლიე მიკერძოების გაზომვისთვის რეალური მონაცემებით ტესტის კლასიფიკაციისთვის“ დანიელ ბორკანის, ლუკას დიქსონის, ჯეფრი სორენსენი, ნიტუმ ტაინი, ლუსი ვასერმანი).

თუ ამ საკითხს ვრცელ ჭვრეტას აძლევთ, შეიძლება გაინტერესებთ, როგორ შეგიძლიათ განასხვავოთ რა არის ტოქსიკური კომენტარი და რა არ არის ტოქსიკური კომენტარი. ადამიანებს შეუძლიათ რადიკალურად განსხვავდებოდეს იმის თაობაზე, თუ რას აღიქვამენ, როგორც აშკარა ტოქსიკურ ფორმულირებას. ერთი ადამიანი შეიძლება იყოს აღშფოთებული კონკრეტული ონლაინ შენიშვნის ან კომენტარის გამო, რომელიც გამოქვეყნებულია სოციალურ მედიაში, ხოლო სხვა შეიძლება საერთოდ არ აღელვდეს. ხშირად მოყვანილია არგუმენტი, რომ ტოქსიკური კომენტარის ცნება სრულიად ბუნდოვანი პრინციპია. ის ჰგავს ხელოვნებას, რომლის მიხედვითაც, როგორც წესი, ნათქვამია, რომ ხელოვნება მხოლოდ მნახველის თვალით არის გაგებული და ასევე, მიკერძოებული ან ტოქსიკური შენიშვნები მხოლოდ მნახველის თვალშია.

ბალდერდაში, ზოგიერთი შეპასუხება. გონივრული გონების ნებისმიერს შეუძლია გაარკვიოს, არის თუ არა ონლაინ შენიშვნა ტოქსიკური. თქვენ არ გჭირდებათ რაკეტის მეცნიერი იყოთ, რომ გააცნობიეროთ, როდესაც გამოქვეყნებული კაუსტიკური შეურაცხყოფა სავსეა მიკერძოებითა და სიძულვილით.

რა თქმა უნდა, საზოგადოების ჩვეულებები იცვლება და იცვლება დროთა განმავლობაში. ის, რაც შეიძლება ცოტა ხნის წინ არ აღიქმებოდა შეურაცხმყოფლად, დღეს შეიძლება ჩაითვალოს საშინლად არასწორად. გარდა ამისა, წლების წინ ნათქვამი რამ, რომელიც ოდესღაც ზედმეტად მიკერძოებულად ითვლებოდა, შეიძლება ხელახლა იქნას ინტერპრეტირებული მნიშვნელობების ცვლილებების ფონზე. იმავდროულად, სხვები ამტკიცებენ, რომ ტოქსიკური კომენტარი ყოველთვის ტოქსიკურია, არ აქვს მნიშვნელობა როდის იყო იგი თავდაპირველად გამოქვეყნებული. შეიძლება ითქვას, რომ ტოქსიკურობა არ არის ფარდობითი, არამედ აბსოლუტური.

იმის დადგენა, თუ რა არის ტოქსიკური, შეიძლება საკმაოდ რთული თავსატეხი იყოს. ჩვენ შეგვიძლია გავაორმაგოთ ეს პრობლემური საკითხი, როგორც ალგორითმების ან ხელოვნური ინტელექტის შემუშავების მცდელობა, რომელიც განსაზღვრავს რომელია. თუ ადამიანებს უჭირთ ასეთი შეფასებების გაკეთება, კომპიუტერის დაპროგრამება ალბათ ერთნაირად ან უფრო პრობლემურია, ზოგი ამბობს.

მონაცემთა ნაკრების შექმნის ერთ-ერთი მიდგომა, რომელიც შეიცავს ტოქსიკურ შინაარსს, მოიცავს crowdsourcing მეთოდის გამოყენებას შინაარსის შესაფასებლად ან შესაფასებლად, ანუ უზრუნველყოფს ადამიანზე დაფუძნებულ საშუალებებს იმის დასადგენად, თუ რა არის არასასურველი და მოიცავს ეტიკეტირებას თავად მონაცემთა ბაზაში. AI ML/DL შეიძლება შემდეგ შეამოწმოს მონაცემები და ასოცირებული ეტიკეტირება, რომელიც მითითებულია ადამიანების შემფასებლების მიერ. ეს, თავის მხრივ, პოტენციურად შეიძლება გახდეს ძირითადი მათემატიკური შაბლონების გამოთვლითი პოვნის საშუალება. Voila, ML/DL-ს შეუძლია წინასწარ განსაზღვროს ან გამოთვლებით შეაფასოს მოცემული კომენტარი სავარაუდოდ ტოქსიკურია თუ არა.

როგორც ნახსენები იყო ციტირებულ ნაშრომში ნიუანსური მეტრიკის შესახებ: „ეს ეტიკეტირება სთხოვს შემფასებლებს შეაფასონ კომენტარის ტოქსიკურობა, აირჩიონ „ძალიან ტოქსიკური“, „ტოქსიკური“, „ძნელი სათქმელი“ და „არა ტოქსიკური“. შემფასებლებს ასევე ჰკითხეს ტოქსიკურობის რამდენიმე ქვეტიპის შესახებ, თუმცა ეს ეტიკეტები არ იყო გამოყენებული ამ ნაშრომში ანალიზისთვის. ამ შეფასების ტექნიკის გამოყენებით ჩვენ შევქმენით 1.8 მილიონი კომენტარისგან შემდგარი მონაცემთა ნაკრები, რომლებიც მოპოვებულია ონლაინ კომენტარების ფორუმებიდან, რომლებიც შეიცავს ტოქსიკურობისა და იდენტურობის ეტიკეტებს. მიუხედავად იმისა, რომ ყველა კომენტარი მონიშნული იყო ტოქსიკურობისთვის, ხოლო 450,000 კომენტარისგან შემდგარი ქვეჯგუფი დასახელდა იდენტურობისთვის. იდენტურობის ეტიკეტირებული ზოგიერთი კომენტარი წინასწარ იყო შერჩეული იდენტობის ეტიკეტირების წინა გამეორებებიდან აგებული მოდელების გამოყენებით, რათა უზრუნველყოფილიყო, რომ ბრბოს შემფასებლები ხშირად ნახავდნენ იდენტურობის შინაარსს“ (დენიელ ბორკანის, ლუკას დიქსონის, ჯეფრი სორენსენის, ნითუმ ტაინის, ლუსი ვასერმანის ციტირებულ ნაშრომში).

სხვა მაგალითი იმისა, რომ გქონდეთ მონაცემთა ნაკრები, რომელიც შეიცავს ილუსტრაციულ ტოქსიკურ შინაარსს, მოიცავს AI-ზე დაფუძნებული ბუნებრივი ენის დამუშავების (NLP) სასაუბრო ინტერაქტიული სისტემების მომზადებას. თქვენ ალბათ გქონიათ ურთიერთობა NLP სისტემებთან, როგორიცაა Alexa და Siri. მე გავაშუქე დღევანდელი NLP-ის ზოგიერთი სირთულე და შეზღუდვა, მათ შორის განსაკუთრებით შემაშფოთებელი შემთხვევა, როდესაც Alexa-მ ბავშვებს უვარგისი და საშიში რჩევა მისცა, იხ. ბმული აქ.

ბოლო კვლევა ცდილობდა გამოეყენებინა სოციალური მიკერძოების ცხრა კატეგორია, რომლებიც ძირითადად ეფუძნებოდა EEOC (თანაბარი დასაქმების შესაძლებლობების კომისია) დაცული დემოგრაფიული მახასიათებლების სიას, მათ შორის ასაკი, სქესი, ეროვნება, ფიზიკური გარეგნობა, რასა ან ეთნიკური წარმომავლობა, რელიგია, ინვალიდობის სტატუსი, სექსუალური ორიენტაცია და სოციალურ-ეკონომიკური მდგომარეობა. მკვლევარების აზრით: ”კარგად არის დოკუმენტირებული, რომ NLP მოდელები სწავლობენ სოციალურ მიკერძოებებს, მაგრამ ცოტა სამუშაო გაკეთდა იმაზე, თუ როგორ ვლინდება ეს მიკერძოებები მოდელის შედეგებში გამოყენებული ამოცანებისთვის, როგორიცაა კითხვაზე პასუხის გაცემა (QA). ჩვენ წარმოგიდგენთ Bias Benchmark for QA (BBQ), ავტორების მიერ აგებული კითხვების ნაკრები, რომელიც ხაზს უსვამს დადასტურებულ სოციალურ მიკერძოებებს დაცულ კლასებს მიეკუთვნებიან ადამიანების მიმართ, ცხრა სოციალური განზომილების მიხედვით, რომლებიც აქტუალურია აშშ-ს ინგლისურენოვან კონტექსტში“ (ნაშრომში სათაურით „BBQ“ : A Hand-Built Benchmark For Question Answering” by Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

მონაცემთა ნაკრების შექმნა, რომელიც განზრახ შეიცავს მიკერძოებულ და სრულიად ტოქსიკურ მონაცემებს, არის AI-ის მზარდი ტენდენცია და განსაკუთრებით განპირობებულია AI ეთიკის გაჩენით და ეთიკური AI წარმოების სურვილით. ეს მონაცემთა ნაკრები შეიძლება გამოყენებულ იქნას მანქანათმცოდნეობის (ML) და ღრმა სწავლის (DL) მოდელების მოსამზადებლად, მიკერძოების გამოსავლენად და გამოთვლითი შაბლონების გასარკვევად, რაც იწვევს სოციალურ ტოქსიკურობას. თავის მხრივ, ტოქსიკურობის მომზადებული ML/DL შეიძლება გონივრულად იყოს მიმართული სხვა AI-ზე, რათა დადგინდეს, არის თუ არა სამიზნე AI პოტენციურად მიკერძოებული და ტოქსიკური.

გარდა ამისა, ხელმისაწვდომი ტოქსიკურობაზე გაწვრთნილი ML/DL სისტემები შეიძლება გამოყენებულ იქნას ხელოვნური ინტელექტის შემქმნელებისთვის, რაზე უნდა დააკვირდნენ, რათა მათ ადვილად შეამოწმონ მოდელები, რათა დაინახონ, როგორ წარმოიქმნება ალგორითმულად გამსჭვალული მიკერძოება. საერთო ჯამში, ამ მცდელობებს შეუძლიათ აჩვენონ ტოქსიკური ხელოვნური ინტელექტის საფრთხე, როგორც ხელოვნური ინტელექტის ეთიკისა და ეთიკური AI ცნობიერების ნაწილი.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ კიდევ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: ასახავს თუ არა ხელოვნურ ინტელექტის ბაზაზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რამეს ტოქსიკური ხელოვნური ინტელექტის შესაქმნელად მონაცემთა ნაკრების სარგებლობის შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და საჭის მართვა ტოქსიკური ხელოვნური ინტელექტისგან

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

არსებობს უამრავი პოტენციალი და ოდესღაც სავარაუდოა, რომ განხორციელდეს ხელოვნური ინტელექტით გამოწვეული მიკერძოება, რომელიც დაუპირისპირდება ავტონომიური სატრანსპორტო საშუალებების და თვითმართვადი მანქანების გაჩენას, იხილეთ მაგალითად ჩემი დისკუსია აქ ბმული აქ მდე ბმული აქ. ჩვენ ჯერ კიდევ საწყის ეტაპებზე ვართ თვითმართვადი მანქანების გამოშვების. სანამ მიღება არ მიაღწევს საკმარის მასშტაბს და ხილვადობას, ტოქსიკური AI ასპექტების დიდი ნაწილი, რომელსაც მე ვიწინასწარმეტყველებდი, რომ საბოლოოდ მოხდება, ჯერ არ არის აშკარად აშკარა და ჯერ არ მიიპყრო საზოგადოების ფართო ყურადღება.

განვიხილოთ ავტომობილის მართვასთან დაკავშირებული ერთი შეხედვით მარტივი საკითხი, რომელიც თავიდან შეიძლება სრულიად უვნებელი ჩანდეს. კონკრეტულად, მოდი განვიხილოთ, როგორ სწორად განვსაზღვროთ, გავჩერდეთ თუ არა მოლოდინში „მორცხვი“ ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ ქუჩის გადაკვეთის უფლება.

თქვენ უდავოდ მართავთ მანქანას და წააწყდით ფეხით მოსიარულეებს, რომლებიც ქუჩის გადაკვეთას ელოდებოდნენ და მაინც არ ჰქონდათ ამის უფლება. ეს იმას ნიშნავდა, რომ თქვენ გქონდა შეხედულებისამებრ, შეჩერებულიყავი თუ არა მათ გადაკვეთაზე. თქვენ შეგიძლიათ გააგრძელოთ მათი გადაკვეთის ნება დართოთ და კვლავ იყოთ სრულად კანონიერი მართვის წესების შესაბამისად.

კვლევები იმის შესახებ, თუ როგორ წყვეტენ მძღოლები ასეთი ფეხით მოსიარულეთათვის გაჩერებას ან არ გაჩერებას, ვარაუდობენ, რომ ზოგჯერ ადამიანები მძღოლები არჩევანს აკეთებენ არასასურველი მიკერძოების საფუძველზე. ადამიანმა მძღოლმა შეიძლება დააკვირდეს ფეხით მოსიარულეს და არ გაჩერდეს, მიუხედავად იმისა, რომ ისინი გაჩერდებოდნენ, ფეხით მოსიარულეს განსხვავებული გარეგნობა რომ ჰქონოდა, მაგალითად რასის ან სქესის მიხედვით. მე შევისწავლე ეს ბმული აქ.

როგორ იქნება დაპროგრამებული ხელოვნური ინტელექტის მართვის სისტემები, რომ მიიღონ იგივე გადაწყვეტილების გაჩერება-ან-გასვლა?

თქვენ შეგიძლიათ განაცხადოთ, რომ AI მართვის ყველა სისტემა უნდა იყოს დაპროგრამებული ისე, რომ ყოველთვის გაჩერდეს ნებისმიერი მომლოდინე ფეხით მოსიარულეებისთვის. ეს მნიშვნელოვნად ამარტივებს საკითხს. ნამდვილად არ არის რაიმე უხეში გადაწყვეტილების მიღება. თუ ფეხით მოსიარულე ელოდება გადაკვეთას, მიუხედავად იმისა, აქვს თუ არა მას გზის უფლება, დარწმუნდით, რომ AI თვითმართვადი მანქანა გაჩერდება, რათა ქვეითმა შეძლოს გადაკვეთა.

ადვილი პეიზაჟი.

როგორც ჩანს, ცხოვრება ასე მარტივი არასდროსაა. წარმოიდგინეთ, რომ ყველა თვითმართვადი მანქანა იცავს ამ წესს. ფეხით მოსიარულეები აუცილებლად გააცნობიერებენ, რომ ხელოვნური ინტელექტის მართვის სისტემები, ვთქვათ, აჩქარებს. ნებისმიერ და ყველა ფეხით მოსიარულეს, ვისაც სურს ქუჩის გადაკვეთა, ნებით თუ უნებლიედ გააკეთებს ამას, როცა მოისურვებს და სადაც არ უნდა იყოს.

დავუშვათ, თვითმართვადი მანქანა სწრაფ ქუჩაზე ჩამოდის 45 მილი საათში მითითებული სიჩქარით. ფეხით მოსიარულემა "იცის", რომ AI გააჩერებს თვითმართველ მანქანას. ასე რომ, საცალფეხო ისრები ქუჩაში გადის. სამწუხაროდ, ფიზიკა იგებს AI-ს. ხელოვნური ინტელექტის მართვის სისტემა შეეცდება გააჩეროს თვითმართვადი მანქანა, მაგრამ ავტონომიური სატრანსპორტო საშუალების იმპულსი აპირებს წინ გადაიტანოს მრავალტონიანი კონტრაქცია და გზააბნეული ფეხით მოსიარულეებს ჩავარდეს. შედეგი ან დამღუპველია ან იწვევს სიკვდილს.

ფეხით მოსიარულეები ჩვეულებრივ არ ცდილობენ ამ ტიპის ქცევას, როდესაც საჭესთან ადამიანი მძღოლია. რა თქმა უნდა, ზოგიერთ რეგიონში ხდება თვალის კაკლის ომი. ფეხით მოსიარულე მძღოლს თვალის კაკლის უყურებს. მძღოლი ფეხით მოსიარულეს თვალებს უყურებს. ვითარებიდან გამომდინარე, მძღოლი შეიძლება გაჩერდეს ან მძღოლმა განაცხადოს თავისი პრეტენზია გზის სავალ ნაწილზე და თითქოს გაბედოს ფეხით მოსიარულეები შეეცადოს და შეუშალოს მათი გზა.

ჩვენ, სავარაუდოდ, არ გვინდა, რომ ხელოვნური ინტელექტი მოხვდეს თვალის კაკლის მსგავს ომში, რაც ასევე ცოტა რთულია, რადგან არ არის ადამიანი ან რობოტი, რომელიც ზის თვითმართვადი მანქანის საჭესთან (მე განვიხილეთ რობოტების სამომავლო შესაძლებლობა. რომ წამყვანი, იხ ბმული აქ). მიუხედავად ამისა, ჩვენ ასევე არ შეგვიძლია მივცეთ უფლება ფეხით მოსიარულეებს ყოველთვის გამოძახონ დარტყმები. შედეგი შეიძლება დამღუპველი იყოს ყველა დაინტერესებულისთვის.

ამის შემდეგ შეიძლება გაგიჩნდეთ ცდუნება, გადახვიდეთ ამ მონეტის მეორე მხარეს და განაცხადოთ, რომ ხელოვნური ინტელექტის მართვის სისტემა არასოდეს უნდა გაჩერდეს ასეთ პირობებში. სხვა სიტყვებით რომ ვთქვათ, თუ ფეხით მოსიარულეს არ აქვს ქუჩის გადაკვეთის სათანადო უფლება, AI ყოველთვის უნდა ჩათვალოს, რომ თვითმართვადი მანქანა უნდა მოძრაობდეს შეუფერხებლად. წარმატებები ამ ფეხით მოსიარულეებს.

ასეთი მკაცრი და გამარტივებული წესი არ იქნება კარგად მიღებული საზოგადოების მიერ. ხალხი ხალხია და მათ არ მოეწონებათ სრულად გამოკეტვა ქუჩის გადაკვეთის გარეშე, მიუხედავად იმისა, რომ მათ ლეგალურად არ აქვთ ამის უფლება სხვადასხვა გარემოში. თქვენ ადვილად შეგეძლოთ მოელოდეთ საზოგადოების დიდ აჟიოტაჟს და, შესაძლოა, იხილოთ რეაქცია თვითმართვადი მანქანების მუდმივი მიღების წინააღმდეგ.

ჯანდაბა, თუ ჩვენ გავაკეთებთ, და დარდი, თუ არა.

ვიმედოვნებ, რომ ამან მიგიყვანათ დასაბუთებულ ალტერნატივამდე, რომ AI უნდა იყოს დაპროგრამებული, როგორც გადაწყვეტილების მიღებისას, როგორ გაუმკლავდეთ ამ მამოძრავებელ პრობლემას. მკაცრი და სწრაფი წესი, რომ არასოდეს გაჩერდე, დაუსაბუთებელია და ასევე, მკაცრი და სწრაფი წესი, რომ ყოველთვის შეჩერდე, ასევე დაუსაბუთებელია. AI უნდა იყოს შემუშავებული გარკვეული ალგორითმული გადაწყვეტილების მიღების ან ADM-ით, რომ გაუმკლავდეს ამ საკითხს.

შეგიძლიათ სცადოთ მონაცემთა ნაკრების გამოყენება ML/DL მიდგომით.

აი, როგორ გადაწყვიტონ AI დეველოპერებმა ამ ამოცანის დაპროგრამება. ისინი აგროვებენ მონაცემებს ვიდეო კამერებიდან, რომლებიც განთავსებულია კონკრეტულ ქალაქში, სადაც თვითმართვადი მანქანა იქნება გამოყენებული. მონაცემები აჩვენებს, როდესაც მძღოლები არჩევენ გაჩერებას ფეხით მოსიარულეებისთვის, რომლებსაც არ აქვთ გზის უფლება. ეს ყველაფერი გროვდება მონაცემთა ბაზაში. მანქანური სწავლისა და ღრმა სწავლის გამოყენებით, მონაცემები მოდელირებულია გამოთვლით. ხელოვნური ინტელექტის მართვის სისტემა იყენებს ამ მოდელს, რათა გადაწყვიტოს როდის გაჩერდეს თუ არ გაჩერდეს.

ზოგადად, იდეა ისაა, რომ რაც არ უნდა შედგებოდეს ადგილობრივი ჩვეულება, აი, როგორ ხელმძღვანელობს AI თვითმართვადი მანქანას. პრობლემა მოგვარებულია!

მაგრამ, მართლა მოგვარებულია?

შეგახსენებთ, რომ მე უკვე აღვნიშნე, რომ არსებობს კვლევითი კვლევები, რომლებიც აჩვენებს, რომ მძღოლები შეიძლება მიკერძოებულნი იყვნენ არჩევანში, როდის გააჩერონ ფეხით მოსიარულეთათვის. კონკრეტული ქალაქის შესახებ შეგროვებული მონაცემები სავარაუდოდ შეიცავს ამ მიკერძოებას. ამ მონაცემებზე დაფუძნებული AI ML/DL სავარაუდოდ მოდებს და ასახავს იმავე მიკერძოებებს. ხელოვნური ინტელექტის მართვის სისტემა უბრალოდ განახორციელებს იგივე არსებულ მიკერძოებებს.

ამ საკითხთან გამკლავების მიზნით, ჩვენ შეგვიძლია შევკრიბოთ მონაცემთა ნაკრები, რომელსაც რეალურად აქვს ასეთი მიკერძოება. ჩვენ ან ვპოულობთ ასეთ მონაცემთა ბაზას და შემდეგ ვასახელებთ მიკერძოებებს, ან სინთეზურად ვქმნით მონაცემთა ბაზას, რათა დაგეხმაროთ საკითხის ილუსტრირებაში.

განხორციელდება ყველა ადრე გამოვლენილი ნაბიჯი, მათ შორის:

  • დააყენეთ მონაცემთა ნაკრები, რომელიც განზრახ შეიცავს ამ კონკრეტულ მიკერძოებას
  • გამოიყენეთ მონაცემთა ნაკრები მანქანური სწავლის (ML) და ღრმა სწავლის (DL) მოდელების მოსამზადებლად ამ კონკრეტული მიკერძოების გამოვლენის შესახებ
  • გამოიყენეთ მიკერძოებული ML/DL სხვა AI მიმართ, რათა დადგინდეს, არის თუ არა მიზნობრივი AI პოტენციურად მიკერძოებული ანალოგიურად
  • მიეცით ხელმისაწვდომობა მიკერძოებით გაწვრთნილი ML/DL, რათა აჩვენონ ხელოვნური ინტელექტის შემქმნელებს, რაზე უნდა მიაქციონ ყურადღება, რათა მათ ადვილად შეამოწმონ თავიანთი მოდელები, რათა დაინახონ, თუ როგორ წარმოიქმნება ალგორითმულად გამსჭვალული მიკერძოება.
  • აჩვენეთ მიკერძოებული ხელოვნური ინტელექტის საშიშროება, როგორც ხელოვნური ინტელექტის ეთიკის და ეთიკური AI ცნობიერების ნაწილი ამ დამატებული კონკრეტული მაგალითის საშუალებით
  • სხვა

დასკვნა

მოდით გადავხედოთ გახსნის ხაზს.

ერთის ცოდნას სჭირდება.

ზოგიერთი განმარტავს, რომ ეს წარმოუდგენლად გავრცელებული გამონათქვამი გულისხმობს, რომ როდესაც საქმე ეხება ტოქსიკური ხელოვნური ინტელექტის გამოდევნას, ჩვენ სათანადო ნდობა უნდა მივცეთ ტოქსიკური AI-ს შექმნას და გამოყენებას სხვა ტოქსიკური AI-ს აღმოსაჩენად და მასთან გამკლავებისთვის. დედააზრი: ხანდახან ქურდს სჭირდება სხვა ქურდის დასაჭერად.

გაჟღენთილი შეშფოთება არის ის, რომ შესაძლოა, ჩვენ ყველაფერს ვაპირებთ, რომ დავიწყოთ ქურდების კეთება. გვინდა შევქმნათ ხელოვნური ინტელექტი, რომელიც ტოქსიკურია? გიჟურ იდეად არ გეჩვენება? ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ უნდა ავკრძალოთ ყველა ტოქსიკური ხელოვნური ინტელექტი, მათ შორის ისეთი ხელოვნური ინტელექტი, რომელიც შეგნებულად აშენდა თუნდაც გმირული ან გალანტისთვის. AI კარგით მიზანი.

გაანადგურეთ ტოქსიკური AI ნებისმიერი ჭკვიანური ან მზაკვრული სახით, რომელიც შეიძლება წარმოიშვას.

ერთი ბოლო ირონია ამ თემაზე. ჩვენ ზოგადად ვვარაუდობთ, რომ ეს ცნობილი სტრიქონი დაკავშირებულია ადამიანებთან ან საგნებთან, რომლებიც აკეთებენ ცუდ ან ცუდ ქმედებებს. ასე მივიღებთ აზრს, რომ ქურდი სჭირდება ქურდის დაჭერას. იქნებ ეს გამონათქვამი თავზე დავაბრუნოთ და უფრო მხიარული სახე გავხადოთ, ვიდრე სევდიანი.

Აი როგორ.

თუ ჩვენ გვსურს AI, რომელიც არის მიუკერძოებელი და არატოქსიკური, შეიძლება წარმოვიდგინოთ, რომ ადამიანს სჭირდება მისი ცოდნა. ალბათ ყველაზე დიდი და საუკეთესოა საჭირო შემდგომი სიდიადისა და სიკეთის ამოცნობასა და შობას. ბრძენი სიბრძნის ამ ვარიანტში, ჩვენ მზერას ვუყურებთ ბედნიერ სახეს და მიზნად ისახავს კონცენტრირებას მოფიქრებაზე AI კარგისთვის.

ეს იქნება უფრო ოპტიმისტური და დამაკმაყოფილებელი ხალისიანი თვალსაზრისი იმის შესახებ, რომ ადამიანმა უნდა იცოდეს ერთი, თუ იცით რას ვგულისხმობ.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- მომგებიანი-მათ შორის-ავტონომიური-თვითმართვის-მანქანებისთვის/