ხელოვნური ინტელექტის ეთიკა და ხელოვნური ხელოვნური ინტელექტის კანონი შეიძლება უბრალოდ იყოს მოწოდებული და მოწოდებული უსაფრთხოების გაფრთხილებების მანდატით ყველა არსებულ და მომავალ AI-ზე

თქვენი ყოველდღიური საქმიანობა უდავოდ დაბომბულია ათასობით ან მეტი სიფრთხილის გაფრთხილებით ამა თუ იმ სახის.

ზომისთვის სცადეთ ეს:

  • დამცავი სათვალეები ყოველთვის უნდა ატაროთ
  • საფრთხე: საშიში ქიმიკატები ახლოს
  • მაღალი ძაბვა - შეინახეთ გარეთ
  • გაფრთხილება: გააფრთხილეთ თქვენი გარემო
  • სარკეში არსებული საგნები უფრო ახლოსაა, ვიდრე ჩანს
  • ამოიღეთ ბავშვი დაკეცვამდე (როგორც ეს მითითებულია ბავშვის ეტლებზე)
  • გაფრთხილება: დარწმუნდით, რომ უგულებელყოფთ ამ შეტყობინებას

მათი უმეტესობა არის მოსახერხებელი და სრულიად გააზრებული ნიშნები ან ეტიკეტები, რომლებიც ემსახურებიან ჩვენ ვიმედოვნებთ დაცულ და უსაფრთხოებას.

გთხოვთ, გაითვალისწინოთ, რომ მე მოვიპარე სიაში რამდენიმე „განსხვავებული“ საყურადღებო პუნქტების დასაფიქსირებლად.

მაგალითად, ზოგს მიაჩნია, რომ უაზროა, რომ ბავშვის ეტლებს აქვთ მიმაგრებული ეტიკეტი, რომელიც გაფრთხილებთ, რომ არ დაკეცოთ ეტლი, სანამ ბავშვი ჯერ კიდევ ზის საყრდენში. მიუხედავად იმისა, რომ ნიშანი, რა თქმა უნდა, შესაბამისი და კეთილსინდისიერად სასარგებლოა, როგორც ჩანს, ძირითადი საღი აზრი უკვე საკმარისი იქნება.

რომელი ადამიანი ვერ გაიგებს საკუთარი ნებით, რომ ჯერ ბავშვის ამოყვანა სჭირდება?

სხვები ხაზს უსვამენ, რომ ასეთი ეტიკეტები ნამდვილად ემსახურება მნიშვნელოვან მიზანს. პირველ რიგში, ვიღაცამ შეიძლება ნამდვილად არ იცის, რომ ეტლის დაკეცვამდე ბავშვი უნდა ამოიღოს. შესაძლოა, ადამიანმა ჩათვალა, რომ ეტლი გონივრულად იყო შექმნილი იმისთვის, რომ დაკეცვის ოპერაცია ბავშვს არ დააზიანოს. ან შესაძლოა არის ჩაშენებული უსაფრთხოების ფუნქციები, რომლებიც ხელს უშლიან დასაკეცს, როცა ბავშვი ეტლში იმყოფება. და ა.შ.

ასევე, შესაძლოა, პირმა ყურადღება მიიპყრო და უაზროდ დაკეცა ეტლი, მოიცავდა ბავშვს და ყველაფერს, მაგრამ ეტიკეტმა საბედნიეროდ აიძულა ეს არ გაეკეთებინა (ზოგი ამტკიცებს, რომ ნაკლებად სავარაუდოა, რომ ასეთი ადამიანი შეამჩნევდა ეტიკეტს. მაინც). ასევე არის ის ფაქტი, რომ ვინმემ შესაძლოა უჩივლოს ეტლის მწარმოებელს, თუ ასეთი ეტიკეტი არ იქნებოდა. თქვენ შეგიძლიათ წარმოიდგინოთ ერთ-ერთი იმ მძიმე სასამართლო პროცესი, რომლის დროსაც ბავშვი დაშავდა და მშობელმა გადაწყვიტა მილიონი დოლარის შეგროვება, რადგან ეტლს არ ჰქონდა გამოკრული გამაფრთხილებელი ნიშანი. ეტლების კომპანია ინანებს, რომ არ დახარჯა რამდენიმე ცენტი, რათა გაეკეთებინათ და დაეკრათ გამაფრთხილებელი ნიშნები ეტლებზე.

ასევე დააკვირდით ბოლო გამაფრთხილებელ შეტყობინებას, რომელიც ზემოთ ჩამოვთვალე.

მე გადავწყვიტე განვათავსო smarmy გზავნილი იმის შესახებ, რომ დავრწმუნდე, რომ იგნორირებას უკეთებს შეტყობინებას, რადგან არსებობს მრავალი ყალბი გამაფრთხილებელი იარლიყი, რომელსაც ხალხი ყიდულობს ან აკეთებს უბრალოდ გასართობად. ეს არის ნამდვილი ფილოსოფიური გონების მომგვრელი. თუ წაიკითხავთ გაფრთხილებას, რომელიც ამბობს გაფრთხილების უგულებელყოფას, კონკრეტულად რა უნდა გააკეთოთ გაფრთხილების წაკითხვის შემდეგ? თქვენ უკვე წაიკითხეთ, ასე რომ, ის თითქოს თქვენს გონებაშია. რა თქმა უნდა, შეგიძლიათ მისი იგნორირება, მაგრამ კიდევ ერთხელ, თქვენ საერთოდ არ გირჩევენ იმის შესახებ, თუ რას უნდა უგულებელყოთ. მრგვალი და მრგვალი, ეს ხუმრობა მიდის.

რა თქმა უნდა, კეთილსინდისიერი გამაფრთხილებელი იარლიყები, როგორც წესი, არ არის ხუმრობით ან იუმორისტული ხასიათით.

გაფრთხილებებს საკმაოდ სერიოზულად უნდა მივუდგეთ.

ჩვეულებრივ, თუ თქვენ არ იცავთ გაფრთხილებას, ამას აკეთებთ პირადი სერიოზული რისკის ქვეშ. ასევე, შესაძლოა, თუ არ დააკვირდებით და არ შეასრულებთ გაფრთხილებას, პოტენციურად სხვებსაც არასათანადო რისკის ქვეშ დააყენებთ. განვიხილოთ მანქანის მართვის აქტი. იმ მომენტში, როცა მანქანის საჭესთან დგახართ, მძღოლის ქმედებებმა შეიძლება ზიანი მიაყენოს საკუთარ თავს, გარდა ამისა, თქვენ შეგიძლიათ ზიანი მიაყენოთ თქვენს მგზავრებს და შეგიძლიათ ზიანი მიაყენოთ სხვებს, როგორიცაა სხვა მანქანებში მყოფი ადამიანები ან ახლომდებარე ფეხით მოსიარულეები. ამ თვალსაზრისით, გაფრთხილება არ არის მხოლოდ თქვენი სარგებლობისთვის, ის, სავარაუდოდ, სხვებისთვისაც.

რატომ ვფარავ გაფრთხილებისა და გამაფრთხილებელი ეტიკეტების ამ ასპექტებს?

იმის გამო, რომ ზოგიერთი მკაცრად ამტკიცებს, რომ ჩვენ გვჭირდება გამაფრთხილებელი და გამაფრთხილებელი ნიშნები დღევანდელ ხელოვნურ ინტელექტზე (AI).

სინამდვილეში, ცნება არის ასეთი ეტიკეტების დადება დღევანდელ AI და მომავალ AI-ზეც. მთლიანობაში, ყველა ხელოვნური ინტელექტი დასრულდებოდა მასთან დაკავშირებული გაფრთხილების ან გამაფრთხილებელი მითითების რაიმე ფორმით ან ვარიანტით.

კარგი იდეაა თუ ცუდი იდეა?

პრაქტიკული თუ არაპრაქტიკული?

მოდით წავიდეთ წინ და გავხსნათ კონცეფცია და ვნახოთ, რისი გაკეთება შეგვიძლია მისგან.

მე მსურს, პირველ რიგში, ჩავყარო არსებითი საფუძველი ხელოვნური ინტელექტისა და, განსაკუთრებით, ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ხელოვნური ინტელექტის შესახებ კანონის შესახებ, რათა დავრწმუნდე, რომ ხელოვნური ინტელექტის გაფრთხილების თემა კონტექსტურად გონივრული იქნება. მათთვის, ვინც ზოგადად დაინტერესებულია ეთიკური ხელოვნური ინტელექტისა და ასევე ხელოვნური ინტელექტის კანონით, იხილეთ ჩემი ვრცელი და მიმდინარე გაშუქება აქ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ეთიკური AI და ასევე AI კანონის ცნობიერების ამაღლება

ხელოვნური ინტელექტის ბოლო ერა თავდაპირველად განიხილებოდა, როგორც AI კარგით, რაც იმას ნიშნავს, რომ ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტი კაცობრიობის გასაუმჯობესებლად. ქუსლებზე AI კარგით მივხვდი, რომ ჩვენც ჩაძირულები ვართ AI ცუდად. ეს მოიცავს ხელოვნურ ინტელექტს, რომელიც შემუშავებულია ან თვითშეცვლილია დისკრიმინაციულად და აკეთებს გამოთვლით არჩევანს, რომელიც ავსებს უადგილო მიკერძოებას. ზოგჯერ ხელოვნური ინტელექტი აგებულია ამ გზით, ხოლო სხვა შემთხვევებში ის გადადის იმ არასასურველ ტერიტორიაზე.

მინდა უხვად დავრწმუნდე, რომ დღევანდელი AI-ის ბუნების შესახებ ერთსა და იმავე გვერდზე ვართ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ ჩვენ გვინდოდა სასტიკი სპეკულირება მგრძნობიარე ხელოვნური ინტელექტის შესახებ, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შეიძლება გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური ხელოვნური ინტელექტის შესასწავლად, როგორც შესაძლებლობა, იხ. გაშუქება აქ).

მე კატეგორიულად გირჩევთ, შევინარჩუნოთ ყველაფერი დედამიწაზე და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

იყავით ძალიან ფრთხილად დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციასთან დაკავშირებით.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ ხელოვნური ინტელექტის დეველოპერები შეამოწმებენ პოტენციურად ჩაფლულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონების შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ამ ყველაფერს აქვს განსაკუთრებით მნიშვნელოვანი AI ეთიკის გავლენა და გთავაზობთ მოსახერხებელ ფანჯარას ნასწავლი გაკვეთილების შესახებ (თუნდაც სანამ ყველა გაკვეთილი მოხდება), როდესაც საქმე ეხება ხელოვნური ინტელექტის კანონმდებლობის დაწესებას.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

წინა სვეტებში მე გავაშუქე სხვადასხვა ეროვნული და საერთაშორისო ძალისხმევა ხელოვნური ინტელექტის მარეგულირებელი კანონების შემუშავებისა და ამოქმედების მიზნით, იხ. ბმული აქ, მაგალითად. მე ასევე გავაშუქე ხელოვნური ინტელექტის ეთიკის სხვადასხვა პრინციპები და გაიდლაინები, რომლებიც სხვადასხვა ერებმა დაადგინეს და მიიღეს, მათ შორის, მაგალითად, გაეროს ძალისხმევა, როგორიცაა იუნესკოს AI ეთიკის ნაკრები, რომელიც თითქმის 200 ქვეყანამ მიიღო, იხ. ბმული აქ.

აქ მოცემულია ეთიკური ხელოვნური ინტელექტის კრიტერიუმების ან მახასიათებლების სასარგებლო საკვანძო სია AI სისტემებთან დაკავშირებით, რომლებიც ადრე შევისწავლე:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ AI დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და მათაც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს.

ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც აქ უკვე აღინიშნა, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაიცვას AI ეთიკის წესები.

მეც ცოტა ხნის წინ გამოვიკვლიე AI უფლებების ბილი რომელიც არის აშშ-ს მთავრობის ოფიციალური დოკუმენტის ოფიციალური სახელწოდება, სახელწოდებით „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ რომელიც იყო მეცნიერებისა და ტექნოლოგიების პოლიტიკის ოფისის (OSTP) ერთწლიანი ძალისხმევის შედეგი. ). OSTP არის ფედერალური ერთეული, რომელიც ემსახურება ამერიკის პრეზიდენტს და აშშ-ს აღმასრულებელ ოფისს ეროვნული მნიშვნელობის სხვადასხვა ტექნოლოგიურ, სამეცნიერო და საინჟინრო ასპექტებზე. ამ თვალსაზრისით, შეგიძლიათ თქვათ, რომ AI უფლებების შესახებ ეს არის დოკუმენტი, რომელიც დამტკიცებულია და დამტკიცებულია აშშ-ს არსებული თეთრი სახლის მიერ.

ხელოვნური ინტელექტის უფლებათა ბილში არის ხუთი ძირითადი კატეგორია:

  • უსაფრთხო და ეფექტური სისტემები
  • ალგორითმული დისკრიმინაციის დაცვა
  • მონაცემთა კონფიდენციალურობა
  • შენიშვნა და ახსნა
  • ადამიანური ალტერნატივები, განხილვა და უკან დაბრუნება

მე ყურადღებით განვიხილე ეს წესები, იხილეთ ბმული აქ.

ახლა, როდესაც მე ჩავყარე დამხმარე საფუძველი ამ დაკავშირებულ AI ეთიკისა და AI სამართლის თემებზე, ჩვენ მზად ვართ გადავიდეთ თავზარდამცემი თემაში, უნდა ჰქონდეს თუ არა AI-ს გამაფრთხილებელი ეტიკეტები.

მოემზადეთ თვალწარმტაცი ინფორმაციული მოგზაურობისთვის.

AI-ზე გამაფრთხილებელი ეტიკეტების დადება, როგორც კაცობრიობის დაცვის საშუალება

იზრდება ხმაური იმის შესახებ, რომ შესაძლოა AI-ს რაიმე სახის გაფრთხილება მოჰყვეს.

მაგალითად, ბოლო სტატიაში MIT ტექნოლოგიური მიმოხილვა როდესაც განიხილებოდა ხელოვნური ინტელექტის აუდიტის ჩატარების მზარდი ინტერესი, გაჩნდა გამაფრთხილებელი ნიშნების მიწოდების ცნება: ”ამ აუდიტების ზრდა ვარაუდობს, რომ ერთ დღეს ჩვენ შეიძლება დავინახოთ სიგარეტის შეფუთვის ტიპის გაფრთხილებები, რომ AI სისტემებმა შეიძლება ზიანი მიაყენოს თქვენს ჯანმრთელობას და უსაფრთხოებას. სხვა სექტორებს, როგორიცაა ქიმიკატები და საკვები, აქვთ რეგულარული აუდიტი, რათა უზრუნველყონ პროდუქტების გამოყენების უსაფრთხოება. შეიძლება მსგავსი რამ გახდეს ნორმა AI-ში?” (MIT ტექნოლოგიური მიმოხილვა, მელისა ჰეიკკილა, 24 წლის 2022 ოქტომბერი).

მოდით, ცოტათი ვისაუბროთ გამაფრთხილებელ და გამაფრთხილებელ ნიშნებზე.

ჩვენ ყველამ უკვე ზოგადად ვიცნობთ გამაფრთხილებელ და გამაფრთხილებელ ნიშნებს ყოველდღიური ხასიათის მრავალ პროდუქტსა და მომსახურებაზე. ხანდახან უსაფრთხოების ნიშნები კანონით არის გათვალისწინებული, როგორც სავალდებულო, ხოლო სხვა შემთხვევებში არსებობს დისკრეცია ასეთი ნიშნების გამოყენებისას. გარდა ამისა, უსაფრთხოების ზოგიერთი ნიშანი სტანდარტიზებულია, მაგალითად, მითითებულია ANSI Z535 სტანდარტისა და OSHA 1910.14 სტანდარტის მიხედვით. ეს სტანდარტები მოიცავს ისეთ ასპექტებს, როგორიცაა ნიშნის ფორმულირება, გამოყენებული ფერები და შრიფტები, ნიშნის ფორმა და სხვა სხვა დეტალები.

აზრი აქვს ასეთი გამაფრთხილებელი ნიშნების სტანდარტების არსებობას. როდესაც ხედავთ ასეთ ნიშანს, თუ ის აკმაყოფილებს მითითებულ სტანდარტებს, უფრო სავარაუდოა, რომ დაიჯერებთ, რომ ნიშანი ლეგიტიმურია, გარდა ამისა, თქვენ გჭირდებათ ნაკლები შემეცნებითი დამუშავება ნიშნის ანალიზისა და გაგებისთვის. ნიშნებისთვის, რომლებიც არ არის სტანდარტიზებული მიდგომა, ხშირად გიწევთ გონებრივად გამოთვალოთ რას გეუბნებათ ნიშანი, შესაძლოა დაკარგოთ ძვირფასი დრო მოქმედების განსახორციელებლად, ან შეიძლება სრულიად არასწორად შეაფასოთ ნიშანი და სწორად არ გაიგოთ გაფრთხილება.

ასეთი ნიშნების სპექტრი შეიძლება არსებობდეს, რისთვისაც ისინი ხშირად კლასიფიცირდება ასე:

  • საშიშროების ნიშანი: ყველაზე მაღალი შეშფოთება და მიუთითებს უშუალო საფრთხეზე, სავარაუდო მძიმე შედეგებით
  • გამაფრთხილებელი ნიშანი: მიუთითებს საშიშროებაზე, რომელიც ნაკლებია, ვიდრე „საშიშროება“, მაგრამ მაინც საკმაოდ სერიოზული
  • გაფრთხილების ნიშანი: მიუთითებს პოტენციურ საშიშროებაზე, რომელიც ნაკლებია, ვიდრე "გაფრთხილება", მაგრამ მაინც ნამდვილად სერიოზული
  • შეტყობინების ნიშანი: მიუთითებს საინფორმაციო თავდასხმაზე, რომელიც ნაკლებია „სიფრთხილეზე“, მაგრამ მაინც შეიცავს შემაშფოთებელ ასპექტებს

გაფრთხილებებისა და გამაფრთხილებელი ნიშნების შესახებ ზემოხსენებული ფონის გათვალისწინებით, ჩვენ შეგვიძლია გავაგრძელოთ და ვცადოთ ამის კონტექსტურ გამოყენება AI-ს გამოყენებაში.

პირველ რიგში, ჩვენ შეიძლება როგორმე შევთანხმდეთ, რომ ხელოვნური ინტელექტის ნიშნები შეიძლება იყოს ისეთივე სიმძიმის დიაპაზონში, როგორც ეს ჩვეულებრივია ყოველდღიური ნიშნებისთვის, როგორიცაა:

  • AI საფრთხის ნიშანი: ხელოვნური ინტელექტი ყველაზე შემაშფოთებელია და მიუთითებს უშუალო საფრთხეზე, სავარაუდო მძიმე შედეგებით
  • AI გამაფრთხილებელი ნიშანი: ხელოვნური ინტელექტი მიუთითებს საშიშროებაზე, რომელიც ნაკლებია "საფრთხეზე", მაგრამ მაინც საკმაოდ სერიოზულია
  • AI გამაფრთხილებელი ნიშანი: AI მიუთითებს პოტენციურ საშიშროებაზე, რომელიც ნაკლებია, ვიდრე „გაფრთხილება“, მაგრამ მაინც ნამდვილად სერიოზულია
  • AI შეტყობინების ნიშანი: ხელოვნური ინტელექტი მიუთითებს ინფორმაციულ თავდასხმაზე, რომელიც არ არის „სიფრთხილე“, მაგრამ მაინც შეიცავს შემაშფოთებელ ასპექტებს

არსი ის არის, რომ ყველა ხელოვნური ინტელექტი ერთნაირად შემაშფოთებელი არ იქნება. შესაძლოა, ხელოვნური ინტელექტი უზარმაზარ რისკებს უქმნის ან მხოლოდ ზღვრულ რისკებს შეიცავს. შესაბამისად, აბრა უნდა ასახავდეს რომელი რომელია. თუ ხელოვნური ინტელექტის ყველა გაფრთხილება ან გამაფრთხილებელი ნიშანი უბრალოდ ერთნაირი კალიბრის იყო ნაჩვენები, ჩვენ სავარაუდოდ არ ვიცოდით ან არ ვიცოდით, დიდად შეშფოთებული უნდა ვიყოთ თუ მხოლოდ რბილად შევიშფოთოთ AI-ით. ტიპიური ფორმულირების სქემის გამოყენებამ შეიძლება გააადვილოს ცხოვრება AI-თან დაკავშირებული გამაფრთხილებელი ნიშნების ნახვისა და ინტერპრეტაციისას.

შეიძლება გაინტერესებთ კიდევ რას იტყვიან ნიშნები გადასაცემი შეტყობინების სპეციფიკის თვალსაზრისით.

რა თქმა უნდა, ეს უფრო რთული საკითხია. ხელოვნური ინტელექტის შესაძლებლობები, რომ გააკეთო ის, რაც სახიფათო ან შემაშფოთებელია, იქნება ძალიან დიდი, თითქმის გაუთავებელი. შეგვიძლია თუ არა ისინი მოვახდინოთ რუტინულ ნაკრებში, რომელიც ასახულია მხოლოდ რამდენიმე სიტყვით? ან უნდა დავუშვათ უფრო თავისუფალი მიდგომა, თუ როგორ წავა ფორმულირება?

მე მოგცემთ საშუალებას დაფიქრდეთ ამ ღია კითხვაზე.

წინსვლისას ჩვენ ვხედავთ ობიექტებზე გამოკრულ გამაფრთხილებელ ნიშნებს. ხელოვნური ინტელექტის სისტემა სულაც არ არის „ობიექტი“ იმავე გაგებით, როგორც ნიშნების ჩვეულებრივი დამაგრება. ეს აჩენს კითხვას, თუ სად უნდა იყოს წარმოდგენილი AI გამაფრთხილებელი ნიშნები.

შესაძლოა, როდესაც აპლიკაციის გაშვებისას თქვენს სმარტფონს უთხარით, რომ თუ ის იყენებს AI-ს, გამოჩნდება შეტყობინება, რომელიც შეიცავს AI-თან დაკავშირებულ გაფრთხილებას. აპლიკაცია გაფრთხილებთ ხელოვნური ინტელექტის ძირითადი გამოყენების შესახებ. ეს შეიძლება იყოს ამომხტარი შეტყობინება ან შეიძლება იყოს წარმოდგენილი სხვადასხვა ვიზუალური და თუნდაც სმენითი გზით.

ასევე არსებობს სიტუაცია, როდესაც სარგებლობთ სერვისით, რომელსაც მხარს უჭერს ხელოვნური ინტელექტი, თუმცა შესაძლოა უშუალოდ არ იყოთ ინტერაქცია AI-სთან. მაგალითად, თქვენ შეიძლება გქონდეთ საუბარი ადამიანურ აგენტთან სახლის იპოთეკის აღების შესახებ, რისთვისაც აგენტი ჩუმად იმყოფება კულისებში, იყენებს AI სისტემას, რათა წარმართოს მათი ძალისხმევა.

ამრიგად, ჩვენ უნდა ვივარაუდოთ, რომ AI გამაფრთხილებელი ნიშნები უნდა იყოს წარმოდგენილი AI გამოყენების ორივე შემთხვევაში, ასე რომ:

  • პროდუქტის სპეციფიკური AI: ხელოვნურ ინტელექტს, როგორც პროდუქტს, უნდა ჰქონდეს აშკარა AI გამაფრთხილებელი ან გამაფრთხილებელი ნიშნები
  • სერვისზე ორიენტირებული AI: AI, როგორც სერვისი (პირდაპირ ან ირიბად) უნდა ჰქონდეს AI გამაფრთხილებელი ან გამაფრთხილებელი ნიშნები

სკეპტიკოსები, რა თქმა უნდა, ჩქარობენ ვარაუდობენ, რომ ხელოვნური ინტელექტის გამაფრთხილებელი ნიშანი შესაძლოა აპლიკაციის შემქმნელის მიერ მოჩვენებითად იყოს შენიღბული, რათა გაფრთხილება განსაკუთრებით შესამჩნევი არ იყოს. შესაძლოა, გაფრთხილება გაჩნდეს მოკლე მომენტში და თქვენ ნამდვილად ვერ შეამჩნიეთ, რომ ის იყო ნაჩვენები. კიდევ ერთი მზაკვრული ხრიკი იქნება მისგან ერთგვარი თამაშის გაკეთება, რომელიც, როგორც ჩანს, ამცირებს სიფხიზლის სერიოზულობას და ხალხს აფიქრებინებს, რომ გაფრთხილება უაზროა.

დიახ, შეგიძლიათ დადოთ ფსონი, რომ AI-თან დაკავშირებული ნებისმიერი გამაფრთხილებელი ნიშანი იქნება მოტყუებული და გამოყენებული ისე, რომ არ შეესაბამება გამაფრთხილებელი შეტყობინებების სულს და განზრახვას, რომელიც მათ უნდა გადასცენ.

ყველა ეს სკეპტიციზმი ეყრდნობა იმას, გამოვიყენებთ თუ არა ხელოვნურ ინტელექტის ეთიკას, როგორც „რბილ კანონებს“, რათა შევეცადოთ წინ წავიწიოთ AI-სთან დაკავშირებული გაფრთხილებები და გაფრთხილებები, ან გამოვიყენოთ თუ არა „მკაცრი კანონები“, მათ შორის სასამართლოს მხარდაჭერით მიღებული კანონები. თეორიულად, კანონის რბილი ბიძგი საშუალებას მისცემს ამ საკითხთან თამაშის უფრო მეტ მსგავსებას, მაშინ როცა წიგნებზე არსებული კანონები მოჰყვება ხელისუფლების აღსრულების პოტენციალს და უფრო მეტ სიმკაცრეს.

კიდევ ერთი შეშფოთება არის თუ არა AI ნიშნები რაიმე განსხვავებას მაინც.

მომხმარებელთა ქცევის მრავალი კვლევა, როგორც წესი, აჩვენებს ბუნდოვან შედეგებს, როდესაც საქმე ეხება მომხმარებლებისთვის გამაფრთხილებელი ეტიკეტების მიწოდებას. ზოგჯერ გაფრთხილებები ეფექტურია, ზოგჯერ არა. მოდით გამოვიყენოთ ზოგიერთი კვლევა AI კონტექსტში.

განვიხილოთ ეს ასპექტები:

  • გამოვლენა: ისინი, ვინც იყენებენ AI-ს, რომელიც შეიცავს სიცოცხლისუნარიან AI-ს გამაფრთხილებელ ნიშანს, აქტიურად შეამჩნევენ ან აღმოაჩენენ, რომ ეს ნიშანი მათთვის არის ნაჩვენები (თუ ვივარაუდებთ, რომ ასეთი ნიშანი მოხდა)?
  • გაგება: მათთვის, ვინც შეამჩნია, გაიაზრეს ან გაიაზრეს, რას ცდილობს შესთავაზოს ხელოვნური ინტელექტის გამაფრთხილებელი ნიშანი?
  • მოქმედება: მათთვის, ვინც ამ გონებრივ ნახტომს აკეთებს, ხელოვნური ინტელექტის გამაფრთხილებელი ნიშანი უბიძგებს მათ მოქმედებაში ან სხვაგვარად ემსახურება მათ ქცევას შესაბამისად?

შეგიძლიათ პროგნოზიროთ, რომ თუ იმპულსი მოიმატებს ხელოვნური ინტელექტის გამაფრთხილებელი ნიშნების გამო, მკვლევარები აპირებენ ყურადღებით შეისწავლონ ეს საკითხი. იდეა იქნება დაგვეხმაროს იმის გარკვევაში, თუ რა ვითარებაშია გაფრთხილებები გამოსადეგი და როდის არა. ეს, თავის მხრივ, დაკავშირებულია დიზაინთან და გარეგნობასთან. ჩვენ ასევე შეიძლება ველოდოთ, რომ ფართო საზოგადოებას დასჭირდება განათლება ან ინფორმირება ამ AI გამაფრთხილებელი და გამაფრთხილებელი ნიშნების გაჩენის შესახებ, რათა ისინი მიეჩვიონ მათ.

გასათვალისწინებელია ბევრი გადახვევა.

ხელოვნური ინტელექტის გამაფრთხილებელი ან გამაფრთხილებელი ნიშანი უნდა გამოჩნდეს მხოლოდ აპის გამოყენების დასაწყისში? შესაძლოა, ამოსავალი წერტილი თავისთავად არ არის საკმარისი. ადამიანმა შეიძლება ერთი შეხედვით იფიქროს, რომ აპლიკაცია უბრალოდ უსაფრთხოდ თამაშობს გაფრთხილების გამოყენებით და, შესაბამისად, დიდ ყურადღებას არ აქცევს გაფრთხილებას. მას შემდეგ, რაც ადამიანი აპლიკაციის გამოყენების შუაშია, შესაძლოა დამატებითი გაფრთხილება იყოს გარანტირებული. ამ ეტაპზე, ადამიანმა უფრო კარგად იცის რას აკეთებს აპლიკაცია და შესაძლოა უკვე დაავიწყდეს ადრე მითითებული გამაფრთხილებელი შეტყობინება.

AI გაფრთხილება ან გაფრთხილება შეიძლება მოხდეს:

  • აპის დაწყებამდე და ზუსტად მაშინ, როცა აპი გამოძახებას აპირებს
  • წარმოდგენილია აპლიკაციის გაშვებისთანავე და მხოლოდ საწყის წერტილში
  • ნაჩვენებია დასაწყისში და ისევ შუა გზაზე
  • ნაჩვენებია რამდენჯერმე AI-ს გამოყენების განმავლობაში
  • მოცემულია აპლიკაციის გამოყენების ბოლოს
  • მიაწოდეთ აპიდან გასვლის შემდეგ და შესაძლოა წუთებში, საათებში ან დღეებშიც კი
  • ა.შ.

როგორ ფიქრობთ, რომ პირმა, რომელიც იყენებს AI-ს, უნდა დაადასტუროს ან აღიაროს რაიმე ასეთი AI გაფრთხილება ან გამაფრთხილებელი ნიშანი?

ზოგი დაჟინებით მოითხოვს, რომ ადამიანს მოეთხოვოს აღიაროს, რომ მან დაინახა გაფრთხილებები. ეს ხელს შეუშლის მათ, ვინც შეიძლება განაცხადოს, რომ არ იყო რაიმე გამაფრთხილებელი შეტყობინება. ამან ასევე შეიძლება გამოიწვიოს ადამიანების შეტყობინებების უფრო სერიოზულად აღქმა, იმის გათვალისწინებით, რომ მათ სთხოვენ დაადასტურონ, რომ დააკვირდნენ გამაფრთხილებელ მითითებას.

აქ არის რთული კითხვა თქვენთვის.

უნდა ყველა AI-მ უნდა მიაწოდოს გაფრთხილება ან უსაფრთხოების მითითება?

თქვენ შეიძლება ამტკიცებდეთ, რომ დიახ, ყველა AI უნდა ჰქონდეს ეს. მაშინაც კი, თუ AI არის მხოლოდ ზღვრული უსაფრთხოების რისკი, მას მაინც უნდა ჰქონდეს რაიმე სახის გამაფრთხილებელი ნიშანი, შესაძლოა მხოლოდ შეტყობინება ან საინფორმაციო მითითება. სხვები ამ კამათს ედავებოდნენ. ისინი ამტკიცებენ, რომ თქვენ ზედმეტად გადადიხართ. ყველა AI-ს არ სჭირდება ეს. გარდა ამისა, თუ აიძულებთ ყველა AI-ს ჰქონდეს ის, თქვენ გაათბებთ მიზანს. ხალხი დაბუჟდება გამაფრთხილებელი ნიშნების დანახვით. მთელი მიდგომა ფარსი გახდება.

დაკავშირებული კუთხით, განიხილეთ რას იტყვიან AI შემქმნელები.

ერთი თვალსაზრისი იქნება, რომ ეს იქნება ტკივილი იმაში, რომ თქვენ იცით, რა უნდა დააყენოთ. თქვენი ყველა AI სისტემის შეცვლა და ამ ფუნქციის დამატება შეიძლება ძვირი დაჯდეს. მისი დამატება წინსვლის საფუძველზე შეიძლება იყოს ნაკლებად ძვირი, თუმცა, მიუხედავად ამისა, არსებობს ღირებულება, რომელიც დაკავშირებულია ამ დებულების ჩართვასთან.

სისუსტე კიდევ ერთი პოტენციური საჩივარია. რა სახის შეტყობინება უნდა იყოს ნაჩვენები? თუ არ არსებობს რაიმე სტანდარტი, ეს ნიშნავს, რომ ხელოვნური ინტელექტის შემქმნელებს მოუწევთ რაიმე ხელახლა შექმნან. ეს არამხოლოდ დამატებით ხარჯებს აწესებს, ის შესაძლოა ხსნის კარს სასამართლოში გასაჩივრებისთვის. თქვენ წარმოიდგინეთ, რომ ხელოვნური ინტელექტის შემქმნელს შეიძლება დაეკისროს დავალება, რომ მათი გაფრთხილება არ იყო ისეთივე კარგი, როგორც სხვა AI სისტემა. იურისტები შედეგად დაბნეულობისგან შეფუთვას დაასრულებენ.

ასევე არსებობს შეშფოთება იმისა, რომ ხალხი ზედმეტად შეშინდება ამ უსაფრთხოების შეტყობინებებით.

ხელოვნური ინტელექტის შემქმნელმა შეიძლება დაინახოს მომხმარებელთა რიცხვის მკვეთრი ვარდნა უსაფრთხოების შეტყობინების გამო, რომელიც მხოლოდ ინფორმაციული სიფრთხილის მიწოდებას ისახავს მიზნად. ხალხმა არ იცის რა უნდა გააკეთოს მესიჯზე. თუ მათ აქამდე არ უნახავთ ასეთი შეტყობინებები, ისინი შეიძლება მაშინვე გაბრაზდნენ და თავიდან აიცილონ ხელოვნური ინტელექტის უაზრო გამოყენება.

მე აღვნიშნავ ამ ასპექტებს, რადგან ზოგიერთი უკვე აცხადებს, რომ „არ შეიძლება ზიანი მიაყენოს“ ხელოვნური ინტელექტის გაფრთხილებების ან უსაფრთხოების შეტყობინებების ჩათვლით. მათთვის იდეა ისეთივე იდეალურია, როგორც ვაშლის ღვეზელი. ვერავინ შეძლებს სერიოზულად უარყოს AI-სთან დაკავშირებული უსაფრთხოების ან გაფრთხილებების ყოველთვის მოთხოვნის უპირატესობები. მაგრამ, რა თქმა უნდა, ეს არ არის ამ საკითხზე რეალურ სამყაროში აზროვნების გზა.

თქვენ შეგიძლიათ კიდევ უფრო შორს წახვიდეთ და განაცხადოთ, რომ ხელოვნური ინტელექტის გამაფრთხილებელმა შეტყობინებებმა შეიძლება გამოიწვიოს მასობრივი ისტერია. თუ ჩვენ უცებ დავიწყეთ ხელოვნური ინტელექტის სისტემების იძულება, ჰქონოდათ ასეთი შეტყობინებები, ადამიანებმა შეიძლება არასწორად გაიაზრონ ეს განზრახვა. ხედავთ, არის უამრავი შეგონება იმის შესახებ, რომ ჩვენ ვაწყდებით ხელოვნური ინტელექტის ეგზისტენციალურ კრიზისს, რომლის დროსაც ხელოვნური ინტელექტი აპირებს დაიპყროს მსოფლიო და მოსპოს კაცობრიობას, იხ. ბმული აქ ამ სახის პრეტენზიების ჩემი ანალიზისთვის.

ხელოვნური ინტელექტის გამაფრთხილებელი მესიჯის გამოყენებამ შესაძლოა ზოგიერთ ადამიანს „შთააგონოს“ დასასრული ახლოს. სხვაგვარად რატომ უნდა გამოჩნდეს შეტყობინებები ახლა? რა თქმა უნდა, ეს იმის მანიშნებელია, რომ საბოლოოდ, ხელოვნური ინტელექტი ემზადება გახდეს ჩვენი მჩაგვრელი ბატონი.

სწორი საქმის გაკეთების მცდელობის ერთგვარი სასოწარკვეთილად ბნელი შედეგია საზოგადოების ინფორმირებით, თუ როგორ შეიძლება AI-ს დისკრიმინაციული შესაძლებლობები ან სხვა AI ცუდად ასპექტები.

დასკვნა

ჯეიმს რასელ ლოუელმა, ცნობილმა ამერიკელმა პოეტმა, ერთხელ თქვა ეს: "გამოცდილების ერთი ეკალი ღირს გაფრთხილების მთელი უდაბნო".

მე აღვნიშნავ მაღალ შენიშვნას, რომ გავაკეთო რამდენიმე დასკვნითი კომენტარი ხელოვნური ინტელექტის გაფრთხილებების ან უსაფრთხოების შეტყობინებების შესახებ.

შანსი არის, რომ სანამ ჩვენ არ მივიღებთ გარკვეულწილად ფართოდ გაცნობიერებულ AI-ს ცუდი საქციელის კეთებას, არ იქნება დიდი ხმაური AI-სთან დაკავშირებული გამაფრთხილებელი შეტყობინებებისთვის. ხელოვნური ინტელექტის შემქმნელები, რომლებიც აირჩევენ ამის გაკეთებას ნებაყოფლობით, შესაძლოა მოწონება დაიმსახურონ, თუმცა ისინი ასევე შეიძლება უნებლიედ აღმოჩნდნენ უსამართლოდ შევიწროებული. ზოგიერთი ექსპერტი შეიძლება დაედევნოს მათ ხელოვნური ინტელექტის გამოყენებისთვის, რომელსაც ერთი შეხედვით გაფრთხილება სჭირდება, ამასობაში კი უგულებელყოფს იმის გაცნობიერებას, რომ ისინი პირველ რიგში ცდილობდნენ წასვლას და ყველა სხვა ხელოვნური ინტელექტის შემქმნელი ჩამორჩება.

ჯანდაბა, თუ ასეა, იქნებ არ გაწყენდეს, თუ არა.

კიდევ ერთი მოსაზრება ეხება იმას, რაც, როგორც ჩანს, ლამაზი კონცეპტუალური იდეის პრაქტიკულ და სასარგებლო პრაქტიკად გადაქცევას. ადვილია ხელების ქნევა და ბუნდოვნად ყვირილი ქარებს, რომ ხელოვნურ ინტელექტს უნდა ჰქონდეს გამაფრთხილებელი და უსაფრთხოების შეტყობინებები. რთული ნაწილია იმის გადაწყვეტისას, თუ რა უნდა იყოს ეს შეტყობინებები, როდის და სად უნდა იყოს წარმოდგენილი, აქვს თუ არა მათი ღირებულება საკმარის სარგებელს და ა.შ.

ჩვენ ამ თემაზე ბოლო სიტყვას (პოეტურად ასე) ამ დროისთვის მივცემთ ჯეიმს რასელ ლოუელს: „კრეატიულობა არის არა ნივთის პოვნა, არამედ მისი აღმოჩენის შემდეგ მისგან რაღაცის შექმნა“.

გამოიცანით, დროა გავიშალოთ ხელები და დავიწყოთ ამაზე მუშაობა. და ეს არ არის მხოლოდ გაფრთხილება, ეს არის ქმედება.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- გაფრთხილებები-ყველა-არსებულ-და-მომავალზე-აი/