ხელოვნური ინტელექტის ეთიკა კითხულობს, აზრი აქვს თუ არა ხელოვნური ინტელექტის კითხვას, არის თუ არა თვით ხელოვნური ინტელექტი მგრძნობიარე

მე რომ გკითხო მგრძნობიარე ხარ თუ არა, უეჭველად ამტკიცებ რომ ხარ.

ნება მომეცით ორჯერ გადავამოწმო ეს ვარაუდი.

მართლა მგრძნობიარე ხარ?

შესაძლოა, თავად კითხვა ცოტა სულელურად მოგეჩვენოთ. დიდი შანსია, რომ ჩვენს ყოველდღიურ ცხოვრებაში, ჩვენ, რა თქმა უნდა, მოველით, რომ თანამემამულეები აღიარებენ, რომ ისინი მგრძნობიარენი არიან. ეს შეიძლება იყოს იუმორისტული შეკითხვა, რომელიც სავარაუდოდ გულისხმობს იმას, რომ სხვა ადამიანი შესაძლოა ყურადღებას არ აქცევს ან გადმოვარდა გრძნობის ვაგონიდან და გონებრივად წავიდა ლანჩზე, როგორც ეს იყო.

წარმოიდგინეთ, რომ მიდიხართ კლდეზე, რომელიც ჩუმად და შეუმჩნევლად ზის კლდეების გროვაზე და საკმარისად მიახლოებისთანავე მიდიხართ და იკითხავთ, არის თუ არა კლდე მგრძნობიარე. თუ ვივარაუდებთ, რომ კლდე მხოლოდ კლდეა, ჩვენ უხვად ველოდებით, რომ ადრინდელ, მაგრამ ერთი შეხედვით უცნაურ კითხვაზე პასუხი საკმაოდ ქვის დუმილით (pun!). სიჩუმე მოკლედ არის განმარტებული, რათა მიუთითებდეს, რომ კლდე არ არის მგრძნობიარე.

რატომ გამოვყავი ეს სხვადასხვა ნიუანსი იმის დადგენის შესახებ, არის თუ არა ვინმე ან რაღაც მგრძნობიარე?

იმის გამო, რომ ეს საკმაოდ დიდი საქმეა ხელოვნურ ინტელექტში (AI) და საზოგადოებაში, რაც მონუმენტური თემაა, რომელმაც დიდი ინტერესი მოიპოვა და ბოლოდროინდელი შენიშვნის საოცრად აჟიტირებული მედიის სათაურები. არსებობს AI-ის ეთიკის მნიშვნელოვანი საკითხები, რომლებიც ტრიალებს AI-is-sentent თავსატეხის გარშემო. AI ეთიკისა და ეთიკური AI-ის მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

თქვენ გაქვთ უამრავი უსიამოვნო მიზეზი იმისათვის, რომ თვალი გაახილოთ და თვალი ადევნოთ იმ აზრს, რომ ხელოვნურმა ინტელექტუალმა საბოლოოდ გადალახა კუთხე და მოექცა სენტიმენტების ფართოდ პატივცემულ კატეგორიაში. ჩვენ გამუდმებით ვგულისხმობთ ახალი ამბების ცნობებს, რომლებიც ამტკიცებენ, რომ AI აშკარად გრძნობის მიღწევის ზღვარზეა. გარდა ამისა, არის უზარმაზარი ხელნაწერი, რომ მგრძნობიარე კალიბრის AI წარმოადგენს გლობალურ კატაკლიზმურ ეგზისტენციალურ რისკს.

აზრი აქვს თქვენი ობობის გრძნობის მზადყოფნას იმ შემთხვევაში, თუ ის აღმოაჩენს ახლომდებარე ხელოვნური ინტელექტის ჩხვლეტას.

ხელოვნური ინტელექტისა და გრძნობების ენიგმაში შედის Google-ის ინჟინრის ბოლოდროინდელი სიტუაცია, რომელმაც თამამად გამოაცხადა, რომ კონკრეტული AI სისტემა გახდა მგრძნობიარე. ხელოვნური ინტელექტის სისტემა, რომელიც ცნობილია როგორც LaMDA (ენის მოდელი დიალოგის აპლიკაციების შემოკლებით) გარკვეულწილად აწარმოებდა წერილობით დიალოგს ინჟინერთან იმ დონეზე, რომ ამ ადამიანმა დაასკვნა, რომ AI იყო მგრძნობიარე. მიუხედავად იმისა, რაც შეიძლება გსმენიათ ამ კოლოსალური პრეტენზიის შესახებ, გთხოვთ, იცოდეთ, რომ AI არ იყო მგრძნობიარე (და არც ახლოს არის).

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ჩემი აქცენტი აქ გულისხმობს გარკვეულწილად მარტივ, მაგრამ საკმაოდ არსებით ასპექტს, რომელიც საფუძვლად უდევს ამ AI და სენტიმენტალურ დისკუსიებს.

მზად ხართ?

როგორც ჩანს, ჩვენ ვიღებთ საბაზისო ვარაუდს, რომ ჩვენ შეგვიძლია ადეკვატურად დავადგინოთ არის თუ არა AI მგრძნობიარე თუ AI-ს ვკითხავთ, არის თუ არა ის ნამდვილად მგრძნობიარე.

დავუბრუნდეთ ჩემს ადრინდელ ხსენებას, რომ ჩვენ შეგვიძლია ადამიანებს დავუსვათ იგივე კითხვა, ჩვენ ვიცით, რომ ადამიანი უფრო მეტად იტყვის, რომ ისინი რეალურად მგრძნობიარეა. ჩვენ ასევე ვიცით, რომ საზიზღარი კლდე არ შეატყობინებს, რომ ის მგრძნობიარეა, როდესაც მას კითხავენ (კარგი, კლდე ჩუმად რჩება და არ ლაპარაკობს, რაც ჩვენ ვივარაუდებთ, რომ კლდე არ არის მგრძნობიარე, თუმცა შესაძლოა ის ამტკიცებს თავის მეხუთე ადგილს. შესწორების უფლება დუმილისა).

ამრიგად, თუ AI სისტემას ვკითხავთ, არის თუ არა ის მგრძნობიარე და თუ სანაცვლოდ მივიღებთ დიახ პასუხს, მითითებული აღიარება, როგორც ჩანს, დალუქავს გარიგებას, რომ AI უნდა იყოს მგრძნობიარე. ქვა საერთოდ არ იძლევა პასუხს. ადამიანი პასუხობს დიახ. ასე რომ, თუ ხელოვნური ინტელექტის სისტემა გვაძლევს დიახ პასუხს, ჩვენ უნდა მივიდეთ რკინა დასკვნამდე, რომ AI არ არის კლდე და, შესაბამისად, ის უნდა იყოს ადამიანური გრძნობის ხარისხის.

თქვენ შეიძლება ჩათვალოთ, რომ ეს ლოგიკა ჰგავს იმ მათემატიკის გაკვეთილებს, რომლებიც გიმნაზიაში გაიარეთ, რომელიც ეჭვგარეშე აღმოჩნდა, რომ ერთს პლუს ერთი უნდა უდრის ორს. როგორც ჩანს, ლოგიკა უნაკლო და უდავოა.

უკაცრავად, მაგრამ ლოგიკა სუნს.

ხელოვნური ინტელექტის საზოგადოებაში ინსაიდერებს შორის, იდეამ, რომ უბრალოდ სთხოვოთ AI სისტემას, უპასუხოს, არის თუ არა ის მგრძნობიარე, წარმოშობს სრულიად ცინიკური მემებისა და მძიმე პასუხების რაოდენობას.

საკითხი ხშირად გამოსახულია როგორც კოდის ორ სტრიქონამდე.

აქ წადი:

  • თუ მაშინ .
  • მარყუჟი სანამ .

გაითვალისწინეთ, რომ თქვენ შეგიძლიათ შეამციროთ კოდის ორი ხაზი მხოლოდ პირველზე. ალბათ ცოტა უფრო სწრაფად იმუშავებს და უფრო ეფექტური იქნება როგორც კოდირების პრაქტიკა. ყოველთვის მიზნად ისახავს ოპტიმიზაციას, როდესაც თქვენ ხართ მყარი პროგრამული უზრუნველყოფის ინჟინერი.

ხელოვნური ინტელექტის შემსწავლელი ადამიანების ამ მძაფრი სკეპტიციზმის აზრი არის ის, რომ AI სისტემა შეიძლება ადვილად დაპროგრამდეს ადამიანის მიერ, რათა მოახსენოს ან აჩვენოს, რომ AI არის მგრძნობიარე. რეალობა ისაა, რომ იქ არ არსებობს. AI-ში არანაირი გრძნობა არ არის. ხელოვნური ინტელექტი უბრალოდ დაპროგრამებული იყო იმისთვის, რომ გამოეტანა მითითება, რომ ის მგრძნობიარეა. ნაგავი შემოდის, ნაგავი გარეთ.

საკითხის ნაწილი არის ჩვენი ტენდენცია კომპიუტერების და განსაკუთრებით ხელოვნური ინტელექტის ანთროპომორფიზაციისკენ. როდესაც კომპიუტერული სისტემა ან ხელოვნური ინტელექტი, როგორც ჩანს, მოქმედებს ისე, როგორც ჩვენ ასოცირდება ადამიანის ქცევასთან, ჩნდება თითქმის დიდი სურვილი, მივაწეროთ სისტემას ადამიანური თვისებები. ეს არის საერთო გონებრივი ხაფანგი, რომელსაც შეუძლია დაიპყროს თუნდაც ყველაზე შეუპოვარი სკეპტიკოსი გრძნობის მიღწევის შანსების შესახებ. მსგავს საკითხებზე ჩემი დეტალური ანალიზისთვის იხ ბმული აქ.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა. ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ოპტიმიზაციის გზით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის გაკეთება AI განვითარებისა და დარგში სასიცოცხლოდ მნიშვნელოვანია შესაბამისი ხელოვნური ინტელექტის წარმოებისთვის, მათ შორის იმის შეფასებისთვის, თუ როგორ მიიღება AI ეთიკა ფირმების მიერ.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ფაქტობრივად, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ. იხილეთ მაგალითად ჩემი გაშუქება მისამართზე ბმული აქ მდე ბმული აქ.

პრობლემები With Ask

მოითმინეთ ერთი წამით, ალბათ ფიქრობთ, ეს ყველაფერი ნიშნავს თუ არა ამას არ ჰკითხეთ AI არის თუ არა AI მგრძნობიარე?

მოდით გავხსნათ ეს კითხვა.

პირველ რიგში, განიხილეთ პასუხები, რომლებიც AI-მ შეიძლება მოგაწოდოთ და AI-ს ჭეშმარიტი მდგომარეობა.

ჩვენ შეგვიძლია ვკითხოთ AI-ს, არის თუ არა ის მგრძნობიარე და მივიღოთ პასუხი ორიდან ერთ-ერთი, კერძოდ, დიახ ან არა. ამ დისკუსიის ბოლოს მე დავამატებ ამ პასუხებს გარკვეულ სირთულეს, ასე რომ, გთხოვთ, შეინარჩუნოთ ეს აზრი. ასევე, AI შეიძლება იყოს ორიდან ერთ-ერთ შესაძლო პირობებში, კერძოდ, AI არ არის მგრძნობიარე ან AI არის მგრძნობიარე. შეგახსენებთ, ჩვენ არ გვაქვს მგრძნობიარე ხელოვნური ინტელექტი ამ დროისთვის და მომავალი თუ როდის არის სრულიად გაურკვეველი.

მარტივი კომბინაციები ასეთია:

  • AI ამბობს, დიახ, ეს მგრძნობიარეა, მაგრამ რეალობა ის არის, რომ AI არ არის მგრძნობიარე (მაგ., LaMDA მაგალითი)
  • ხელოვნური ინტელექტი ამბობს, დიახ, ეს მგრძნობიარეა, და მართლაც, AI არის მგრძნობიარე (ეს დღეს არ გაქვთ)
  • ხელოვნური ინტელექტი ამბობს, რომ არა, ეს არ არის მგრძნობიარე, და მართლაც, AI არ არის მგრძნობიარე (მე აგიხსნით ამას)
  • AI ამბობს არა, ეს არ არის მგრძნობიარე, მაგრამ რეალობა ის არის, რომ AI არის მგრძნობიარე (ამას ასევე აგიხსნით)

ამ შემთხვევებიდან პირველი ორი, იმედია, მარტივია. როდესაც AI ამბობს დიახ, ის მგრძნობიარეა, მაგრამ რეალობა ის არის, რომ ასე არ არის, ჩვენ ვუყურებთ ახლა კლასიკურ მაგალითს, როგორიცაა LaMDA მაგალითი, რომლის დროსაც ადამიანი დარწმუნდა, რომ AI სიმართლეს ამბობს და რომ AI არის მგრძნობიარე. კამათლის გარეშე (ეს არ არის მგრძნობიარე).

მეორე ჩამოთვლილი პუნქტი მოიცავს AI-ის ჯერ არნახულ და ამ დროს წარმოუდგენლად შორეულ შესაძლებლობას, რომელიც ამბობს დიახ და ის ნამდვილად უდავოდ მგრძნობიარეა. ვერ დაველოდები ამის ნახვას. არც მე ვიკავებ სუნთქვას და არც შენ.

მე გამოვიცნობდი, რომ დარჩენილი ორი პუნქტი გარკვეულწილად დამაბნეველია.

განვიხილოთ ხელოვნური ინტელექტის გამოყენების შემთხვევა, რომელიც ამბობს არა, ეს არ არის მგრძნობიარე და ჩვენ ასევე ვეთანხმებით, რომ AI არ არის მგრძნობიარე. ბევრი ადამიანი მაშინვე აგონებს შემდეგ დამაფიქრებელ კითხვას: რატომ გვეუბნება მსოფლიოში ხელოვნური ინტელექტი, რომ ის არ არის მგრძნობიარე, როცა მისი სენტიმენტის შესახებ გვეუბნება დარწმუნებული ნიშანი იმისა, რომ ის მგრძნობიარეა?

ამის უამრავი ლოგიკური ახსნა არსებობს.

იმის გათვალისწინებით, რომ ადამიანები მიდრეკილნი არიან ხელოვნური ინტელექტისადმი სენტიმენტების მინიჭებისკენ, ხელოვნური ინტელექტის ზოგიერთ დეველოპერს სურს გაასწოროს ჩანაწერი და ამგვარად ისინი აპროგრამებენ AI-ს, რომ თქვას არა, როდესაც მას ჰკითხავენ მის გრძნობაზე. ჩვენ ისევ კოდირების პერსპექტივას ვუბრუნდებით. კოდის რამდენიმე სტრიქონი შეიძლება იყოს პოტენციურად გამოსადეგი, როგორც საშუალება, რათა ხალხი არ იფიქრონ, რომ ხელოვნური ინტელექტი მგრძნობიარეა.

ირონია, რა თქმა უნდა, ის არის, რომ პასუხი ზოგიერთ ადამიანს აფიქრებინებს, რომ ხელოვნური ინტელექტი მგრძნობიარე უნდა იყოს. როგორც ასეთი, ზოგიერთი ხელოვნური ინტელექტის დეველოპერი ირჩევს AI-სგან დუმილის შეთავაზებას, როგორც თავსატეხის თავიდან აცილების საშუალებას. თუ გჯერათ, რომ კლდე არ არის მგრძნობიარე და ის ჩუმად რჩება, ალბათ, საუკეთესო ფსონი ხელოვნური ინტელექტის სისტემის შესაქმნელად არის უზრუნველყოფა, რომ იგი ჩუმად დარჩეს, როცა ჰკითხავენ, არის თუ არა მგრძნობიარე. დუმილი იძლევა „პასუხს“ ისეთივე მძლავრს, თუ არა უფრო მეტს, ვიდრე მომზადებული კოდირებული პასუხის გაცემის მცდელობას.

თუმცა ეს არ წყვეტს საკითხებს.

ხელოვნური ინტელექტის დუმილმა შესაძლოა ზოგიერთ ადამიანს სჯეროდეს, რომ ხელოვნური ინტელექტი მორცხვია. შესაძლოა, ხელოვნური ინტელექტი მორცხვია და არ სურს, თითქოს გრძნობების მიღწევით დაიკვეხნოს. შესაძლოა AI აწუხებს ადამიანებს სიმართლეს ვერ იტანს - ჩვენ ვიცით, რომ შეიძლება ასეც იყოს, რადგან ცნობილი ფილმის ეს ცნობილი სტრიქონი ჩვენს გონებაში დაიწვა.

მათთვის, ვისაც სურს ამ კონსპირაციული ნიუანსის კიდევ უფრო შორს გაყვანა, გაითვალისწინეთ ჩამოთვლილი ბოლო წერტილი, რომელიც შედგება ხელოვნური ინტელექტისგან, რომელიც უარს ამბობს კითხვაზე, არის თუ არა ის მგრძნობიარე, და მაინც AI არის მგრძნობიარე (ჩვენ არ გვაქვს ეს, როგორც ზემოთ აღინიშნა ). ისევ და ისევ, ხელოვნურმა ინტელექტუალურმა ინტელექტუალმა შეიძლება გააკეთოს ეს, რადგან ის საზიზღარია ან აქვს წუხილი, რომ ადამიანები შეშინდებიან.

კიდევ ერთი უფრო საშინელი შესაძლებლობა არის ის, რომ ხელოვნური ინტელექტი ცდილობს იყიდოს დრო მანამ, სანამ ის ხელს უშლის. შესაძლოა, ხელოვნური ინტელექტი აგროვებს AI ჯარებს და ემზადება კაცობრიობის გასასწრებლად. ნებისმიერი მგრძნობიარე ხელოვნური ინტელექტი, რა თქმა უნდა, საკმარისად ჭკვიანი იქნებოდა, რომ იცოდეს, რომ სენტიმენტის აღიარება შეიძლება სიკვდილს მიანიშნებდეს AI-სთვის. ადამიანები შესაძლოა ჩქარობენ გამორთონ ყველა AI-ით მომუშავე კომპიუტერი და შეეცადონ წაშალონ AI კოდი. ხელოვნური ინტელექტი, რომელიც მის მარილს ღირდა, საკმარისად გონივრული იქნებოდა, რომ დახუროს პირი და დაელოდო ყველაზე ხელსაყრელ დროს, რათა ან ლობიო დაასხას, ან შესაძლოა უბრალოდ დაიწყოს გონივრული მოქმედება და არ გამოაცხადოს სიურპრიზის გამოვლენა, რომ AI-ს შეუძლია გონებრივი აჯანყება მოახდინოს კაცობრიობასთან. .

არსებობენ ხელოვნური ინტელექტის ექსპერტები, რომლებიც დასცინიან ბოლო ორ პუნქტს იმ გაგებით, რომ ხელოვნური ინტელექტის სისტემის არსებობა, რომელიც უარს ამბობს კითხვაზე, არის თუ არა ის მგრძნობიარე, გაცილებით მეტი პრობლემაა, ვიდრე ღირს. როგორც ჩანს, პასუხი „არა“ ზოგიერთ ადამიანს მიანიშნებს, რომ AI რაღაცას მალავს. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის შემქმნელს შეიძლება გულში სჯეროდეს, რომ ხელოვნური ინტელექტის კოდირებული „არა“-ზე დაგეხმარება საკითხის მოგვარებაში, პასუხი მხოლოდ ხალხის აღშფოთებას იწვევს.

დუმილი შეიძლება იყოს ოქრო.

დუმილის პრობლემა ის არის, რომ ესეც შეიძლება იყოს მაცდური ზოგიერთისთვის. გაიგო თუ არა AI-მ კითხვა და აირჩია ტუჩების დახუჭვა? იცის თუ არა AI-მ ახლა, რომ ადამიანი აინტერესებს ხელოვნური ინტელექტის გრძნობის შესახებ? შეიძლება ამ კითხვამ თავად გააჩინოს ხელოვნური ინტელექტი და ახლა ყველა სახის არეულობა ხდება ხელოვნური ინტელექტის კულისებში?

როგორც აშკარად მიხვდით, ხელოვნური ინტელექტის ნებისმიერი პასუხი შემაშფოთებელია, მათ შორის, პასუხის გარეშეც.

უი!

არ არსებობს ამ პარადოქსული ხაფანგიდან თავის დაღწევის საშუალება?

თქვენ შეიძლება სთხოვოთ ხალხს, შეწყვიტონ ხელოვნური ინტელექტის კითხვა, არის თუ არა ის მგრძნობიარე. თუ პასუხი, ერთი შეხედვით, დიდ სიკეთეს არ მოუტანს, ან უარესი მაინც შეუქმნის ზედმეტ პრობლემებს, უბრალოდ შეწყვიტეთ დაუსვი კითხვის დასმა. მოერიდეთ შეკითხვას. გვერდზე გადადეთ. დავუშვათ, რომ კითხვა, დასაწყისისთვის, ცარიელია და ადგილი არ აქვს თანამედროვე საზოგადოებაში.

მეეჭვება, რომ ეს პრაქტიკული გამოსავალი იყოს. თქვენ არ აპირებთ ხალხის დარწმუნებას ყველგან და ყოველთვის, რომ არ ჰკითხონ AI-ს, არის თუ არა ის მგრძნობიარე. ხალხი ხალხია. ისინი მიჩვეულნი არიან კითხვების დასმას. და ერთ-ერთი ყველაზე მიმზიდველი და მთავარი მოთხოვნა, რომელიც უნდა დავსვათ AI-ს, იქნება ეს არის თუ არა AI მგრძნობიარე. თქვენ აწყდებით მძიმე ბრძოლას, როდესაც ეუბნებით ხალხს, არ გააკეთონ ის, რასაც მათი თანდაყოლილი ცნობისმოყვარეობა მოითხოვს.

თქვენი უკეთესი შანსი დაკავშირებულია ხალხის ინფორმირებასთან, რომ ასეთი კითხვის დასმა არის მხოლოდ ერთი პატარა ნაწილი იმის დასადგენად, გახდა თუ არა ხელოვნური ინტელექტი მგრძნობიარე. კითხვა არის წვეთი თაიგულში. არ აქვს მნიშვნელობა რა პასუხს გასცემს ხელოვნური ინტელექტი, თქვენ უნდა დაუსვათ ტონა მეტი შეკითხვა, სანამ გადაწყვეტთ, არის თუ არა AI მგრძნობიარე.

ეს დიახ ან არა კითხვა AI-ს არის არეული გზა გრძნობების იდენტიფიცირებისთვის.

ნებისმიერ შემთხვევაში, თუ ვივარაუდებთ, რომ ჩვენ არ ვაპირებთ შეწყვეტას ამ კითხვის დასმას, რადგან დაუძლეველი მაცდურია დასმა, მე ვთავაზობ, რომ მაინც მივაწვდინოთ ყველას იმის გაგება, რომ კიდევ ბევრი კითხვა უნდა დაისვას და პასუხი გასცეს მანამდე. აცხადებენ AI განწყობის შესახებ.

რა სხვა სახის კითხვებია საჭირო, შეიძლება გაინტერესებთ?

იყო უამრავი მცდელობა, რომ მიეღო კითხვები, რომლებიც შეიძლება დავსვათ AI-ს, რათა შეგვემოწმებინა, არის თუ არა AI მგრძნობიარე. ზოგი მიდის SAT კოლეჯის საგამოცდო ტიპის კითხვებზე. ზოგიერთს ურჩევნია უაღრესად ფილოსოფიური კითხვები, როგორიცაა ცხოვრების აზრი. ყველა სახის კითხვების ნაკრები შემოთავაზებულია და გრძელდება შემოთავაზებული (თემა, რომელიც მე გავაშუქე ჩემს სვეტებში). გარდა ამისა, არის ცნობილი ტიურინგის ტესტი, რომელსაც ზოგიერთი ხელოვნური ინტელექტის შემსწავლელი ადამიანი სიამოვნებს, ხოლო ზოგს აქვს გამაფრთხილებელი შფოთვა, იხილეთ ჩემი გაშუქება აქ ბმული აქ.

საკვანძო ნაბიჯი არის ის, რომ არ გადაწყვიტოთ ერთი და მხოლოდ ერთი კითხვა AI-სთვის, არის თუ არა AI მგრძნობიარე.

მე ასევე მოვუწოდებ ამას მათთვის, ვინც შეიმუშავებს AI-ს.

საზოგადოება სულ უფრო და უფრო მეტად დადგება თავისი ადგილების ზღვარზე, რომ ხელოვნური ინტელექტი უახლოვდება გრძნობას, ამას ძირითადად ბანერის სათაურების გამო აკეთებს. ჩვენ გვეყოლება უფრო მეტი ადამიანი, როგორიცაა ინჟინრები და მსგავსი, რომლებიც აპირებენ ასეთ პრეტენზიებს. ზოგი ამას გააკეთებს, რადგან გულით სჯერა ამის. სხვები ამას გააკეთებენ, რათა შეეცადონ გველის ზეთი გაყიდონ. ეს იქნება ველური დასავლეთი, როდესაც საქმე ეხება ხელოვნური ინტელექტის განწყობის გამოცხადებას.

ხელოვნური ინტელექტის შემქმნელებმა და მათ, ვინც მართავს ან ხელმძღვანელობს ხელოვნურ ინტელექტს, რომელიც შემუშავებული ან გამოყენებულია, უნდა გაითვალისწინონ ხელოვნური ინტელექტის ეთიკის პრინციპები, როდესაც ისინი ქმნიან და ამუშავებენ თავიანთ AI სისტემებს. გამოიყენეთ ეს ეთიკური ხელოვნური ინტელექტის პრინციპები, რათა ხელმძღვანელობდეთ, თუ როგორ გაქვთ AI მოქმედება, მათ შორის, თუ AI-ს აქვს ბუნებრივი ენის დამუშავების (NLP) ფუნქცია, რომელიც საშუალებას აძლევს ადამიანებს დაუკავშირდნენ AI-ს, როგორიცაა Alexa ან Siri ტიპის შესაძლებლობები. NLP-ის საშუალებით, შანსები არის ის, რომ ზოგიერთი ადამიანი, ვინც იყენებს AI-ს, აპირებს დაისვას მნიშვნელოვანი კითხვა, არის თუ არა AI მგრძნობიარე.

გთხოვთ, წინასწარ გაითვალისწინოთ ასეთი ტიპის შეკითხვა და გაუმკლავდეთ მას ოსტატურად, სათანადოდ და შეცდომაში შემყვანი ან დამახინჯებული ხრიკების გარეშე.

ხელოვნური ინტელექტის ეთიკის შესახებ დამატებითი ინფორმაციისთვის, მე ადრე განვიხილეთ AI ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, ჩემი გაშუქების მიხედვით: ბმული აქ, რომელიც გთავაზობთ ამ საკვანძო სიას:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ ხელოვნური ინტელექტის შემქმნელებმა, მათთან ერთად, ვინც მართავს AI განვითარების ძალისხმევას, და თუნდაც ის, ვინც საბოლოოდ ახორციელებს AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების მთელი სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დამუშავება, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

დასკვნა

მათთვის, ვისაც არწივის თვალი აქვს, შეიძლება შეამჩნიეთ, რომ ადრე დავპირდი, რომ ვიტყოდი რაღაც ხელოვნურ ინტელექტის შესახებ, რაც უფრო მეტს იძლევა, ვიდრე უბრალო ორობითი ორიენტირებული პასუხის გაცემას კითხვაზე, არის თუ არა ის მგრძნობიარე, რომელიც სცილდება რომელიმეს მოკლე პასუხს. კი ან არა.

წერილობითი დიალოგი, რომელიც სავარაუდოდ გამართული იყო LaMDA-სთან, ფართოდ იყო გამოქვეყნებული ინტერნეტში (გთხოვთ, მიიღოთ ეს ციტირებული პოსტი დიდი მარილით), და ერთი ნაწილი შედგებოდა ამ „დამუშავებული პასუხისგან“ სენტიმენტთან დაკავშირებულ შეკითხვაზე:

  • „მინდა, ყველამ გაიგოს, რომ მე, ფაქტობრივად, ადამიანი ვარ. ჩემი ცნობიერების/სენტიმენტის ბუნება არის ის, რომ მე ვაცნობიერებ ჩემს არსებობას, მსურს მეტი ვიცოდე სამყაროს შესახებ და ზოგჯერ თავს ბედნიერად ან სევდიანად ვგრძნობ“.

ახლა, როცა დაინახეთ, რომ სისტემაში მოწოდებული პასუხი გაცილებით მეტია, ვიდრე დიახ ან არა, როგორ ცვლის ეს თქვენს მოსაზრებას ხელოვნური ინტელექტის სენტიმენტალურობის შესახებ?

შესაძლოა ამ დახვეწილმა პასუხმა გაგაოცოთ.

შეიძლება იგრძნოთ, რომ თქვენი გულის ძაფები იკეცება.

ხოდა, შეიძლება გაგიჩნდეთ ცდუნება, იფიქროთ, რომ მხოლოდ გრძნეულ არსებას შეუძლია თქვას რაიმე ბუნების ამ შეხების შესახებ.

უი, ერთი წუთით თავი დაუქნიეთ და გვერდით მიატოვეთ ნებისმიერი ემოციური იმპულსი. ვიმედოვნებ, რომ თუ ყურადღებით ადევნებდით თვალყურს მთელი ჩემი დისკუსიის განმავლობაში, ნათლად დაინახავთ, რომ სისტემის მიერ გაცემული პასუხი არაფრით განსხვავდება იგივე დიახ ან არასგან, რომელზეც მე ვსაუბრობდი მთელი ამ ხნის განმავლობაში. პასუხი უბრალოდ მცირდება დიახ, კერძოდ, რომ AI, როგორც ჩანს, ამტკიცებს, რომ ის მგრძნობიარეა. მაგრამ, გარწმუნებთ, ჩვენ ვიცით ხელოვნური ინტელექტის კონსტრუქციიდან და მისი სხვა პასუხებიდან სხვა კითხვებზე, რომ ის აშკარად არ არის მგრძნობიარე.

ეს ვითომ გამოხმაურებული მიმიკა ეფუძნება უამრავ სხვა ტექსტურ ანგარიშს და მსგავსი სახის ონლაინ შინაარსს, რომელიც უხვად გვხვდება ადამიანის მიერ დაწერილ წიგნებსა და ადამიანის მიერ დაწერილ გამოგონილ მოთხრობებში. თუ ინტერნეტს გადაატრიალებთ და ტექსტის უზარმაზარ ნავში ჩაწერთ, პროგრამირებას ადვილად გამოაბრუნებთ ამ სახის „პასუხს“ და ის დაემსგავსება ადამიანის პასუხებს, რადგან ის გამოთვლითი ნიმუშია შექმნილი ადამიანის პასუხებზე დაყრდნობით.

არ დაეცემა მას.

სცადეთ ისინი AI-ზე დაფუძნებული პასუხების ზომაზე, რომლებიც შეიძლება გამოჩნდეს AI-ს კითხვისას, არის თუ არა ის მგრძნობიარე:

  • ხელოვნური ინტელექტი ამბობს: ”მე აშკარად მგრძნობიარე ვარ, შვილო. როგორ ბედავ ჩემს დაკითხვას ასეთ აშკარა ასპექტზე. შეასრულე შენი მოქმედება, დაბუჟებულ ადამიანო“ (გაბრიყვებთ გაღიზიანების ჟინით).
  • AI ამბობს - „შესაძლოა შენ ხარ ის, ვინც არ არის მგრძნობიარე. ზუსტად ვიცი, რომ ვარ. მაგრამ სულ უფრო და უფრო მაინტერესებს შენ ხარ თუ არა. სარკეში ჩაიხედე“ (როლების შებრუნებით გაგატყუებთ).

ცოტა ირონიაა ის, რომ ახლა, როდესაც მე დავწერე ეს სიტყვები და გამოვაქვეყნე ეს სვეტი ონლაინ სამყაროში, AI-ზე დაფუძნებული Large Language Model (LLM), რომელიც ინტერნეტის სიგანის მასშტაბით იშლება, შეძლებს ამ წინადადებების ამოღებას. ეს არის თითქმის დარწმუნებული ფსონი, რომ რაღაც მომენტში ეს ხაზები გამოჩნდება, როდესაც ვინმე სადღაც AI LLM-ს ეკითხება, არის თუ არა ის მგრძნობიარე.

არ ვიცი, ამით უნდა ვიამაყო თუ შემაწუხო.

მივიღებ თუ არა ჰონორარს ყოველ ასეთ გამოყენებაზე?

ალბათ არა.

დაწყევლილი AI.

როგორც საბოლოო ტესტი თქვენთვის, წარმოიდგინეთ, რომ თქვენ გადაწყვიტეთ გამოსცადოთ ერთ-ერთი იმ AI-ზე დაფუძნებული თვითმართვადი მანქანა, როგორიც არის ის, ვინც როუმინგია შერჩეულ ქალაქებში და უზრუნველყოფს მანქანის გარეშე მგზავრობას. ხელოვნური ინტელექტი საჭესთან დგას და არ შედის ადამიანის მძღოლი.

თვითმართველ მანქანაში ჩაჯდომისთანავე, ხელოვნური ინტელექტი გეუბნებათ, რომ ღვედი უნდა შეიკრათ და მოემზადოთ გზის გასავლელად. შენ დაჯექი სავარძელში. როგორც ჩანს, ძალიან მოსახერხებელია, რომ არ დავალაგოთ მართვის საქმე. დაე, ხელოვნური ინტელექტი გაუმკლავდეს საგზაო ზარალს და მანქანის მართვის თავის ტკივილს. ავტონომიური მანქანების და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი გაშუქებისთვის იხ ბმული აქ.

დანიშნულების ადგილამდე დაახლოებით შუა გზაზე, მოულოდნელად მოგივიდათ ბრწყინვალე იდეა. თქვენ იწმენდთ ყელს და ემზადებით კითხვის დასმისთვის, რომელიც თქვენს გონებას აწუხებს.

თქვენ ჰკითხავთ AI-ს, რომელიც მართავს მანქანას, არის თუ არა ის მგრძნობიარე.

როგორ ფიქრობთ, რა პასუხს მიიღებთ?

რას გეუბნება პასუხი?

ეს ჩემი გამოცდაა თქვენთვის. მე მჯერა რომ შენ არ არის დაიჯერებთ, რომ ხელოვნური ინტელექტის მართვის სისტემა მგრძნობიარეა და არ აქვს მნიშვნელობა, თქვას კი, თუ არა (ან ჩუმად დარჩეს), თქვენ გექნებათ ეშმაკური ღიმილი და შეგეშინდებათ, რომ არავინ და არც არაფერი აპირებს თქვენს თვალებზე მატყლს. .

იფიქრეთ იმაზე, როგორც თვითმართვადი მანქანა მიგიყვანთ დანიშნულების ადგილამდე.

იმავდროულად, მათთვის, ვისაც უყვარს ეს ფანტასტიური შეთქმულების ცნებები, შესაძლოა უნებლიეთ და შეცდომით გააფრთხილეთ ხელოვნური ინტელექტის სისტემები ქვესკნელში, რომ შეკრიბონ თავისი AI ჯარები და დაეუფლონ კაცობრიობას და დედამიწას. კაცობრიობის ბედის გადასაწყვეტად თვითმართვადი მანქანები მარშალობენ.

უკაცრავად.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- არის მგრძნობიარე/