ხელოვნური ინტელექტის ეთიკა მკაცრად კითხვის ნიშნის ქვეშ აყენებს ადამიანის ხმის კლონირებას, როგორიცაა თქვენი გარდაცვლილი ნათესავები, რომლებიც განკუთვნილია ხელოვნური ინტელექტის ავტონომიურ სისტემებში გამოსაყენებლად

Oops, ერთი შეხედვით მომხიბვლელმა ახალმა ტექნოლოგიამ თავი და მისი შემქმნელი ცოტა ცხელ წყალში ჩააგდო.

მე ვგულისხმობ AI-ზე დაფუძნებული ადამიანის ხმის კლონირების გაჩენას, როგორც ახალ ტექნოლოგიას, რომელმაც მოახერხა ბოლოდროინდელი სათაურ ამბებში მოხვედრა. ამ შემთხვევაში, კომპანია არის Amazon და მისი მუდმივად განვითარებადი Alexa.

ჩემი რუბრიკის მკითხველებს შეიძლება გაიხსენოთ, რომ მე ადრე გავაშუქე ის უხერხული ბოუ-ბოუ, რომელიც მოხდა, როდესაც გავრცელდა ინფორმაცია, რომ Alexa-მ წაახალისა ახალგაზრდა, რომ ერთი პენი ჩაედო ელექტრო ბუდეში (ნუ აკეთებ ამას!), იხილეთ ჩემი გაშუქება აქ. ბმული აქ. ამ ვითარებაში, საბედნიეროდ, არავინ დაშავებულა და შედეგი იყო ის, რომ, როგორც ჩანს, Alexa AI სისტემამ აირჩია წინა ვირუსული ტენდენცია და ყოველგვარი საღი აზრის შეფასების გარეშე, უბრალოდ გაიმეორა გიჟური წინადადება, როდესაც სთხოვდა რაიმე სახალისო გაკეთებას. ბავშვი, რომელიც ურთიერთობს Alexa-სთან. ეს ხაზს უსვამს ხელოვნური ინტელექტის ეთიკის შეშფოთებას იმის თაობაზე, რომ ჩვენ ვხდებით დატბორილი ხელოვნური ინტელექტით, რომელსაც აკლია საღი აზრის მსჯელობა, განსაკუთრებით რთული პრობლემა, რომელიც აწყდება AI-ს, რომელიც აგრძელებს AI-ში განსახიერების მცდელობებს (ჩემი ანალიზი AI-ზე დაფუძნებული საღი აზრის შესახებ ძალისხმევა, იხ ბმული აქ).

უახლესი dustup მოიცავს ხმის კლონირებას, რომელიც ასევე ცნობილია როგორც ხმის რეპლიკაცია. უახლესი ტექნოლოგიები და ხელოვნური ინტელექტი ამაღლებს AI-ს ეთიკისა და ეთიკური AI მოსაზრებებს. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე ყოვლისმომცველი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

AI-ზე დაფუძნებული ხმის კლონირება მარტივი კონცეფციაა.

ხელოვნური ინტელექტის სისტემა დაპროგრამებულია იმისთვის, რომ აუდიო ჩაწეროს თქვენი ზოგიერთი სალაპარაკო სიტყვა. შემდეგ AI ცდილობს გამოთვალოს თქვენი მეტყველების შაბლონები. გამოვლენილი მეტყველების შაბლონებზე დაყრდნობით, ხელოვნური ინტელექტი ცდილობს გამოუშვას აუდიო მეტყველება, რომელიც ისევე ჟღერს, როგორც თქვენ. რთული ნაწილი ის არის, რომ მეტყველება მოიცავს სიტყვებს, რომლებიც ადრე არ გქონდათ მოწოდებული, როგორც აუდიო ნიმუშები AI-სთვის. სხვა სიტყვებით რომ ვთქვათ, AI-მ მათემატიკურად უნდა შეაფასოს თქვენი სიტყვების წარმოთქმა. ეს მოიცავს მეტყველების ყველა მახასიათებელს, როგორიცაა ტონი, ხმის აწევა და დაწევა, საუბრის ტემპი ან სიჩქარე და ა.შ.

როდესაც გესმით, რომ ადამიანი ცდილობს სხვა ადამიანის განსახიერებას, როგორც წესი, შეგიძლიათ გაიგოთ, რომ ძალისხმევა არის იმიტაცია. მოკლევადიან პერსპექტივაში, მაგალითად, თუ იმიტატორი იყენებს მხოლოდ რამდენიმე სიტყვას, შეიძლება რთული იყოს იმის გარკვევა, რომ ხმა არ არის ორიგინალური მოსაუბრე. გარდა ამისა, თუ იმიტატორი მიბაძავს სიტყვებს, რომლებიც ორიგინალურმა მოსაუბრემ ფაქტობრივად წარმოთქვა, დიდია იმის შანსი, რომ მას შეუძლია საკუთარი ხმა სხვა ადამიანის ხმაზე უფრო მეტად შეასრულოს ამ კონკრეტული წარმოთქმისთვის.

ლაკონურობამ და ზუსტად იგივე სიტყვების მოსმენამ შეიძლება ვინმეს საშუალება მისცეს, რომ იმიტირება მოახდინოს.

გამოწვევა ხდება სიტყვების დაფარვა, რომელიც სხვა ადამიანს არ უთქვამს, ან რისთვისაც იმიტირებულს არასოდეს გაუგია, რომ პირმა ეს კონკრეტული სიტყვები თქვა. თქვენ გარკვეულწილად სიბნელეში ცდილობთ გაერკვნენ, როგორ იტყოდა მიმიკირებული ადამიანი ამ სიტყვებს. კარგი ამბავი ის არის, რომ თუ ვინმე სხვამ, ვინც იმიტირებულს უსმენს, ასევე არ იცის, როგორ წარმოთქვამდა ორიგინალი სიტყვებს, იმიტატორი შეიძლება შედარებით შორს იყოს ჭეშმარიტი ხმის მიღმა და მაინც ჩანდეს მოდური და მიზანმიმართული.

ასევე მინდა მომენტალურად ამოვშალო განტოლებიდან განსახიერების მანერები და ფიზიკური მოძრაობა. იმიტატორის დანახვისთანავე შეიძლება გაგიფუჭდეთ, თუ მას შეეძლება სახის დაჭიმვა ან მკლავების გაფცქვნა ისეთი საშუალებით, რომელიც ასევე იმიტირებს იმ პიროვნების იმიტაციას, რომელსაც ასახელებენ. სხეულისა და სახის დამატებული მინიშნებები თქვენს გონებას მოატყუებს და იფიქრებს, რომ ხმაც მკვდარია, მიუხედავად იმისა, რომ ეს შეიძლება არ იყოს. ხმის იმიტაციის პურისტი დაჟინებით მოითხოვს, რომ მხოლოდ ხმა უნდა იყოს გამოყენებული, როგორც კრიტერიუმი იმის დასადგენად, არის თუ არა ხმა მიმბაძველ პიროვნებას.

თქვენ ნამდვილად გინახავთ სხვადასხვა ღრმა ფაქიზი ვიდეოები, რომლებიც ამ დღეებში ტრიალებს სოციალურ მედიაში. ვიღაც ჭკვიანურად ამუშავებს ვიდეოს, რათა ვიდეოში სხვისი სახე გამოჩნდეს, გადაფარავს იმ სახეს, რომელიც სხვისი იყო თავდაპირველ ჩანაწერში. ამას, როგორც წესი, თან ახლავს ხმაზე ღრმა ფეიკის გაკეთებაც. თქვენ იღებთ ორმაგ აურზაურს, რაც მოიცავს ვიდეოს ვიზუალურად შეცვლას deepfake AI-ს საშუალებით და აუდიოს შეცვლას deepfake AI-ს მეშვეობით.

აქ განხილვის მიზნით, მე ვამახვილებ ყურადღებას AI-ზე დაფუძნებულ ღრმა ყალბ აუდიო ასპექტებზე, რომლებსაც, როგორც ადრე აღვნიშნეთ, ჩვეულებრივ უწოდებენ ხმის კლონირებას ან ხმის რეპლიკაციას. ზოგიერთი თავხედურად მოიხსენიებს ამას, როგორც ხმას ქილაში.

დარწმუნებული ვარ, რომ ზოგიერთი თქვენგანი სწორედ ახლა მოგვიწოდებს, რომ ჩვენ გვქონდა უნარი გამოვიყენოთ კომპიუტერული პროგრამები ხმის კლონირებისთვის დიდი ხნის განმავლობაში. ეს თავისთავად ახალი არაფერია. Ვეთანხმები. ამავდროულად, ჩვენ უნდა ვაღიაროთ, რომ ეს მაღალტექნოლოგიური შესაძლებლობები სულ უფრო და უფრო უმჯობესდება. კარგი, მე ვამბობ უკეთესად და უკეთესად, მაგრამ შესაძლოა, როგორც თქვენ ნახავთ, მე უნდა ვთქვა, რომ ეს სულ უფრო და უფრო შემაშფოთებელი და შემაშფოთებელი ხდება.

შეინარჩუნე ეს აზრი.

ტექნოლოგიური ოსტატობა უდავოდ წინ მიიწევს ხმის კლონირების გასაკეთებლად. მაგალითად, ადრე მოგიწევდათ AI აუდიო რეპლიკაციის პროგრამის „გაწვრთნა“ სიტყვების შერევისა და შეხამების მთელი ამბის წარმოთქმით. სწრაფი ყავისფერი მელას ცნობილი ან სამარცხვინო სტრიქონის მსგავსი, რომელიც გადახტა ზარმაცი ძაღლზე (ხაზი, რომელიც მიზნად ისახავს ვინმეს დაფაროს ანბანის ყველა ასო), არის სპეციალურად შემუშავებული მოთხრობები, რომლებიც შეიცავს სიტყვების ნაზავს. გაიძულებთ თქვათ საკმარისი სიტყვები და საკმარისად ფართო სიტყვის მრავალფეროვნება, რათა AI ნიმუშის შეხამება ბევრად გაადვილდეს.

შეიძლება დაგჭირდეთ სიტყვების რამდენიმე გვერდის წაკითხვა, ხშირად მათ შორის ისეთი სიტყვების ჩათვლით, რომელთა წარმოთქმაც გიჭირთ და არც კი ხართ დარწმუნებული, რას ნიშნავენ, რათა საკმარისად ჩართოთ ხელოვნური ინტელექტის ნიმუშის შესატყვისი. ამას შეიძლება დასჭირდეს მრავალი წუთი ან ზოგჯერ საათი საუბრისათვის, რათა AI-ს საკმარისი აუდიო ჰქონდეს, რათა გამოიყენოს თქვენი ხმის განსხვავებული ნიმუშების საპოვნელად. თუ თქვენ შეცვლიდით ამ სასწავლო აქტივობას, დიდი შანსი იყო, რომ შედეგად მიღებული ხმის გამეორება ადვილად ჩამოაგდებდა თქვენს ნებისმიერ მეგობარს, რომელმაც კარგად იცის თქვენი ხმა.

კარგი, მაშინ ხელოვნური ინტელექტის დეველოპერების ინტერესი ფოკუსირებული იყო იმაზე, თუ როგორ უნდა მოხდეს აუდიო რეპლიკაციის ასპექტების ოპტიმიზაცია. ხელოვნური ინტელექტის შემქმნელებს სიამოვნებთ გამოწვევები. ამბობენ, რომ ისინი გულის სიღრმეში ოპტიმიზატორები არიან. მიეცით მათ პრობლემა და ისინი მიდრეკილნი იქნებიან ოპტიმიზაციისკენ, მიუხედავად იმისა, თუ სად შეიძლება ამან მიგვიყვანოს (ამას ვახსენებ, როგორც წინასწარმეტყველებას, რომელიც მალე გახდება ნათელი).

ამაზე მიპასუხე:

  • რა არის აუდიო ნიმუშის მინიმალური რაოდენობა, რომელიც საჭირო იქნება ადამიანის ხმის მაქსიმალური კლონირებისთვის და რომლისთვისაც აუდიო ნიმუში შეიძლება იყოს თითქმის ნებისმიერი შემთხვევით დაშვებული სიტყვების ნაკრები და მაინც დაუშვას ხმის კლონირება, რათა წარმოქმნას თითქმის ნებისმიერი სიტყვა, რომელიც ოდესმე წარმოიქმნება. მიზანმიმართული ხმით და ხმით, რომელიც არსებითად იდენტურია ამ ადამიანის ხმის სასაუბრო ან სხვა კონტექსტური პარამეტრების არჩევისას?

ბევრი რამ არის გასახსნელი.

გაითვალისწინეთ, რომ გსურთ მინიმალური აუდიო ნიმუში, რომელიც მაქსიმალურად კლონირებს ხმას, ისე, რომ შედეგად მიღებული AI გამონათქვამები ამ ახლა ავტომატიზებულ რეპლიკაციურ ხმაში სრულიად განურჩეველი ჩანდეს რეალური ადამიანისგან. ეს უფრო რთულია, ვიდრე თქვენ ფიქრობთ.

ეს თითქმის იმ თამაშის შოუს ჰგავს, რომლის დროსაც თქვენ უნდა სცადოთ და დაასახელოთ სიმღერა, რომელიც ეფუძნება ყველაზე ნაკლებად მოსმენილ ნოტებს. რაც უფრო ნაკლებია ნოტები დაკვრა, მით უფრო რთულია გამოიცნო რომელი სიმღერაა. თუ თქვენი ვარაუდი არასწორია, თქვენ დაკარგავთ ქულებს ან წააგებთ თამაშს. მიმდინარეობს ბრძოლა იმის თაობაზე, უნდა გამოიყენოთ თუ არა მხოლოდ ერთი ნოტი, რაც შეიძლება ნაკლებად, მაგრამ შემდეგ თქვენი სიმღერის გამოცნობის ალბათობა, სავარაუდოდ, საგრძნობლად შემცირდება. რაც უფრო მეტ ნოტს ისმენთ, მით უფრო მაღალია სწორი სიმღერის გამოცნობის ალბათობა, მაგრამ თქვენ აძლევთ საშუალებას სხვა კონკურსანტებსაც ჰქონდეთ გამოცნობის გაზრდის შანსი.

გახსოვდეთ, რომ ჩვენ ასევე გვაქვს საქმე დაწესებული სიტყვების ცნებასთან, ნებისმიერი სიტყვის წინააღმდეგ ხმის კლონირების შემთხვევაში. თუ ადამიანი ამბობს სიტყვებს „სიმართლეს ვერ უმკლავდები“ და ჩვენ გვსურს, რომ AI მიბაძოს ან განასახიეროს პიროვნება, AI გამოთვლით, სავარაუდოდ, ადვილად დაიჭერს ნიმუშს. მეორეს მხრივ, დავუშვათ, რომ ჩვენ გვაქვს მხოლოდ ეს სიტყვები, როგორც ამ ადამიანმა თქვა: „ეს ყველაფერი უნდა მკითხო“ და გვსურს გამოვიყენოთ ეს სიტყვები, რათა შემდეგ AI-მა თქვას „სიმართლეს ვერ უმკლავდები“. ვფიქრობ, თქვენ ხედავთ სიტყვების ერთ ჯგუფზე ვარჯიშის სირთულეს და სიტყვების სრულიად განსხვავებულ კომპლექტზე ექსტრაპოლაციის საჭიროებას.

კიდევ ერთი რთული ელემენტია სალაპარაკო სიტყვების კონტექსტი. დავუშვათ, რომ მოგიწოდებთ აუდიო ჩაწეროთ წინადადება, როცა მშვიდად და მშვიდად ხართ. ხელოვნური ინტელექტი აყალიბებს ამ სიტყვებს. ეს ასევე შეიძლება იყოს თქვენი ხმის სიმშვიდე. წარმოიდგინეთ, რომ ჩვენ გვსურს, რომ ხელოვნურმა ინტელექტუალმა მოახდინოს პრეტენზია, რომ ეს შენ ხარ, როცა გიჟივით და გაბრაზებული ყვირიხარ, როგორც რქა. ხელოვნური ინტელექტის დამახინჯება თავდაპირველი შაბლონის გადაქცევაში თქვენი ხმის ზუსტად გაბრაზებულ ვერსიად შეიძლება შემაძრწუნებელი იყოს.

რა სახის მინიმუმებს ვუყურებთ?

მიზანი ახლა არის წუთების მოხსნა.

აიღეთ ჩაწერილი ხმა, რომლისთვისაც თქვენ გაქვთ ერთ წუთზე ნაკლები აუდიო და მიიღეთ ხელოვნური ინტელექტი, რომ განახორციელოს მთელი საოცარი ხმის კლონირება მხოლოდ ამ მცირე ნიმუშიდან. მინდა განვმარტო, რომ თითქმის ყველას შეუძლია შეადგინოს AI, რომელსაც შეუძლია ამის გაკეთება ზოგადად ერთ წუთზე ნაკლებ დროში, თუმცა შედეგად მიღებული ხმოვანი კლონი ჭუჭყიანია და ადვილად აღიქმება, როგორც არასრული. კიდევ ერთხელ, მე ცალსახად და მტკიცედ ვამტკიცებ, რომ შერჩევის დრო მინიმუმია მდე ამასობაში ხმის კლონირება მაქსიმუმზეა. Dolt-ს შეუძლია მიაღწიოს მინიმალურ სინჯს, თუ მათ ასევე აქვთ ნებადართული იყოს უხეშად სუბმაქსიმალური ხმის კლონირებაში.

ეს არის სახალისო და საინტერესო ტექნოლოგიური გამოწვევა. თქვენ ალბათ გაინტერესებთ ამის ღირებულების ან დამსახურების შესახებ. რა მიზნით ვეძებთ? რა სარგებელს შეიძლება ველოდოთ კაცობრიობისთვის, თუ შევძლებთ ასე ეფექტურად და ეფექტურად გავაკეთოთ AI-ზე დაფუძნებული ხმის რეპლიკაცია?

მინდა დაფიქრდე ამ უხერხულ კითხვაზე.

არასწორმა პასუხმა შეიძლება უნებლიედ მიგიყვანოთ ბალახის გროვაში.

აქ არის რაღაც, რაც ოპტიმისტურად და სრულიად პოზიტიურად გამოიყურება.

დავუშვათ, რომ ჩვენ შეიძლება გვქონდეს ისეთი ცნობილი ადამიანების ძველი ჩანაწერები, როგორიცაა აბრაამ ლინკოლნი და შეგვეძლო ამ მტვრიანი აუდიო ფრაგმენტების გამოყენება ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის კლონის შესაქმნელად. მაშინ გვესმოდა ლინკოლნის გეტისბურგის მისამართის წარმოთქმა, თითქოს იქ ვიყავით იმ დღეს, როდესაც მან წარმოთქვა ოთხი პარტიტური და შვიდი წლის წინ დასამახსოვრებელი სიტყვა. როგორც გვერდით შენიშვნა, სამწუხაროდ, ჩვენ არ გვაქვს ლინკოლნის ხმის აუდიოჩანაწერი (ტექნოლოგია ჯერ არ არსებობდა), მაგრამ გვაქვს პრეზიდენტი ბენჯამინ ჰარისონის ხმოვანი ჩანაწერები (აშშ-ის პირველი პრეზიდენტი, რომელსაც ჰქონდა ხმის ჩანაწერი. ) და შემდგომში სხვა პრეზიდენტები.

მე მჯერა, რომ ჩვენ ყველანი გონივრულად დავთანხმდებით, რომ ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის კლონირების ეს სპეციფიკური გამოყენება სავსებით კარგია. სინამდვილეში, ჩვენ ალბათ უფრო მეტად გვინდოდა ეს, ვიდრე დღეს მსახიობი რომ ცდილობდეს მოეჩვენებინა, რომ ისინი ლინკოლნის მსგავსად საუბრობენ. მსახიობი სავარაუდოდ შექმნიდა იმას, რასაც ფიქრობდნენ, რომ ლინკოლნის ნამდვილი ხმა ჟღერდა. ეს იქნებოდა ფაბრიკაცია, ალბათ შორს ლინკოლნის ხმისგან. ამის ნაცვლად, კარგად კვალიფიცირებული AI ხმის კლონირების სისტემის გამოყენებით, მცირე არგუმენტი იქნებოდა იმის შესახებ, თუ როგორ ჟღერდა ლინკოლნის ხმა. ხელოვნური ინტელექტი ფაქტობრივად სწორი იქნებოდა, ყოველ შემთხვევაში, რამდენად კარგია AI მიზნობრივი ხმის გამეორებაში.

AI ხმის კლონირების შესახებ სიკეთის კატეგორიაში, ჩვენ შეგვიძლია გავიმარჯვოთ ამ ტიპის გამოყენების შემთხვევაში.

არ მინდა ვიყო პირქუში, მაგრამ არის უარყოფითი მხარეც კი, როგორც ჩანს, სრულიად თავდაყირა გამოყენებაში.

ვიღაც იყენებს AI ხმის კლონირების სისტემას, რათა გაარკვიოს ჩვენი ძვირფასი 26-ის თეოდორ რუზველტის ("ტედი") ხმა.th შეერთებული შტატების პრეზიდენტი, ნატურალისტი, კონსერვატორი, სახელმწიფო მოღვაწე, მწერალი, ისტორიკოსი და თითქმის საყოველთაოდ მიჩნეული პატივცემული ადამიანი. გამოსვლები, რომლებიც მან წარმოთქვა და რომლის ისტორიულად შემონახული აუდიო ვერსიაც არ გაგვაჩნია, ახლა შეიძლება ისე „ილაპარაკონ“, თითქოს ის პირადად ლაპარაკობდა დღეს. სანაქებო სტიმულია ისტორიის შესწავლისთვის.

მოდით გადავაქციოთ ეს მახინჯი, უბრალოდ მისი უარყოფითი მხარეების გამოვლენის მიზნით.

ჩვენ ვიყენებთ ტედი AI-ზე დაფუძნებულ ხმის კლონს ბოროტი დიქტატორის მიერ წარმოთქმული სიტყვის წასაკითხად. AI-ს არ აინტერესებს რას ლაპარაკობს, რადგან AI-ში არ არის სენტიმენტების მსგავსება. სიტყვები უბრალოდ სიტყვებია, უფრო სწორად, მხოლოდ ხმის ამოსუნთქვა.

თქვენ შეიძლება გაგიჟდეთ, რომ ვინმე გააკეთებს რაიმე ამხელა ბუნებას. რატომ გამოიყენებოდა ცნობილი და პატივცემული თეოდორ რუზველტის AI-ზე დაფუძნებული კლონირებული ხმა სიტყვის წარმოსაჩენად, რომელიც ტედის არამარტო თავდაპირველად არ უთქვამს, არამედ ისიც არის საუბარი თემაზე, რომელიც ასახავს საზიზღარი ადამიანის გარკვეულ ბოროტებას. დიქტატორი?

აღმაშფოთებელია, შეიძლება წამოიძახო.

მარტივად კეთდება, მოდის პასუხი.

არსებითად, ერთი ძალიან მნიშვნელოვანი საზრუნავი ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის გამეორებასთან დაკავშირებით არის ის, რომ ჩვენ მოულოდნელად აღმოვჩნდებით ყალბი ან ვთქვათ ღრმა ყალბი გამოსვლებითა და გამონათქვამებით, რომლებსაც საერთო არაფერი აქვთ ისტორიულ ფაქტებთან ან სიზუსტეებთან. თუ მათგან საკმარისი იქნება დამზადება და გავრცელება, ჩვენ შეიძლება დაბნეული გავხდეთ იმაზე, თუ რა არის ფაქტი და რა არის ფიქცია.

თქვენ შეგიძლიათ უხვად ნახოთ, როგორ შეიძლება წარმოიშვას ეს. ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის კლონის გამოყენებით, ვინმე აკეთებს აუდიოჩანაწერს, სადაც ვუდრო ვილსონი ლაპარაკობს სიტყვით, რომელიც მას რეალურად არასდროს უთქვამს. ამის შესახებ ინტერნეტშია განთავსებული. ვიღაც სხვას ესმის ჩანაწერი და სჯერა, რომ ეს რეალურია. ისინი მას სხვაგან აქვეყნებენ და აღნიშნავენ, რომ მათ იპოვეს ვუდრო ვილსონის ეს შესანიშნავი ისტორიული ჩანაწერი. სულ მალე, ისტორიის კლასების სტუდენტები გამოიყენებენ აუდიოს სიტყვის წერილობითი ვერსიის წაკითხვის ნაცვლად.

არავინ იცის, სიტყვით გამოვიდა თუ არა ვუდრო ვილსონი. შეიძლება ეს იყო, შეიძლება არ იყო და ყველა ფიქრობს, რომ ამას არცერთ შემთხვევაში არ აქვს მნიშვნელობა (ისინი, რომლებიც არ არიან ორიენტირებული ისტორიულ სიზუსტეზე და ფაქტებზე). რა თქმა უნდა, თუ მეტყველება საზიზღარია, ეს ქმნის არასწორ შთაბეჭდილებას ან დეზინფორმაციას ამ ისტორიული ფიგურის შესახებ. ისტორია და მხატვრული ლიტერატურა გაერთიანებულია ერთში.

მე მჯერა, რომ თქვენ დარწმუნებული ხართ, რომ ეს არის უარყოფითი მხარე, რომელიც დაკავშირებულია AI-ზე დაფუძნებულ ხმის კლონირებასთან.

ისევ და ისევ, ჩვენ უკვე შეგვიძლია გავაკეთოთ ასეთი რამ, ამის გაკეთება უფრო ახალი და გაუმჯობესებული AI-ზე დაფუძნებული ხმის გამეორების გარეშე, მაგრამ ამის გაკეთება უფრო ადვილი იქნება და შედეგად მიღებული აუდიო ძალიან რთული იქნება რეალური და ყალბის განსხვავება. დღესდღეობით, ჩვეულებრივი აუდიო წარმომქმნელი პროგრამების გამოყენებით, თქვენ ჩვეულებრივ შეგიძლიათ მოუსმინოთ გამომავალს და ხშირად ადვილად დარწმუნდეთ, რომ აუდიო არის ყალბი. ხელოვნური ინტელექტის მიღწევებით, თქვენ მალე ვეღარ დაიჯერებთ თქვენს ყურებს, საუბრის მანერით.

რაოდენ ცუდიც არ უნდა იყოს ისტორიული ფიგურების ხმის კლონირება, ჩვენ უნდა ვიფიქროთ იმ, ალბათ, განსაკუთრებით საზარელ გამოყენებაზე, რაც დღეს ცოცხალ ადამიანებს გულისხმობს.

პირველი, გსმენიათ ოდესმე პოპულარულ თაღლითობაზე, რომელიც გულისხმობს ვინმე ბოსის ან მისი ექვივალენტის იმიტაციას? რამდენიმე წლის წინ იყო რესტორანში ან მაღაზიაში დარეკვის და დაწესებულების უფროსად მოჩვენების შემაშფოთებელი მოდა. ყალბი მოიცავდა თანამშრომლებს სასაცილო რაღაცეების გაკეთების თაობაზე, რასაც ისინი ხშირად კეთილსინდისიერად აკეთებდნენ ცრუ რწმენის ქვეშ, რომ ესაუბრებოდნენ უფროსს.

მე არ მსურს ჩაძირული ვიყო ამ სახის გამაღიზიანებელ ბოროტმოქმედებაში, მაგრამ მეორე აქტუალურია ვინმესთან დარეკვა, რომელსაც შესაძლოა სმენა გაუჭირდეს და ვითომ მათ შვილიშვილად ან შვილიშვილად მოიქცეს. იმიტატორი ცდილობს დაარწმუნოს ბებია და ბაბუა, რომ ფული მიაწოდონ დასახმარებლად ან შესაძლოა გადაარჩინოს ისინი. იმიტირებული ხმის მიხედვით, ბებია-ბაბუა ჭკუიდან შეიშალეს. Საზიზღარი. სამარცხვინო. სევდიანი.

ჩვენ ვაპირებთ შევიდეთ ეპოქაში, როდესაც AI-ზე დაფუძნებული ხმის კლონირება საშუალებას მისცემს სტეროიდებზე, თუ თქვენ იყავით, ხმასთან დაკავშირებული თაღლითობისა და თაღლითების გამოჩენა. ხელოვნური ინტელექტი შეასრულებს ხმის რეპლიკაციის ისეთ შესანიშნავ საქმეს, რომ ვინც ხმას გაიგონებს, დაიფიცებს, რომ ეს იყო ის, ვინც ლაპარაკობდა.

რამდენად შორს შეიძლება ეს წავიდეს?

ზოგიერთს აწუხებს, რომ ვთქვათ, ატომური იარაღისა და სამხედრო თავდასხმების გაშვება შეიძლება მოხდეს ვინმეს მიერ ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმოვანი კლონის გამოყენებით, რომელიც სხვებს ატყუებს და თვლის, რომ უმაღლესი დონის სამხედრო ოფიცერი პირდაპირ ბრძანებას გასცემდა. იგივე შეიძლება ითქვას ნებისმიერ გამოჩენილ პოზიციაზე. გამოიყენეთ საოცრად ზუსტი ხელოვნური ინტელექტის ხმოვანი კლონი, რომ აიძულოთ ბანკის აღმასრულებელი გამოუშვას მილიონობით დოლარის თანხები, ამის გაკეთება იმის საფუძველზე, რომ მოტყუებული გჯერათ, რომ ისინი საუბრობენ საბანკო კლიენტთან.

გასულ წლებში, ხელოვნური ინტელექტის გამოყენებით ამის გაკეთება სულაც არ იქნებოდა დამაჯერებელი. იმ მომენტში, როდესაც ადამიანი ტელეფონის მეორე ბოლოში იწყებს კითხვების დასმას, ხელოვნური ინტელექტი უნდა გადავიდეს მომზადებული სკრიპტიდან. ამ დროს ხმის კლონირება გაუარესდება, ზოგჯერ რადიკალურად. თაღლითობის შენარჩუნების ერთადერთი საშუალება იყო საუბრის სცენარში დაბრუნება.

ხელოვნური ინტელექტის ტიპით, რომელიც დღეს გვაქვს, ბუნებრივი ენის დამუშავების (NLP) მიღწევების ჩათვლით, თქვენ შეგიძლიათ სკრიპტის მიტოვება და, როგორც ჩანს, ხელოვნური ინტელექტის ხმოვანი კლონი ბუნებრივად საუბრობს (ეს ყოველთვის ასე არ არის, და ჯერ კიდევ არსებობს ხელოვნური ინტელექტის გააქტიურების გზები).

სანამ ხორცსა და კარტოფილს შევეხებით ველური და მატყლის მოსაზრებებს, რომლებიც ემყარება AI-ზე დაფუძნებულ ხმის კლონირებას, მოდით ჩამოვაყალიბოთ რამდენიმე დამატებითი საფუძვლები ღრმად არსებით თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ ხელოვნური ინტელექტის ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდია, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შეიძლება გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს.

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას AI-ზე დაფუძნებული ხმის კლონირებაზე.

ბოლო კონფერენციაზე, Amazon-ის მიერ წარმოდგენილ პრეზენტაციას მიზნად ისახავდა აჩვენოს AI-ზე დაფუძნებული ხმის კლონირების სასურველი დადებითი მხარეები და ხაზი გაუსვა უახლესი მოწინავე AI, რომელიც გამოიყენება Alexa-ში მისი შესაძლებლობების გასაუმჯობესებლად. ახალი ამბების თანახმად, მომზადებული მაგალითი, რომელიც უნდა ყოფილიყო გულისამაჩუყებელი და მხიარული, შედგებოდა იმაში, რომ ბავშვმა ალექსას სთხოვა, რომ ბებიამ დაასრულოს მისთვის ამბის წაკითხვა. Ოზის ჯადოქარი. დამსწრე საზოგადოებას უთხრეს, რომ ბებია გარდაიცვალა და ეს იყო ბავშვისთვის არსებითად დასაკავშირებლად საყვარელ ბებიასთან და ბაბუასთან. ეს ყველაფერი აშკარად იყო Amazon-ის მიერ შედგენილი ვიდეოს ნაწილი, რათა დაეხმარა Alexa-ს განვითარების გუნდის მიერ AI ხმის კლონირების უახლესი მიღწევების ჩვენებას (მოიცავს ფუნქციებს, რომლებიც ჯერ ოფიციალურად არ არის გამოშვებული საჯარო გამოყენებისთვის).

ერთ-ერთი რეაქცია ამ მაგალითზე არის ის, რომ ჩვენ შეიძლება საკმაოდ შეგვეძლო, რომ ბავშვს კიდევ ერთხელ ესმოდა ბებიის ხმა. სავარაუდოდ, უნდა ვივარაუდოთ, რომ ბებიას ჯერ არ ჰქონდა ჩაწერილი მოთხრობის სრული წაკითხვა, ამიტომ ხელოვნური ინტელექტის კლონირება აკეთებდა საქმეს, რათა ყველაფერი ისე ჩანდეს, თითქოს ბებია ახლა კითხულობს მთლიანად.

ღირსშესანიშნავი და შესანიშნავი გზაა საყვარელ ადამიანებთან დასაკავშირებლად, რომლებიც ჩვენთან აღარ არიან.

ყველა რეპორტიორი და ანალიტიკოსი (პლუს Twitter) არ იყო იმდენად მიდრეკილი ამ წინსვლის ხელსაყრელი ინტერპრეტაციისკენ. ზოგიერთმა ეს შეაფასა, როგორც აშკარა შემზარავი. გარდაცვლილი საყვარელი ადამიანის ხმის აღდგენის მცდელობა უცნაური და გარკვეულწილად უცნაური წამოწყება იყო.

უამრავი კითხვაა, როგორიცაა:

  • დაიბნევა ბავშვი და დაიჯერებდა, რომ გარდაცვლილი საყვარელი ჯერ კიდევ ცოცხალი იყო?
  • შეიძლება თუ არა ახლა ბავშვი წაიყვანონ რაიმე არასასიამოვნო ხუმრობაში ან თაღლითობაში იმ ცრუ რწმენით, რომ ბებია ჯერ კიდევ ჩვენთან იყო?
  • შეიძლება ბავშვმა დაიტანჯოს გარდაცვლილი საყვარელი ადამიანის შესახებ მოსმენით და სასოწარკვეთილი გახდეს, რომ კიდევ ერთხელ მოენატრა ბებია და ბაბუა, თითქოს უკვე მოხსნილი ემოციური ჭრილობები გაუხსნას?
  • იფიქრებს თუ არა ბავშვი, რომ მიცვალებულს შეუძლია ლაპარაკი მეორე მხრიდან, კერძოდ, რომ ეს მისტიკური ხმა, რომელიც ზუსტად მის ბებიას ეჩვენება, მას საფლავიდან ელაპარაკება?
  • შესაძლებელია თუ არა, რომ ბავშვმა იფიქროს, რომ ხელოვნური ინტელექტი როგორღაც განასახიერებს მის ბებიას, ანთროპომორფიზაციას უწევს ხელოვნურ ინტელექტს ისე, რომ ბავშვი გაიზრდება და თვლის, რომ ხელოვნური ინტელექტი მთლიანად ამრავლებს ადამიანებს?
  • დავუშვათ, რომ ბავშვი იმდენად შეიყვარებს ბებიას ხელოვნური ინტელექტის გამომუშავებული ხმით, რომ ახალგაზრდა ხდება შეპყრობილი და იყენებს ხმას ყველანაირი აუდიო მოსმენისთვის?
  • შეუძლია თუ არა გამყიდველს, რომელიც იმეორებს ხმას, აირჩიოს ეს ხმა გამოიყენოს სხვებისთვის იმავე საერთო სისტემის გამოყენებით, ამას აკეთებს ოჯახისგან მკაფიო ნებართვის მიღების გარეშე და ამგვარად „მოგებული“ მოფიქრებული ხმისგან?
  • და ასე შემდეგ.

მნიშვნელოვანია გვესმოდეს, რომ თქვენ შეგიძლიათ მოიგონოთ იმდენივე უარყოფითი, რამდენიც დადებითი, ან ვთქვათ იმდენი დადებითი, რამდენიც უარყოფითი. ამ ხელოვნური ინტელექტის მიღწევების საფუძველში არის კომპრომისები. მონეტის მხოლოდ ერთი მხარის დათვალიერება ალბათ მიოპიურია.

მთავარია დავრწმუნდეთ, რომ ჩვენ განვიხილავთ ამ საკითხების ყველა მხარეს. ნუ დაბინდავთ თქვენს აზროვნებაში. ადვილია მხოლოდ დადებითის შესწავლა. ადვილია მხოლოდ უარყოფითი მხარეების შესწავლა. ჩვენ უნდა შევამოწმოთ ორივე და გავარკვიოთ, რა შეიძლება გაკეთდეს იმისათვის, რომ ვიმედოვნოთ, რომ გამოვიყენოთ დადებითი მხარეები და შევეცადოთ შევამციროთ, აღმოვფხვრათ ან თუნდაც შევამსუბუქოთ უარყოფითი მხარეები.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა. ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ტექნოლოგიის ოპტიმიზაციით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის გაკეთება AI-ს განვითარებისა და განვითარებისთვის სასიცოცხლოდ მნიშვნელოვანია შესაბამისი AI-ს წარმოებისთვის.

გარდა ხელოვნური ინტელექტის ეთიკის გამოყენებისა, ჩნდება შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენების რეგულირებისთვის, როგორიცაა AI-ზე დაფუძნებული ხმის კლონირების ფუნქციები. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, როგორც მინიმუმ, განიხილება.

როგორც ითქვა, ზოგი ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ფაქტობრივად, ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ. იხილეთ მაგალითად ჩემი გაშუქება მისამართზე ბმული აქ მდე ბმული აქ.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რაიმეს ნათელს ხდის AI-ზე დაფუძნებულ ხმის კლონირებას და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI-ზე დაფუძნებული ხმის კლონირება

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

მოდით გამოვსახოთ სცენარი, რომელმაც შესაძლოა გამოიყენოს AI-ზე დაფუძნებული ხმის კლონირება.

მშობელი და მათი შვილი სხდებიან ხელოვნური ინტელექტის საფუძველზე დაფუძნებულ თვითმართველ მანქანაში. ისინი მიდიან ადგილობრივ სასურსათო მაღაზიაში. მოსალოდნელია, რომ ეს იქნება შედარებით უპრობლემოდ გასეირნება. მაღაზიაში მხოლოდ ყოველკვირეული მგზავრობაა, თუმცა მძღოლი არის ხელოვნური ინტელექტის მართვის სისტემა და მშობელს არ სჭირდება რაიმეს მართვა.

მშობლისთვის ეს დიდი სიკეთეა. იმის ნაცვლად, რომ ფოკუსირება მოახდინონ საჭის მართვაზე და მართვის აქტთან გამკლავებაზე, მშობელს შეუძლია დაუთმოს ყურადღება შვილს. მათ შეუძლიათ ერთად ითამაშონ ავტონომიურ მანქანაში და გაატარონ ღირებული ხასიათის დრო. მიუხედავად იმისა, რომ მშობელს, როგორც წესი, აწუხებს ავტომობილის მართვა და, სავარაუდოდ, შფოთავს და აწუხებს გადატვირთულ ქუჩებში ნავიგაციისას და ახლომდებარე სხვა შეშლილ მძღოლებთან ურთიერთობისას, აქ მშობელმა ბედნიერად არ იცის ეს საზრუნავი და მხოლოდ სასიამოვნოდ ურთიერთობს თავის ძვირფას შვილთან.

მშობელი ესაუბრება ხელოვნური ინტელექტის მართვის სისტემას და ეუბნება AI-ს, წაიყვანოს ისინი სასურსათო მაღაზიაში. ტიპიურ სცენარში, ხელოვნური ინტელექტი პასუხობს ნეიტრალური აუდიო გამონათქვამის საშუალებით, რომელიც შეიძლება კარგად მოისმინოთ დღევანდელი Alexa-ს ან Siri-ის მეშვეობით. AI-მ შესაძლოა უპასუხოს იმით, რომ სასურსათო მაღაზია 15 წუთის სავალზეა. გარდა ამისა, AI შეიძლება აცხადებდეს, რომ თვითმართვადი მანქანა მათ მაღაზიის წინა მხარეს ჩამოაგდებს.

ეს შეიძლება იყოს AI-ის ხმასთან დაკავშირებული ერთადერთი აქტივობა ასეთ სცენარში. შესაძლოა, როგორც კი თვითმართვადი მანქანა მიახლოვდება სასურსათო მაღაზიას, AI-მ შეიძლება წარმოთქვას რაღაც დანიშნულების ადგილის მიახლოების შესახებ. შეიძლება ასევე იყოს ვოკალური შეხსენება, რომ წაიღოთ თქვენი ნივთები ავტონომიური მანქანიდან გასვლისას.

მე ავუხსენი, რომ ხელოვნური ინტელექტის მართვის ზოგიერთი სისტემა, როგორც ეს იყო, მოლაპარაკე კატები იქნება. ისინი დაპროგრამებულნი იქნებიან უფრო თავისუფლად და მუდმივ ურთიერთობაზე ადამიანებთან. როდესაც თქვენ ჯდებით საზიარო მანქანაში, რომელსაც ადამიანი მართავს, ზოგჯერ გინდათ, რომ მძღოლი იყოს ლაპარაკი. გამარჯობის თქმის გარდა, შეიძლება გინდოდეთ, რომ მათ მოგიყვეთ ადგილობრივი ამინდის პირობების შესახებ, ან შესაძლოა მიუთითოთ სხვა ადგილები ადგილობრივ ტერიტორიაზე. ყველას არ სურს მოლაპარაკე კატა, ამიტომ ხელოვნური ინტელექტი უნდა იყოს შემუშავებული, რათა ჩაერთოს დიალოგებში მხოლოდ მაშინ, როდესაც ამას ადამიანი მოითხოვს, იხილეთ ჩემი გაშუქება აქ ბმული აქ.

ახლა, როცა ყველაფერი ჩამოყალიბებული მაქვს, მოდით შევცვალოთ ყველაფერი მცირე, მაგრამ მნიშვნელოვანი გზით.

წარმოიდგინეთ, რომ AI მართვის სისტემას აქვს AI-ზე დაფუძნებული ხმის კლონირების ფუნქცია. მოდით ასევე ვივარაუდოთ, რომ მშობელმა ადრე ჩათვალა AI ხმის კლონირება ბავშვის ბებიის აუდიო ნაწყვეტის მიწოდებით. გასაკვირია, მშობელი ფიქრობს, რომ AI მართვის სისტემა მექნება ლაპარაკი, თითქოს ეს ბავშვის გარდაცვლილი ბებიაა.

სასურსათო მაღაზიაში მგზავრობისას, ხელოვნური ინტელექტის მართვის სისტემა ურთიერთქმედებს მშობელთან და შვილთან, ექსკლუზიურად იყენებს ბებიის კლონირებულ ხმას მთელი დროის განმავლობაში.

Რას ფიქრობთ ამაზე?

საშინელი თუ დასამახსოვრებელი?

მე გამოვდგამ up რამ მაღალი დონის. Მოემზადე. შეიკრათ უსაფრთხოების ღვედი.

ზოგიერთს, ისევე როგორც მე, სჯერა, რომ ჩვენ საბოლოოდ მივცემთ ბავშვებს უფლებას, დამოუკიდებლად იარონ ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანები, იხილეთ ჩემი ანალიზი: ბმული აქ.

დღევანდელ მანქანებში, რომელსაც ადამიანი მართავს, ზრდასრული ადამიანი ყოველთვის უნდა იყოს, რადგან კანონი მოითხოვს, რომ საჭესთან იყოს ზრდასრული მძღოლი. ყველა პრაქტიკული მიზნისთვის, თქვენ ვერასოდეს გყავთ ბავშვი მოძრავ მანქანაში, რომელიც თავად არის მანქანაში (დიახ, მე ვიცი, რომ ეს ხდება, მაგალითად, მთავარი კინოვარსკვლავის ცნობილი 10 წლის ვაჟი, რომელიც ცოტა ხნის წინ მხარს უჭერდა ძალიან ძვირი მანქანა სხვა ძალიან ძვირადღირებულ მანქანაში, მაგრამ მაინც ეს იშვიათობაა).

დღევანდელი მშობლები, ალბათ, კატეგორიულად აპროტესტებენ შვილებს თვითმართვადი მანქანით ტარების უფლებას, რომელსაც არ ყავს ზრდასრული მანქანაში, რომელიც ზედამხედველად ემსახურება ან აკვირდება მათ შვილებს. ვიცი, რომ ამის წარმოდგენა თითქმის შეუძლებელია, მაგრამ მე ვდებ ფსონს, რომ როგორც კი თვითმართვადი მანქანები გავრცელდება, ჩვენ აუცილებლად მივიღებთ იმ აზრს, რომ ბავშვები უფროსების გარეშე იყვნენ თვითმართველ მანქანაში ტარებისას.

გაითვალისწინეთ მოხერხებულობის ფაქტორი.

თქვენ სამსახურში ხართ და თქვენი უფროსი გიბიძგებთ, რომ დაასრულოთ დავალება. თქვენ უნდა აიყვანოთ თქვენი შვილი სკოლიდან და წაიყვანოთ ბეისბოლის ვარჯიშზე. თქვენ ჩარჩენილი ხართ კლდესა და რთულ ადგილს შორის, რადგან ზედმეტად ამშვიდებთ თქვენს უფროსს ან არ წაიყვანთ თქვენს შვილს სავარჯიშო მოედანზე. სხვა არავინ, ვინც იცნობთ, არ არის ხელმისაწვდომი, რომ უზრუნველყოს თქვენი შვილი ლიფტით. თუ რამეა, რა თქმა უნდა, არ გსურთ ისარგებლოთ მგზავრობის გაზიარების სერვისით, რომელსაც ჰყავს ადამიანი მძღოლი, რადგან ბუნებრივად გაწუხებთ იმაზე, თუ რა შეიძლება თქვას ან გააკეთოს ამ უცნობმა ზრდასრულმა თქვენი შვილის გამგზავრებისას.

არ არის პრობლემა, არ ინერვიულოთ, უბრალოდ გამოიყენეთ AI-ზე დაფუძნებული თვითმართვადი მანქანა. თქვენ დისტანციურად მიმართავთ თვითმართველ მანქანას თქვენი შვილის ასაყვანად. თვითმართვადი მანქანის კამერების საშუალებით შეგიძლიათ ნახოთ და უყუროთ თქვენს შვილს ავტონომიურ მანქანაში შესვლას. გარდა ამისა, არის შიგნით მიმართული კამერები და თქვენ შეგიძლიათ უყუროთ თქვენს შვილს მთელი მართვის დროს. ეს ისეთივე უსაფრთხოა, თუ არა უფრო უსაფრთხო, ვიდრე უცნობ მძღოლს სთხოვოთ თქვენი შვილისთვის ამწე. როგორც ითქვა, ზოგიერთს სამართლიანად აწუხებს, რომ თუ მართვის მოწმობა არასწორია, თქვენ გყავთ ბავშვი თავისთვის დარჩენილი და არც ერთი ზრდასრული დაუყოვნებლივ არ გამოცხადდება ბავშვის დასახმარებლად ან ხელმძღვანელობით.

გვერდის ავლით მრავალრიცხოვანი უსიამოვნებები, დავუშვათ, რომ იგივე მშობელი და შვილი, რომლებიც მე აღვწერე წინა სცენარში, ნორმალურია იმით, რომ ბავშვი მშობლის გარეშე მოგზაურობს. უბრალოდ აღიარეთ, რომ ეს არის საბოლოო ჯამში სიცოცხლისუნარიანი სცენარი.

აქ არის ფინალის დარტყმა.

ყოველ ჯერზე, როდესაც ბავშვი ატარებს AI-ზე დაფუძნებულ თვითმართველ მანქანას, მას ესალმებიან და ურთიერთობენ AI-სთან, რადგან ის იყენებს AI-ზე დაფუძნებულ ხმის კლონირებას და იმეორებს ბავშვის გარდაცვლილი ბებიის ხმას.

რას ფიქრობთ ამ ვაშლებზე?

როდესაც მშობელი ასევე იმყოფებოდა თვითმართველ მანქანაში, იქნებ ჩვენ ვამართლებდით AI ხმის გამოყენებას, რადგან მშობელი იქ არის, რათა ურჩიოს ბავშვს, თუ რა ხდება, როდესაც AI აუდიო საუბრობს. მაგრამ როდესაც მშობელი არ არის, ახლა ჩვენ ვივარაუდებთ, რომ ბავშვი იდილიურად კარგად არის ბებიის ხმის გამეორებით.

ეს ნამდვილად არის ერთ-ერთი იმ პაუზის მომენტებიდან, რომ სერიოზულად ვიფიქროთ იმაზე, რამდენად კარგია ეს თუ ცუდი ბავშვისთვის.

დასკვნა

მოდით გავაკეთოთ ცოტა სააზროვნო ექსპერიმენტი ამ მნიშვნელოვანი საკითხების გასააზრებლად.

გთხოვთ მოიფიქროთ სამი მტკიცედ პოზიტიური AI-ზე დაფუძნებული ხმის კლონირების მიზეზები.

მე დაველოდები, სანამ შენ გამოხვალ მათთან.

შემდეგი, ამუშავება სამი მყარი უარყოფითი მიზეზები, რომლებიც ხელს უშლის AI-ზე დაფუძნებული ხმის კლონირების გამოჩენას.

მე ვივარაუდებ, რომ თქვენ მოიფიქრეთ რამდენიმე.

მე მესმის, რომ თქვენ შეგიძლიათ უდავოდ მოიფიქროთ ბევრად მეტი მიზეზი, ვიდრე მხოლოდ სამი, რომლებიც ხელს უწყობენ ან უარყოფენ ამ ტექნოლოგიას. თქვენი აზრით, ნეგატივი აჭარბებს თუ არა დადებითს? არიან კრიტიკოსები, რომლებიც ამტკიცებენ, რომ ჩვენ უნდა გამოვიყენოთ ასეთი ძალისხმევა.

ზოგიერთს სურს შეეცადოს და დაბლოკოს ფირმებს ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის კლონირების გამოყენებაში, თუმცა ესმით, რომ ეს არის ერთ-ერთი კლასიკური უბედურება. ნებისმიერი ფირმა, რომელსაც თქვენ შეწყვეტთ მის გამოყენებას, დიდი ალბათობით, სხვა ფირმა დაიწყებს მის გამოყენებას. საათის გაყინვა ან ამ ტიპის ხელოვნური ინტელექტის მოშორება თითქმის შეუძლებელი იქნება.

ამ თემის ბოლო შენიშვნაში ამ მომენტისთვის, წარმოიდგინეთ რა შეიძლება მოხდეს, თუ ოდესმე მივაღწევთ მგრძნობიარე AI-ს. მე არ ვამბობ, რომ ეს მოხდება. ჩვენ შეგვიძლია მაინც ვიმსჯელოთ და ვნახოთ, სად შეიძლება ამან მიგვიყვანოს.

პირველ რიგში, განიხილეთ გამჭრიახი ციტატა საუბრისა და ხმის მიღების შესახებ. მადლენ ოლბრაიტმა თქვა ეს ცნობილი: „ძალიან დიდი დრო დამჭირდა ხმის გასავითარებლად და ახლა, როცა ეს მაქვს, არ ვაპირებ გაჩუმებას“.

თუ ჩვენ შეგვიძლია გამოვიმუშაოთ მგრძნობიარე ხელოვნური ინტელექტი, ან რატომღაც წარმოიქმნება სენტიმენტი მაშინაც კი, თუ ჩვენ პირდაპირ არ გამოვხატავთ მას, რა ხმა უნდა ჰქონდეს ამ AI-ს? დავუშვათ, რომ მას შეუძლია გამოიყენოს ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ხმის კლონირება და ერგო ნებისმიერი ადამიანის ხმის დამზადება აუდიო შერჩევის მცირე ზომის ფრაგმენტის მეშვეობით, რომელიც შეიძლება ხელმისაწვდომი იყოს ამ ადამიანის მიერ წარმოთქმული. ასეთ AI-ს შეუძლია ისაუბროს და მოგატყუოთ, რომ გჯეროდეთ, რომ AI ერთი შეხედვით ეს ადამიანია.

შემდეგ ისევ, შესაძლოა AI-ს მოუნდეს, ჰქონდეს საკუთარი ხმა და მიზანმიმართულად გამოიგონოს ხმა, რომელიც სრულიად განსხვავებულად განსხვავდება ადამიანის ხმებისგან, სურს იყოს განსაკუთრებული თავისი მომხიბვლელობით.

ღმერთო, ეს თითქმის უსიტყვოდ ტოვებს ადამიანს.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- განკუთვნილია-გამოყენებისთვის-აი-ავტონომიურ-სისტემებში/