ხელოვნური ინტელექტის ეთიკა შეშფოთებულია უახლესი ჩინეთის მიერ შემუშავებული ხელოვნური ინტელექტის წვეულების ერთგულების გონების წაკითხვით სახის ამოცნობის ატესტაცია, რომელიც შეიძლება ასახავდეს მჩაგვრელ ავტონომიურ სისტემებს

ერთგული ხარ?

თეორიულად, შესაძლოა შესაძლებელი იყოს თქვენი აშკარა ქმედებების შესწავლა და იმის გარკვევა, გამოიხატება თუ არა ლოიალობა თქვენი ქმედებებით.

დავუშვათ, რომ ამის ნაცვლად იყო თქვენი გონების წაკითხვის მცდელობა და იმავდროულად თქვენი სახის სკანირება თქვენი ლოიალობის კოეფიციენტის დასადგენად. ეს საშინლად ინტრუზიულია; თქვენ შეიძლება ადვილად გაკიცხოთ. ჟღერს ერთ-ერთი იმ გიჟური სამეცნიერო ფანტასტიკის ფილმი, რომელიც წარმოგვიდგენს მომავალ დისტოპიურ საზოგადოებას.

საბედნიეროდ, შენ თავს ქურდულად ჩურჩულებ, დღეს მსგავსი არაფერი გვაქვსო.

უი, დაიჭირე შენი ცხენები.

ახალი ამბების სათაურები ახლახან გაჟღერდა, რომ 1 წლის 2022 ივლისს ჩინეთში გამოქვეყნებული კვლევითი ნაშრომი ასახავდა კვლევას, რომელიც სავარაუდოდ გულისხმობდა ადამიანების ტვინის ტალღების და მათი სახის გამომეტყველების შეფასებას, რათა გამოვთვალოთ, იყვნენ თუ არა ისინი ჩინეთის კომუნისტური პარტიის (CCP) ლოიალურები. . ასე რომ, აჰა, მომავალი სულ უფრო და უფრო უახლოვდება, ყოველ შემთხვევაში იმ დისტოპიური საზოგადოების მიღწევის თვალსაზრისით, რომლის გაჩენისაც გვეშინოდა ოდესმე.

კვლევის ნაშრომი სწრაფად გაქრა მისი ონლაინ განთავსებული ბმულიდან.

სავარაუდოდ, სწრაფი დაცინვა, რომელმაც სწრაფად მოიცვა ინტერნეტი, საკმარისი იყო ქაღალდის წასაშლელად. ან, შესაძლოა, მკვლევარებს უბრალოდ სურთ ფორმულირების რამდენიმე ცვლილებისა და სხვა უვნებელი შესწორებების შეტანა, მიზნად ისახავდნენ ხელახლა გამოქვეყნებას, როგორც კი ექნებათ უფრო საფუძვლიანი შანსი, უზრუნველყონ, რომ i-ები წერტილოვანია და t-ები ყველა გადაკვეთილია. ჩვენ უნდა გავახილოთ თვალები, რათა დავინახოთ, თუ ქაღალდი მეორე სიცოცხლეს მიიღებს.

მე ვაპირებ წინსვლას და ღრმად ჩავუღრმავდე იმას, რაც ვიცით კვლევის შესახებ და შევეცდები დავაკავშირო წერტილები იმის შესახებ, თუ როგორი მნიშვნელობა აქვს AI-თან დაკავშირებულ ამ სახის მუშაობას ყველა ჩვენგანისთვის, რაც სცილდება ამის დანახვის ფარგლებს. როგორც შემოიფარგლება ერთი კონკრეტული ქვეყნით. ჩემი გაშუქება ცოტა უფრო ვრცელი იქნება, ვიდრე სხვა ბოლოდროინდელი გაშუქება ამ ახალი ამბების ღირებულ საკითხზე, ასე რომ, გთხოვთ, მომიწიოთ.

ჩემი დამატებული აქცენტიც იქნება ის, რომ არსებობს AI-ის ეთიკის სასიცოცხლო მნიშვნელობის გაკვეთილები, რომლებიც შეგვიძლია მივიღოთ სავარაუდო ნაშრომიდან. AI ეთიკისა და ეთიკური AI-ის მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

აი, რა იყო აქამდე ნახსენები კვლევის შესახებ.

როგორც ჩანს, ზოგიერთი „მოხალისე“ იქნა დაკომპლექტებული ექსპერიმენტში მონაწილეობის მისაღებად CCP-ის აღქმასთან დაკავშირებით. იყვნენ თუ არა ისინი ნებაყოფლობით მოხალისეებად, თუ უფრო მეტად წააგავდნენ მოხალისეებს, ან შესაძლოა მეგზური მოხალისეები, უცნობია. განხილვის მიზნით ვივარაუდებთ, რომ ისინი დაეთანხმნენ კვლევის სუბიექტს.

მე მოვიყვან ამას იმისათვის, რომ უბრალოდ არ ვიყო ჭკვიანი. როდესაც ექსპერიმენტი კეთდება ადამიანთა სუბიექტებთან დაკავშირებით, არსებობს საყოველთაოდ მიღებული პრაქტიკა ასეთი სუბიექტების დასაქმებასა და კვლევის პროცესში ჩაძირვის შესახებ. ეს ნაწილობრივ უკავშირდება წინა კვლევებს, რომლებიც ხშირად ატყუებდნენ ან აიძულებდნენ ადამიანებს ჩაერთონ ექსპერიმენტში, რაც ზოგჯერ იწვევს უარყოფით ფსიქოლოგიურ შედეგებს ან თუნდაც ფიზიკურ ზიანს ამ მონაწილეებისთვის. სამეცნიერო საზოგადოება ძლიერ ცდილობდა შეემცირებინა ამ ტიპის მზაკვრული კვლევები და მოითხოვს, რომ ყველა სახის გამჟღავნება და გაფრთხილება მიეწოდოს მათ, ვინც ეძებს ჩართვის ადამიანებთან დაკავშირებულ კვლევებში.

გასაგებად რომ ვთქვათ, ყველა არ ემორჩილება ასეთ წინდახედულ და კეთილსინდისიერ მითითებებს.

გავრცელებული ინფორმაციით, 43 სუბიექტი იყო და ისინი ჩინეთის კომუნისტური პარტიის წევრები იყვნენ. გაითვალისწინეთ, რომ ექსპერიმენტისთვის სუბიექტების შერჩევა ძალიან მნიშვნელოვანია ექსპერიმენტისთვის და ასევე მხედველობაში უნდა იქნას მიღებული ნებისმიერი დასკვნა, რომლის გაკეთებასაც შესაძლოა ცდილობდეთ ექსპერიმენტის შედეგების შესახებ.

დავუშვათ, მინდა გავაკეთო ექსპერიმენტი იმის შესახებ, თუ როგორ აღიქვამენ ხალხი ცნობილი ვარსკვლავური ომების სერიას. თუ წინასწარ ავირჩევ საგნებს, რომლებსაც ყველას ძლიერ სძულს ვარსკვლავური ომები (როგორ შეიძლება არსებობდეს ასეთი ადამიანები?) და ვუჩვენო მათ ვარსკვლავური ომების ვიდეო რგოლები, სავარაუდოდ, ისინი აპირებენ თქვან, რომ ჯერ კიდევ არ მოსწონთ ვარსკვლავური ომები. ამ ფსევდომეცნიერულ ექსპერიმენტზე დაყრდნობით, ალბათ, მე მოტყუებით ვამტკიცებ, რომ ადამიანებს - ზოგადად - ნამდვილად სძულთ ვარსკვლავური ომები, რაც "დადასტურდა" (თვალის ჩაკვრა) ჩემს "საგულდაგულოდ" მომზადებულ კვლევით გარემოში.

თქვენ შეიძლება არ იცოდეთ, რომ მე გავაყალბე რულეტის ბორბალი, როგორც ეს იყო, იმ საგნების წინასწარ არჩევით, რომლებსაც ველოდი, რომ მომიტანდა ჩემს ფარულად სასურველ შედეგებს. რასაკვირველია, განზრახ რომ დამეყვანა ადამიანები, რომლებსაც უყვარდათ ვარსკვლავური ომები და გულმოდგინე გულშემატკივრები იყვნენ, დიდი შანსია, რომ ისინი აღფრთოვანებულები იქნებოდნენ ვარსკვლავური ომების კლიპების ყურებით. ისევ და ისევ, ნებისმიერი დასკვნა, რომელიც მიიღწევა იმის შესახებ, თუ როგორ რეაგირებენ ადამიანები ზოგადად ვარსკვლავურ ომებზე, შერბილებული იქნება ძალისხმევისთვის არჩეული საგნების წინასწარ შერჩეული ნაკრებით.

CCP-ზე ორიენტირებული კვლევა, როგორც ჩანს, სუბიექტებს დასხდნენ კიოსკის მსგავსი ვიდეო ჩვენების წინ და წაიკითხეს სხვადასხვა სტატიები CCP-ის პოლიტიკისა და მიღწევების შესახებ. ეს არის ალბათ განხილული „ექსპერიმენტული მკურნალობა“, რომელსაც სუბიექტები ექვემდებარებიან. ექსპერიმენტის დაგეგმვისას, როგორც წესი, თქვენ ხვდებით ექსპერიმენტულ ფაქტორს ან ასპექტს, რომელიც გსურთ ნახოთ, გავლენას ახდენს თუ არა ის მონაწილეებზე.

აშკარად შესწავლილი საკვლევი კითხვა იყო, ექნებოდა თუ არა ამ მასალების განხილვის აქტი რაიმე გავლენას სუბიექტებზე გაზრდის, შემცირების ან ნეიტრალურობის თვალსაზრისით CCP-ზე მათი შემდგომი შთაბეჭდილებების მიმართ.

კლასიკურ ნულოვან ჰიპოთეზაში, თქვენ შეიძლება მოაწყოთ ასეთი კვლევა, რათა განაცხადოთ, რომ მოხმარებული მასალები არ იმოქმედებს სუბიექტების მიერ გამოხატულ შემდგომ შთაბეჭდილებებზე. მას შემდეგ რაც შეადარებთ მათ შეხედულებებს CCP-ის შესახებ, სტატისტიკურად შეეცდებით ნახოთ, იყო თუ არა სტატისტიკურად მნიშვნელოვანი ცვლილება მათ შთაბეჭდილებებში.

შესაძლოა, წინა და შემდეგ სტატისტიკურად არ განსხვავდებოდეს, ამიტომ შეიძლება გონივრულად დავასკვნათ, რომ ამ კონკრეტული კვლევისთვის გამოტანილმა მასალებმა (ექსპერიმენტული დამუშავება) არ ჩანდა განსხვავება მათ შთაბეჭდილებებში. მეორეს მხრივ, თუ არსებობდა სტატისტიკურად მართებული სხვაობა, თქვენ შეხედავდით, იყო თუ არა შემდგომი წინაზე მეტი, რაც საშუალებას მოგცემთ გესმოდეთ, რომ მასალები აძლიერებდა მათ შთაბეჭდილებებს (და, მონეტის მეორე მხარეს, თუ შემდეგ იყო ნაკლები, ვიდრე ადრე, ეს შეიძლება გულისხმობდეს, რომ მასალები ამცირებდა ან ამცირებდა მათ შთაბეჭდილებებს).

არსებობს ბევრი მტკივნეული ფხვიერი ბოლოები, რომლებიც საჭიროებს ასეთ კვლევას.

მაგალითად, ჩვენ ჩვეულებრივ გვსურს გვყავდეს ეგრეთ წოდებული საკონტროლო ჯგუფი, რომელიც შეგვიძლია შევადაროთ მათ, ვინც იღებს ექსპერიმენტულ მკურნალობას. აი რატომ. დავუშვათ, რომ მასალების წასაკითხად კიოსკის წინ ჯდომა იყო ნამდვილი საფუძველი იმისა, თუ რატომ შეიცვალა შთაბეჭდილებები. შეიძლება იყოს, რომ მოხმარებული მასალების ბუნება უხეშად არ აქვს მნიშვნელობა შთაბეჭდილებაზე ზემოქმედებას. მხოლოდ ჯდომა და რაიმეს კითხვა, მაგალითად, უახლესი ისტორიები კატების შესახებ, რომლებიც სასაცილო რაღაცეებს ​​აკეთებენ, მარტომ შეიძლება გაამართლოს. აქედან გამომდინარე, ჩვენ შეიძლება მოვაწყოთ, რომ ზოგიერთი სუბიექტი იყოს ჩვენს საკონტროლო ჯგუფში, რომელიც ექვემდებარება სხვა მასალას წასაკითხად, გარდა CCP პოლიტიკისა და მიღწევების მასალებისა.

ჩვენ არ ვიცით, გაკეთდა თუ არა ეს ამ შემთხვევაში (როგორც ჩანს, არავის უხსენებია ეს ასპექტი).

მე მესმის, რომ თქვენ ახლა ნერვიულობთ კვლევის მედია ფეთქებადი ნაწილის შესახებ. ჩვენ სასწრაფოდ გადავალთ ამ ნაწილში.

როგორ შეგვიძლია დავადგინოთ, უპასუხეს თუ არა ამ ექსპერიმენტის სუბიექტებმა შთაბეჭდილებები ნაჩვენები მასალების წაკითხვის შედეგად?

ჩვეულებრივი საშუალება იქნებოდა მათი კითხვა.

თქვენ წინასწარ გაგიკეთებდით კითხვარს, რომელიც ეკითხება მათ შთაბეჭდილებებს CCP-ზე. შემდეგ, ექსპერიმენტული მკურნალობის შემდეგ, როგორც ნაჩვენები მასალების წაკითხვისას, შეგვეძლო სხვა კითხვარის ადმინისტრირება. სუბიექტების მიერ გაცემული პასუხები ადრე და შემდეგ საფუძველზე შეიძლება შედარება. თუ ჩვენ ასევე ვიყენებდით საკონტროლო ჯგუფს, ჩვენ ვივარაუდებთ, რომ საკონტროლო ჯგუფის პასუხები არსებითად არ შეიცვლება წინადან შემდეგზე (იმ რწმენით, რომ მხიარული კატების შესახებ ისტორიების ყურება არ უნდა იქონიოს გავლენა მათ CCP შთაბეჭდილებებზე).

სუბიექტებისგან შთაბეჭდილებების კითხვის ეს აქტი სულაც არ არის ისეთი მარტივი, როგორც შეიძლება ჩანდეს.

დავუშვათ, რომ ექსპერიმენტში მონაწილე სუბიექტებს აქვთ განცდა ან საერთო დრეიფი, რომ თქვენ გინდათ, რომ მათ კონკრეტულად უპასუხონ ექსპერიმენტულ მკურნალობას. ამ შემთხვევაში, მათ შესაძლოა მიზანმიმართულად გადააჭარბონ თავიანთი რეაქციები ექსპერიმენტული ადმინისტრაციის შემდგომ ნაწილში. თქვენ, რა თქმა უნდა, ნახეთ ეს მოხდა. თუ მე ვაკეთებ გემოვნების ტესტს ბაზარზე გამომავალ ახალ სოდაზე, შეიძლება ვიმოქმედო ისე, როგორც უსაზღვროდ ვისიამოვნე სოდაით, იმ იმედით, რომ შესაძლოა გამოვჩნდე სოდას მწარმოებლის რეკლამაში და მივიღო ჩემი დამსახურებული თხუთმეტი წუთიანი დიდება. .

არსი ის არის, რომ ადამიანების აზრის მხოლოდ კითხვა არ არის ცვლილებების შეფასების უტყუარი საშუალება. ეს არის ერთი მიდგომა. სხვა მიდგომები შეიძლება და ასევე ხშირად გამოიყენება.

როგორ აირჩია ამ კონკრეტულმა კვლევამ სუბიექტების რეაქციების შეფასება?

როგორც ჩანს, სულ მცირე ორი მეთოდი იყო გამოყენებული. ერთი მეთოდი შედგებოდა სახის სკანირებისა და AI-ზე დაფუძნებული სახის ამოცნობის პროგრამული უზრუნველყოფის გამოყენებით სუბიექტების რეაქციების შესაფასებლად. გავრცელებული ინფორმაციით, სხვა მეთოდი იყო ტვინის ტალღების სკანირება. ჯერ არ არის მოხსენებული იმის შესახებ, თუ რა ტიპის ტვინის ტალღების სკანირების მოწყობილობა იყო გამოყენებული და არც რა სახის AI-ზე დაფუძნებული ტვინის ტალღების ანალიზის პროგრამა იყო გამოყენებული.

სხვადასხვა რეპორტაჟში მითითებულია, რომ კვლევაში ნათქვამია ექსპერიმენტის ბუნების შესახებ: „ერთის მხრივ, მას შეუძლია განსაჯოს, თუ როგორ მიიღეს პარტიის წევრებმა აზროვნება და პოლიტიკური განათლება“. და, სავარაუდოდ, კვლევაშიც ეს იყო ნახსენები: „მეორე მხრივ, ის უზრუნველყოფს რეალურ მონაცემებს აზროვნებისა და პოლიტიკური განათლებისთვის, რათა ის გაუმჯობესდეს და გამდიდრდეს“. კვლევა მიეკუთვნება ჩინეთის ჰეფეის ყოვლისმომცველი ეროვნული სამეცნიერო ცენტრის ეგიდით ჩატარებულს.

მედიის ცნობით, კვლევა ეხებოდა მტკიცებას, რომ სახის ამოცნობის სკანირებამ და ტვინის ტალღების სკანირებამ შეძლეს დაეხმარონ იმის დადგენაში, რომ შემდგომი შთაბეჭდილებები გაძლიერდა CCP-ზე.

მინდა აღვნიშნო, რომ გამოყენებული სისტემების უშუალოდ მიმოხილვისა და კვლევის ნაშრომის დეტალური შესწავლის გარეშე, ჩვენ არ ვიცით დეტალები იმის შესახებ, თუ როგორ გამოიყენებოდა ეს AI-ზე დაფუძნებული სისტემები.

შესაძლოა, სუბიექტები რეაგირებდნენ ექსპერიმენტულ გარემოზე და არა ექსპერიმენტულ მკურნალობაზე. ნებისმიერი, ვინც მონაწილეობას იღებს კვლევაში, შეიძლება იყოს შეშფოთებული, დასაწყისისთვის. ამან შეიძლება ხელი შეუშალოს ტვინის ტალღების სკანირების ან სახის ნიმუშის ანალიზის ნებისმიერ ძალისხმევას. ასევე არსებობს შანსი, რომ მათ იგრძნონ მოტივაცია, მოეწონებინათ მკვლევარები, აირჩიეს მოიგონონ დადებითი აზრები მასალების ნახვის შემდეგ და ეს თეორიულად შეიძლება აისახოს ტვინის ტალღების სკანირებაზე და სახის სკანირებაზე (შეიძლება, თუმცა გთხოვთ იცოდეთ, რომ არსებობს დიდი ვნებიანი დაპირისპირება ასეთი დაპირისპირებების მართებულობასთან დაკავშირებით, როგორც ამას მომენტალურად განვმარტავ), იმ იმედით, რომ შედეგების დამახინჯება და ჩვენება, რომ მათზე დადებითად იმოქმედა.

Twitter-ის რეაქციამ არსებითად დაგმო, რომ AI-ით გაძლიერებული ტვინის ტალღების სკანირებისა და სახის ამოცნობის გამოყენების იდეა თავისთავად შემზარავი და აღმაშფოთებელი აქტია. მხოლოდ ადამიანური მონსტრები გამოიყენებენ ამ ტიპის მოწყობილობებს, გვეუბნება ზოგიერთი ტვიტი.

უნდა გთხოვო დაჯდე და მოემზადო რაღაცისთვის, რაც შეიძლება უხეში და შოკისმომგვრელი სიურპრიზი იყოს.

მსოფლიოში ბევრი მკვლევარია, რომლებიც იყენებენ იმავე ტიპის ტექნოლოგიებს თავიანთ კვლევით კვლევებში. რა თქმა უნდა, ეს არ არის პირველი შემთხვევა, როდესაც ტვინის ტალღების სკანირების შესაძლებლობა გამოიყენეს ადამიანის სუბიექტებზე კვლევის პროცესში. ეს ასევე, რა თქმა უნდა, არ იყო პირველი შემთხვევა, როდესაც სახის ამოცნობა გამოიყენებოდა ადამიანებზე ექსპერიმენტული მიზნებისთვის. თუნდაც სწრაფი ონლაინ ძიება გაჩვენებთ უამრავ ექსპერიმენტულ კვლევას ყველა იმ ქვეყანაში და ლაბორატორიაში, რომლებიც იყენებდნენ ამ ტიპის მოწყობილობებს.

ახლა, როგორც ითქვა, მათი გამოყენება CCP-ისადმი ლოიალობის შესაფასებლად არ არის ის, რაზეც დიდ ყურადღებას იპოვით. როდესაც ასეთი ხელოვნური ინტელექტი გამოიყენება სამთავრობო კონტროლისთვის, როგორც ამბობენ, წითელი ხაზი გადალახულია.

ეს არის მთელი ნაკრებისა და კაბელის აშკარად დამამშვიდებელი ნაწილი.

ბევრის მიერ გამოთქმული შეშფოთება არის ის, რომ თუ მთავრობები გადაწყვეტენ გამოიყენონ ტვინის ტალღების სკანირების ტექნოლოგია და სახის ამოცნობა, რათა დადგინდეს ერთგულება არსებული რეჟიმების მიმართ, ჩვენ აღმოვჩნდებით ტკივილის დისტოპიურ სამყაროში. როცა საჯარო ქუჩაზე მიდიხართ, შესაძლოა, ნათურის ბოძზე დამაგრებული მოწყობილობა ფარულად განსაზღვროს თქვენი ერთგულების კოეფიციენტს.

ერთი ვარაუდობს, რომ თუ თქვენი სახე არ მოგაგონებთ, რომ საკმარისად ლოიალური ხართ, ან თუ ტვინის ტალღების სკანირება იგივეს გვთავაზობს, სამთავრობო ავაზაკები შეიძლება მოულოდნელად გამოიქცნენ და დაგიპყრონ. განერვიულება. უფსკრული. არ უნდა იყოს დაშვებული.

ეს არის მთავარი მიზეზი იმისა, თუ რატომ გაჩნდა სათაურით ხმაურიანი და აღშფოთება ამ ამბავზე.

წარმოიდგინე ეს. ჩვენ, შესაძლოა, ვაპირებთ შექმნას და შემდეგ გამოვიყენოთ კომპიუტერზე დაფუძნებული სისტემები, რომლებიც იყენებენ ხელოვნურ ინტელექტის უახლესს, რათა გადავწყვიტოთ, ვართ თუ არა ლოიალურები. თუ თქვენ ცდილობდით ხალხის დაქირავებას, რომ დასხდნენ და იგივე გააკეთონ, დაგჭირდებათ ბევრი ადამიანი და გექნებათ ლოგისტიკური პრობლემა, რომ შეეცადოთ მათ პოზიციონირება მოახდინოთ ყველას თვალში. AI-ზე დაფუძნებული სისტემის შემთხვევაში, თქვენ მხოლოდ უნდა დააყენოთ ელექტრონული მოწყობილობები ნათურების ბოძებზე, შენობების გვერდებზე და ა.შ. ერთგულების სკანირება შეიძლება განხორციელდეს 24×7, ნებისმიერ დროს, ყველა ასე აღჭურვილი ადგილას. ამის შემდეგ ეს შეიძლება შეიტანოს მასიურ მონაცემთა ბაზაში.

ჩვენ ვხდებით ადამიანები, რომლებიც უბრალო ღერძები ვართ კოლოსუსში, რომელიც ხედავს ყველაფერზე თვალს ადევნებს საზოგადოების მჩაგვრელ ეკოსისტემას. მხედველი თვალი არ არის მხოლოდ იმის ყურება, რასაც ვაკეთებთ. ეს ასევე ინტერპრეტაციაა, რასაც ჩვენი სახეები ამტკიცებენ, რომ ამბობენ ხელისუფლებისადმი ჩვენს ლოიალობაზე. ჩვენი გონება ასევე უნდა გამოიკვლიოს მსგავსი საშინელი მიზეზის გამო.

უი!

არის მეორადი შეშფოთებაც, რომელიც აქედან მოდის, თუმცა შესაძლოა არც ისე ეკლიანი შედარებით დიდი ძმის შედეგებთან შედარებით, როგორც უკვე დახატულია.

დაფიქრდით ამ ორ აქტუალურ კითხვაზე:

  • შეგვიძლია დარწმუნებით დავამტკიცოთ, რომ ტვინის ტალღების სკანირება შეიძლება დაადასტუროს თქვენი ერთგულება?
  • შეგვიძლია დარწმუნებით დავამტკიცოთ, რომ სახის ამოცნობის სკანირება შეიძლება დაადასტუროს თქვენი ერთგულება?

დაიჭირე, შეიძლება ფილტვებში ყვირიდე.

მე მესმის და ვაღიარებ, რომ თქვენ შეიძლება არ აინტერესებთ საიმედოობის ასპექტები თავისთავად. შესაძლებელია თუ არა ამის გაკეთება საიმედოდ, ნაკლებად მნიშვნელოვანია, ვიდრე ის ფაქტი, რომ ეს საერთოდ კეთდება. არავინ არ უნდა იყოს ასეთი ყურადღების ქვეშ. დაივიწყეთ, მუშაობს თუ არა ტექნოლოგია ამ ამოცანისთვის. ჩვენ არ უნდა შევასრულოთ დავალება თავიდანვე.

ნებისმიერ შემთხვევაში, პასუხი ახლა არის მტკიცე არა, კერძოდ, რომ არსებული AI სისტემები, რომლებიც აკეთებენ რაიმე სახის „ტვინის ტალღის სკანირებას“ და სახის ამოცნობას, საკმარისად არ შეუძლიათ ამ ნახტომის გაკეთება.

თქვენ შეიძლება ამ ბოლო დროს გინახავთ, რომ სახის ამოცნობის ზოგიერთმა მწარმოებელმა უკან დაიხია იმის მხრივ, თუ როგორ გამოიყენება მათი სახის ამოცნობის სისტემები. მომდევნო სვეტის გამოქვეყნებაში, მე განვიხილავ ბოლოდროინდელ მცდელობებს, მაგალითად, Microsoft-ის მიერ, რათა შევაჩერო იმ ადამიანების ტალღა, რომლებიც იყენებენ Microsoft-ის მიერ მოწოდებულ სახის ამოცნობის ხელსაწყოებს იმ მიზნებისთვის, რაც ამ ტექნოლოგიას შეუძლია ან უნდა გამოიყენოს. . შეიძლება დაგაინტერესოთ ჩემი ადრეული შეხედვა ხელოვნური ინტელექტის ეთიკის უსიამოვნებებზე, რომლებიც უკვე კარგად იყო ცნობილი სახის ამოცნობის შესახებ, იხ. ბმული აქ. მე ასევე განვიხილეთ ტვინის ტალღების სკანირების არენა, იხილეთ ჩემი დისკუსია აქ ბმული აქ.

მოკლედ, ჯერ კიდევ არ არსებობს სანდო ან გონივრული საშუალებები იმის დასამტკიცებლად, რომ ტვინის ტალღების სკანირება ან სახის ამოცნობის სკანირება შეიძლება ასახავდეს ვიღაცის ერთგულებას. სავარაუდო ძირითადი ასპექტებიც კი, როგორიცაა, შეგიძლიათ თუ არა საიმედოდ დააკავშიროთ ეს სკანირება, არის თუ არა ვინმე ბედნიერი და სევდიანი, ჯერ კიდევ კამათობენ. მცდელობა აწიოთ რაღაც ისეთივე ამორფული და ცვლადი, როგორიც ლოიალობაა, ძალიან შორს არის.

მე შემიძლია დავამატო, რომ ზოგიერთს მტკიცედ სჯერა, რომ ჩვენ საბოლოოდ მივაღწევთ. ამიტომ, მე ფრთხილად ვცდილობდი აღმენიშნა, რომ ჩვენ ჯერ არ ვართ იქ, იმის ნაცვლად, რომ მეთქვა, რომ იქ ვერასდროს მივაღწევთ. არასოდეს არის დიდი სიტყვა. თქვენ უნდა იყოთ აბსოლუტურად დარწმუნებული, თუ აპირებთ ამ ნების გარკვევას არასოდეს იყოს განხორციელებადი (გაითვალისწინეთ, რომ „არასდროს“ მოიცავს ათწლეულებს, საუკუნეებს და ათასობით ან მილიონობით წლის შემდეგ).

ზოგიერთი გამოეხმაურა ახალი ამბების ამ ჩინურ ლაბორატორიულ კვლევას, როგორც ინდიკატორი იმისა, თუ რამდენად სახიფათოა მსოფლიო ხელოვნური ინტელექტის შეუსაბამო და სახიფათო გამოყენებისკენ. მე გაგიზიარებთ მომენტალურად იმის შესახებ, თუ რა არის AI ეთიკა. ეს დაგეხმარებათ უფრო ნათლად დაინახოთ, თუ რატომ არღვევს ეს კონკრეტული კვლევა ეთიკური AI-ის ბევრ თუ არა თითქმის ყველა ზოგადად მიღებულ პრინციპს.

გინდ დაიჯერეთ თუ არა, ზოგიერთი ვარაუდობს, რომ შესაძლოა, ამ კონკრეტულ კვლევასთან დაკავშირებით ჩვენ მთას ვაკეთებთ მთაზე.

ჩვენ ვართ?

საპირისპირო არგუმენტი არის ის, რომ მოლეხი შეიძლება მალე გახდეს მთა. თოვლის ბურთის ანდაზურ ცნებაში, რომელიც სულ უფრო და უფრო დიდი ხდება, როცა ის თოვლიან ბორცვზე გადადის, ჩვენ უნდა შევაჩეროთ თოვლის ბურთის გაშვება. თუ ჩვენ მოვითმენთ ამ ტიპის კვლევებს, ჩვენ ვაძლევთ საშუალებას, რომ თოვლის ბურთს თავისი მოგზაურობა დაიწყოს. ხმამაღლა ლაპარაკით და ასეთი კვლევების გამოძახებით, შესაძლოა, თავიდან ავიცილოთ თოვლის ბურთი.

ერთი რამ ცხადია, რომ ჩვენ ვართ პანდორას ყუთის გახსნის ზღვარზე, როდესაც საქმე ხელოვნური ინტელექტის ასპექტებს ეხება და რჩება კითხვა, შეგვიძლია თუ არა თავიდან ავიცილოთ ყუთის გახსნა ან მაინც ვიპოვოთ რაიმე საშუალება, რომ გონივრულად გავუმკლავდეთ ყველაფერს, რაც გამოვა. მას შემდეგ, რაც ყუთმა გაათავისუფლა მისი ეშმაკური შინაარსი.

სხვა თუ არაფერი, იმედია, ამ ტიპის მედია შტორმები გამოიწვევს ფართო დისკუსიას იმის შესახებ, თუ როგორ ვაპირებთ თავიდან ავიცილოთ AI-თან დაკავშირებული ბოროტმოქმედება და თავიდან ავიცილოთ ხელოვნური ინტელექტის გამომწვევი მრავალი ეგზისტენციალური რისკი. ჩვენ უნდა გავზარდოთ ჩვენი საზოგადოების ცნობიერება ხელოვნური ინტელექტის ეთიკისა და ეთიკური AI მოსაზრებების შესახებ.

სანამ ხორცსა და კარტოფილს შევეხებით ამ ტიპის ხელოვნური ინტელექტის სისტემების ველური და მატყლის მოსაზრებების შესახებ, მოდით ჩამოვაყალიბოთ რამდენიმე დამატებითი საფუძვლები ღრმად არსებით თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ ხელოვნური ინტელექტის ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლების (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდია, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას ხელოვნური ინტელექტის სისტემებზე, რომლებიც გამოიყენება შეუსაბამო ან შესაძლოა აშკარა არასწორი მიზნებისთვის და როგორ უკავშირდება ეს ახლახან გამოქვეყნებულ კვლევას CCP ლოიალობის შესახებ.

ორი ძირითადი მოსაზრება მახსენდება:

1) ხელოვნური ინტელექტის ეს მაგალითი არის ინტელექტუალური ინტელექტის შემაშფოთებელი გამოყენების უფრო დიდი მიმდინარე ნიმუშის ნაწილი და, შესაბამისად, საშინელი და თვალსაჩინოა იმის შესახებ, თუ რა ხდება

2) კატა შეიძლება გამოუშვან ჩანთიდან ისე, რომ თუ ასეთი ხელოვნური ინტელექტი ერთ ქვეყანაში იქნა მიღებული, ის ადვილად გავრცელდეს სხვა ქვეყნებშიც

დაიწყეთ პირველი პუნქტით იმის შესახებ, რომ ხელოვნური ინტელექტის ეს მაგალითი არის მიმდინარე ნიმუშის ნაწილი.

ერთ-ერთი მნიშვნელოვანი საფუძველი იმისა, რომ განსაკუთრებით შეგაწუხოთ ამ ერთმა კვლევამ, არის ის, რომ ეს არის უფრო დიდი ნიმუშის ნაწილი, თუ როგორ მიზნად ისახავს ხელოვნური ინტელექტის გამოყენებას ზოგიერთის მიერ. თუ ეს იყო ერთადერთი ასეთი კვლევა ოდესმე ჩატარებული, ჩვენ შეიძლება რბილად აღგზნებული ვიყოთ. მიუხედავად ამისა, ეს, ალბათ, არ იქნებოდა ისეთი ხალისით, როგორსაც ახლა ვხედავთ.

ეს არის, ალბათ, წვეთოვანი წვეთი რაღაცისკენ, რაც ხელიდან გადის.

როგორც ახალ ამბებში იტყობინება, ჩინეთი ცნობილია იმით, რომ დაჟინებით მოითხოვდა CCP-ისადმი აშკარა ლოიალობას. გარდა ამისა, შეიქმნა ან იქმნება სხვადასხვა საშუალებები, რათა უზრუნველყონ ხალხის ინდოქტრინაცია სამთავრობო დოქტრინაში. იყო ციტირებული წინა კვლევების შემთხვევები, რომლებიც ცდილობდნენ შეექმნათ ხელოვნური ინტელექტის ალგორითმები, რომლებსაც შეეძლოთ პარტიის წევრების აზროვნების პირობების შეფასება (იხილეთ ჩინეთის მიერ მხარდაჭერილი სწავლის დრო 2019 წელს, სადაც აღნიშნული იყო ეს ძალისხმევა).

შეიძლება გახსოვთ, რომ 2018 წელს ვიცე-პრეზიდენტმა მაიკ პენსმა სიტყვით გამოვიდა ჰადსონის ინსტიტუტში და ხაზგასმით აღნიშნა, რომ „ჩინეთის მმართველები მიზნად ისახავს ორველის სისტემის დანერგვას, რომელიც ეფუძნება ადამიანის ცხოვრების თითქმის ყველა ასპექტის კონტროლს“ (ეს იყო მინიშნება CCP-ის იმპლემენტაციაზე. სოციალური კრედიტის შეფასების სისტემა, თვალსაჩინო კამათის თემა). თქვენ შეგიძლიათ მარტივად დაამტკიცოთ, რომ CCP-ის ეს ბოლო კვლევა კიდევ ერთი ნაბიჯია ამ მიმართულებით.

ჩვენ არ ვიცით, როდის ან დაამტვრევს თუ არა ბოლო წვეთი აქლემს ზურგს, ისე, რომ ეს ერთჯერადი კვლევები გადაიქცევა ფართოდ გავრცელებულ AI-ზე დაფუძნებულ მონიტორინგის სისტემებად.

მეორე პუნქტი, რომელიც ყურადღების ღირსია, არის ის, რომ ჩვენ არ შეგვიძლია ვივარაუდოთ, რომ ამ ტიპის AI შემოიფარგლება მხოლოდ ჩინეთით. არსებითად, მიუხედავად იმისა, რომ ამ ტიპის ხელოვნური ინტელექტის გამოყენება ჩინეთში, რომელიც შესაძლოა ფართოდ გავრცელდეს, თავისთავად შემაშფოთებელია, სხვა ქვეყნებმა შეიძლება ანალოგიურად მოიქცნენ.

როგორც კი ამბობენ, რომ AI ამისთვის მზად იქნება პრაიმ-ტაიმისთვის, სხვა ქვეყნებს დიდი ალბათობა არ დასჭირდებათ გადაწყვიტონ, რომ მათაც სურთ მისი განხორციელება. კატა ჩანთიდან გამოვა. ზოგიერთი ქვეყანა, სავარაუდოდ, გამოიყენებს ამ ხელოვნურ ინტელექტს აშკარა დამთრგუნველი გზებით და არ შეეცდება რაიმე პრეტენზია გამოთქვას ამის შესახებ. სხვა ქვეყნებმა შესაძლოა შეეცადონ გამოიყენონ ამ ტიპის ხელოვნური ინტელექტი, როგორც ჩანს, სასარგებლო მიზნებისთვის, რომელთაგან საბოლოოდ არის უარყოფითი მხარე, რომელიც თითქმის გარდაუვალი იქნება.

სინამდვილეში, იმის ვარაუდი, რომ ამ ტიპის ხელოვნური ინტელექტი შესაძლოა მხოლოდ მას შემდეგ მიღებულ იქნეს, როცა ის მზად იქნება პრაიმ-ტაიმისთვის, ცოტა არასწორია. შეიძლება სულაც არ იყოს განსხვავება, შეუძლია თუ არა AI-ს ამ გზით დარწმუნებით მუშაობა. ხელოვნური ინტელექტი შეიძლება გამოყენებულ იქნას, როგორც ქავერ ისტორია, იხილეთ ჩემი განმარტება აქ ბმული აქ. იმისდა მიუხედავად, თუ რისი მიღწევა შეუძლია AI-ს, არსებობს მოსაზრება, რომ AI შეიძლება იყოს მოსახერხებელი პრეტენზია მოსახლეობის მონიტორინგისა და ავტორიტეტებისადმი აბსოლუტური ლოიალობის უზრუნველსაყოფად.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა ხელოვნურ ინტელექტის ბაზაზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენას ხელოვნური ინტელექტის ბოროტად გამოყენების შესახებ და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ხელოვნური ინტელექტის ბოროტად გამოყენება

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

მოდით ჩამოვთვალოთ თვითმართვადი მანქანის სცენარი, რომელმაც შესაძლოა გამოიყენოს ხელოვნური ინტელექტი ესკიზური ან არასწორი ქმედების გზებით.

მე ვაპირებ გაგიზიაროთ ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანის შედეგები, რამაც შეიძლება გამოიწვიოს თქვენი კანკალი და შეწუხება. ეს ის ასპექტებია, რომლებსაც ამჟამად თითქმის არავინ განიხილავს. მე არაერთხელ აღვნიშნე ეს საკითხები, თუმცა ღიად ვაღიარებ, რომ სანამ ჩვენ არ მივიღებთ თვითმართვადი მანქანებს, ჩვენ არ ვაპირებთ დიდ ყურადღებას მივაღწიოთ საზოგადოების შეშფოთებას ან აღშფოთებას იმაზე, რაც დღეს ჩანს, როგორც მხოლოდ აბსტრაქტული ცნებები. .

მზად ხართ?

დავიწყებთ საძირკვლის ჩაყრით.

ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანები აღჭურვილი იქნება ვიდეოკამერებით. ეს საშუალებას აძლევს თვითმართველ მანქანას მიიღოს მართვის სცენის ვიდეო გამოსახულება. თავის მხრივ, ხელოვნური ინტელექტის მართვის სისტემა, რომელიც მუშაობს თვითმართვადი მანქანის კომპიუტერებზე, მიზნად ისახავს შეგროვებული ვიდეოს გამოთვლებით შეისწავლოს და გაარკვიოს სად არის გზა, სად არის ახლომდებარე მანქანები, სად არიან ფეხით მოსიარულეები და ა.შ. მე ვხვდები, რომ ვამბობ თვითმართვადი მანქანების 101 საფუძველს.

ავტონომიური მანქანის ექსტერიერზე დამონტაჟებულია ვიდეოკამერები და ისინი მიმართულია გარეთ. გარდა ამისა, ზოგადად, შეგიძლიათ ველოდოთ, რომ იქნება ვიდეო კამერები მანქანაზე ან მის შიგნით, რომლებიც მიმართულია შიგნით თვითმართვადი მანქანის ინტერიერში. Რატომ ასე? მარტივია, რადგან ავტონომიური მანქანის შიგნით მიმდინარე მოვლენების ვიდეო გადაღების უამრავი მნიშვნელოვანი გამოყენება იქნება.

როცა თვითმართვადი მანქანით მიდიხართ სასეირნოდ, აღარ გჭირდებათ მძღოლი იყოთ. რას გააკეთებთ მაშინ, როცა თვითმართველ მანქანაში ხართ?

ერთი რამ, რისი გაკეთებაც შეგიძლიათ, იქნება სხვებთან ურთიერთობა სახლში ან ოფისში. აი, სამუშაოსკენ მიმავალ გზაზე, რომელიც იტყვის, რომ ერთი საათი იარე თვითმართვადი მანქანით და უკვე შეგიძლიათ დაიწყოთ სამუშაო დღე Zoom-ის მსგავსი ონლაინ რეალურ დროში ინტერაქტიული სესიის გატარებით. მათ შეუძლიათ დაგინახონ, იმის გამო, რომ კამერები მიმართულია შიგნიდან თვითმართველ მანქანაში. თქვენ შეგიძლიათ ნახოთ ისინი ალბათ LED ეკრანზე თვითმართვადი მანქანის შიგნით. დღის ბოლოს, სახლში დაბრუნებისას, შეგიძლიათ გააკეთოთ მსგავსი ინტერაქტიული ვიდეო დისკუსია თქვენს შვილებთან, როდესაც ისინი საღამოს საშინაო დავალების შესრულებას იწყებენ.

კიდევ ერთი გამოყენება იქნება კლასების გავლა. ახლა, როდესაც თქვენ არ გჭირდებათ დროის ტყუილად დახარჯვა ავტომობილის მართვაში, შეგიძლიათ გადააქციოთ ეს დრო თვითმართვადი მანქანის შიგნით თქვენი უნარების ამაღლებაში ან სერთიფიკატის ან ხარისხის მისაღებად. შიგნით მიმართული კამერების მეშვეობით, ინსტრუქტორს შეუძლია დაგინახოს და განიხილოს, როგორ მიმდინარეობს თქვენი ტრენინგი.

კიდევ ერთი გამოყენება იქნება იმის მცდელობა, რომ თვითმართვადი მანქანების მხედრები არ გაცურდნენ. ადამიანის მიერ მართულ მანქანაში მძღოლი არის ზრდასრული ადამიანი, რომელიც ჩვეულებრივ აფერხებს მხედრებს ისეთი რაღაცების გაკეთებისგან, როგორიცაა ინტერიერის მარკირება გრაფიტით. რა მოხდება AI-ზე დაფუძნებულ თვითმართველ მანქანებთან? ზოგი წუხს, რომ მხედრები აირჩევენ მანქანების ინტერიერის გაფუჭებას. ამის თავიდან ასაცილებლად, სამგზავრო ფირმა, რომელიც განათავსებს თვითმართველ მანქანებს, სავარაუდოდ გამოიყენებს შიდა მიმართულ ვიდეოკამერებს, რათა დააკვირდეს რას აკეთებენ ადამიანები ავტონომიურ მანქანაში ყოფნისას.

ვფიქრობ, თქვენ დარწმუნებული ხართ, რომ ჩვენ გვექნება ვიდეოკამერები, რომლებიც მიმართულია თვითმართვადი მანქანების ინტერიერში, გარდა იმ კამერებისა, რომლებიც მიმართულია გარედან მართვის სცენის გასარკვევად.

თქვენ ახლა მზად ხართ იმისთვის, რასაც მე ვუწოდე მოძრავ თვალს, იხილეთ ჩემი ანალიზი ბმული აქ.

პირველ რიგში, განიხილეთ ვიდეო კამერები, რომლებიც მიმართულია გარეთ.

სადაც არ უნდა მიდის თვითმართვადი მანქანა, ის პოტენციურად შეძლებს ვიდეოს გადაღებას რასაც კამერები ხედავენ. თვითმართვადი მანქანა, რომელიც აცილებს ვინმეს სახლიდან და მიჰყავს მათ სასურსათო მაღაზიაში, გაივლის სამეზობლოში და ვიდეო ჩაიწერს არა მხოლოდ გზას, არამედ ყველაფერს, რაც ხდება მხედველობის ფარგლებში. მამა-შვილი საკუთარ ეზოში თამაშობენ. ოჯახი იჯდა მათ წინა ვერანდაზე. გრძელდება და გრძელდება.

ამჟამად, ჩვენ გვაქვს იმდენად ცოტა თვითმართვადი მანქანა საჯარო გზებზე, რომ ყოველდღიური აქტივობების ვიდეოს გადაღების ეს შესაძლებლობა შედარებით მწირია და არამატერიალური.

წარმოიდგინეთ, რომ ჩვენ საბოლოოდ მივაღწევთ უსაფრთხო და ფართოდ გავრცელებულ თვითმართვადი მანქანებს. ათასობით მათგანი. შესაძლოა მილიონები. ჩვენ გვაქვს დაახლოებით 250 მილიონი მანქანა, რომელსაც ადამიანი მართავს აშშ-ში. საბოლოოდ, ისინი თითქმის შეიცვლება თვითმართვადი მანქანებით ან უბრალოდ აღარ გამოიყენებენ და ჩვენ უპირატესად გვეყოლება თვითმართვადი მანქანები ჩვენს გზებზე. ეს თვითმართვადი მანქანები მართავს ხელოვნური ინტელექტის საშუალებით და, როგორც ასეთი, შეიძლება როუმინგი არსებითად 24×7. არც დასვენება, არც აბაზანა.

ვიდეო მონაცემების ატვირთვა შესაძლებელია ამ თვითმართვადი მანქანებიდან OTA (Over-The-Air) ელექტრონული ქსელური კავშირების საშუალებით. თვითმართვადი მანქანები გამოიყენებენ OTA-ს, რათა მიიღონ AI პროგრამული უზრუნველყოფის უახლესი განახლებები, რომლებიც ჩამოტვირთულია მანქანაში. გარდა ამისა, OTA შეიძლება გამოყენებულ იქნას მონაცემთა ატვირთვისთვის თვითმართვადი მანქანიდან ღრუბელზე დაფუძნებულ მონაცემთა ბაზაში.

ყოველივე ამის შემდეგ, შესაძლებელი იქნებოდა ამ ატვირთული მონაცემების ერთმანეთთან შეერთება. ნაკერით, თქვენ პოტენციურად შეგეძლოთ გააერთიანოთ ნებისმიერი ადამიანის ყოველდღიური მოსვლა და გასვლა, ვინც გამოდიოდა გარეთ ნებისმიერ დღეს, ნებისმიერ ადგილას, სადაც ინტენსიურად იყენებდნენ თვითმართვადი მანქანებს.

ეს არის მოძრავი თვალი, რომლის შესახებაც მე ვაფრთხილებდი.

ახლა ჩვენ შეგვიძლია გავაერთიანოთ CCP შესწავლა ამ ტიპის შესაძლებლობებში. დავუშვათ, მთავრობას აქვს წვდომა ყველა ამ შეგროვებულ ვიდეო მონაცემებზე. შემდეგ მათ შეუძლიათ გამოიყენონ AI-ზე დაფუძნებული სახის ამოცნობის ალგორითმი, რათა დაედგინათ სად წახვედით, დღის რომელ მონაკვეთში, თქვენი ყოველდღიური მოგზაურობის განმავლობაში. გარდა ამისა, მათ, სავარაუდოდ, შეეძლოთ გამოეყენებინათ თავიანთი „ერთგულების“ AI-ზე დაფუძნებული ანალიზატორი, რათა დაენახათ, გეჩვენებოდათ თუ არა ერთგული გამომეტყველება თქვენს სახეზე.

უბრალოდ წარმოიდგინეთ, რომ სამშაბათს ნაშუადღევს სეირნობდით სენდვიჩის მისაღებად ადგილობრივ სასადილოში. გზატკეცილზე თვითმართვადი მანქანები გადიოდნენ. ყველა მრავალმა ვიდეომ დაგიფიქსირათ, როცა ხუთწუთიან სასეირნოდ ასრულებდით საჭმელად. მონაცემები აიტვირთა ცენტრალიზებულ მონაცემთა ბაზაში. მთავრობამ აწარმოა AI სახის ამოცნობის პროგრამა ამ მონაცემებზე.

თურმე ხელოვნურმა ინტელექტუალმა „განადგინა“, რომ არალოიალური სახე გქონდათ.

შესაძლოა ეს არალოგური მზერა მხოლოდ ერთი წამით მოხდა. ქუჩის კუთხეში ელოდი შუქის შეცვლას, რომ შეგეძლო ქუჩის გადაკვეთა სასადილოში. იმ მომენტში, ზიზღის ოდნავი კრუნჩხვა გქონდათ, რომ ზედმეტად დიდხანს მოგიწიათ ლოდინი Walk სიმბოლოსთვის. იყო თუ არა ეს ხელისუფლების მიმართ თქვენი არალოიალობის მანიშნებელი?

დიახ, AI გამოთვლით გამოთვლილი, თქვენ იყავით უხვად არალოიალური იმ მომენტში. როცა სახლში მიხვალ იმ ღამით, მთავრობამ მოაწყო შენი დაპატიმრება.

მაგრამ დაელოდეთ, კიდევ მეტია.

გახსოვდეთ, რომ ვიდეოკამერები ასევე მიმართულია შიგნით.

იმავე სამშაბათს, როცა სამსახურში მიდიოდი თვითმართვადი მანქანით, ვიდეოკამერები იღებდნენ თქვენს ყოველ მომენტს. ეს აიტვირთა ცენტრალიზებულ მონაცემთა ბაზაში. ხელოვნური ინტელექტის პროგრამული უზრუნველყოფა, რომელიც აანალიზებს სახის შაბლონებს არალოიალობის გამო, ოფისში მოგზაურობის დროს თქვენი სახის გამომეტყველების გამოთვლითი ნიმუშის გამოკვლევა ჩაატარა.

ერთ მომენტში, თქვენ შემთხვევით იყურებით ავტონომიური მანქანის გარეთ და შენიშნეთ მშენებელი მუშა, რომელიც ნაწილობრივ ბლოკავდა გზას და გამოიწვია AI მართვის სისტემამ შეანელა თვითმართვადი მანქანა. წამის მეასედში თქვენმა სახემ დაცინვა გამოავლინა ამ სამშენებლო მუშის მიმართ, რომელიც ანელებს მოძრაობას.

AI სახის ნიმუშის ანალიზმა ეს განმარტა, როგორც ხელისუფლებისადმი არალოიალობის ნიშანი.

ორი დარტყმა შენს წინააღმდეგ ერთ დღეში.

შენ თხელ ყინულზე ცხოვრობ.

რა თქმა უნდა, AI არის „მართალი“ თუ „მცდარი“ თქვენი ლოიალობის განსაზღვრაში, ამ კონტექსტში თითქმის არ არის მნიშვნელოვანი. არსი ის არის, რომ AI შეიქმნა ამ მიზნით. ადამიანებს, რომლებიც ახორციელებენ AI-ს, შეიძლება აინტერესებდეთ, შეიძლება თუ არა აინტერესებდეს, არის თუ არა AI რაიმე შესაფერისი გამოყენება ამ ტიპის ამოცანებისთვის. AI იძლევა სამთავრობო კონტროლს, მიუხედავად თავად ტექნოლოგიური ვალიდობისა.

ეს ფარავს სახის სკანირებას.

თუ ჩვენ საბოლოოდ გვექნება რაიმე სახის პორტატული ეკონომიური მოწყობილობა ტვინის ტალღების (სავარაუდო) სკანირების გასაკეთებლად, ეს, რა თქმა უნდა, შეიძლება შევიდეს თვითმართველ მანქანებშიც. ვიდეოკამერები უკვე დარწმუნებულია. ამ კალიბრის ტვინის ტალღების სკანირების ხელსაწყოების არსებობის შესაძლებლობა ახლა არ არის ბარათებში, მაგრამ აშკარად არის ის, რაც მომავლისთვის არის გათვალისწინებული.

ჩემი გამოკვლევისთვის იმის შესახებ, თუ როგორ შეიძლება მთავრობა ცდილობდეს ხალხის ხელში ჩაგდებას თვითმართველი მანქანების კონტროლის ხელში ჩაგდებით, იხ. ბმული აქ. არსებობს მსგავსი შესაძლებლობა, რომ მავნე მსახიობმა შეიძლება იგივე გააკეთოს, ნახეთ ბმული აქ. ეს არ არის გამიზნული, რომ იყოს შეშინებული ტაქტიკა ამ დაკავშირებული თემების გაშუქების მიზნით, და ამის ნაცვლად, კიბერუსაფრთხოების მნიშვნელობისა და სხვა სიფრთხილის ზომების გათვალისწინება, რომელიც საზოგადოებამ უნდა მივიღოთ ყველგან, თვითმართვადი მანქანების გაჩენასთან დაკავშირებით და სხვა ავტონომიური მანქანები.

დასკვნა

მინდა სწრაფად გავაშუქო ერთი დამატებითი ასპექტი ხელოვნური ინტელექტის შესახებ, რომელიც გამოიყენება ლოიალობის დასადგენად, რომელიც, ჩემი აზრით, გარკვეულწილად ცალკე თემაა, მაგრამ ის, რასაც ზოგიერთი ტვიტი და სოციალური მედია ავრცელებს.

ადრე აღვნიშნე, რომ ჩვენ არ გვაქვს მგრძნობიარე AI და არ ვიცით, გვექნება თუ არა. მოდით გავიგოთ იდეა, რომ გვექნება მგრძნობიარე ხელოვნური ინტელექტი. ამ შემთხვევაში, განიხილეთ შემდეგი სცენარი.

ჩვენ ვირჩევთ არამგრძნობიარე ხელოვნური ინტელექტის საშუალებით, განვახორციელოთ ხელოვნური ინტელექტის ფართო გამოყენება, რომელიც გამოთვლით ადგენს, არიან თუ არა ადამიანები თავიანთი მთავრობის ერთგულები, იყენებენ სახის სკანირებას, ტვინის ტალღების სკანირებას და ა.შ. ეს მთლიანად მართავენ და იყენებენ ავტორიტეტულ ადამიანებს. ეს არის შემაშფოთებელი სცენარი, რომელიც მე მხოლოდ რამდენიმე წუთის წინ აღვწერე.

დროა აწიო.

AI ხდება მგრძნობიარე. ჩვენ ახლა პოტენციურად გადავეცით ამ მგრძნობიარე AI-ს ფართოდ გავრცელებული შესაძლებლობა, სავარაუდოდ გამოავლინოს ადამიანებში ლოიალობა და არალოიალობა. ბოროტმოქმედმა ხელოვნური ინტელექტი, რომელიც განიხილავს ადამიანების განადგურებას, შესაძლოა გამოიყენოს ეს შესაძლებლობა, რათა გადაწყვიტოს, რომ ადამიანები ნამდვილად იქნებიან არალოილები და უნდა განადგურდნენ მთლიანად. ან იქნებ მხოლოდ ის ადამიანები, რომლებიც გამოხატავენ არალოიალობის ნიშნებს თავიანთი სახის ან აზრების საშუალებით, განსაკუთრებით უნდა განადგურდეს.

კიდევ ერთი კუთხით არის ის, რომ AI-ს სურს ადამიანების დამონება, იხილეთ ჩემი დისკუსია ბმული აქ.

როგორც ჩანს, AI-ს შესანიშნავი საჩუქარი მივეცით ამ ქვესტის განსახორციელებლად. არსებული ინფრასტრუქტურა, რომელიც ჩვენ დავაყენეთ, საშუალებას აძლევს AI-ს ფრთხილად აკონტროლოს ჩვენ, ადამიანებს. ისინი, ვინც, როგორც ჩანს, გამოხატეს არალოიალური სახის მინიშნება ან ფიქრობდნენ ხელოვნური ინტელექტის მეთაურ(ებ)ზე, განიცდიან ხელოვნური ინტელექტის რისხვას.

მე ვხვდები, რომ ვთქვი, რომ ეს ანტეს ამაღლებაა. დარწმუნებული არ ვარ, რომ ასეა. მეჩვენება, რომ გვყავს თუ არა ხელოვნური ინტელექტის მეთაურები, რომლებიც უშუალოდ წყვეტენ ჩვენს ბედს ადამიანთა ბატონების წინააღმდეგ, ალბათ, AI სისტემას იყენებენ ლოიალობის დასადგენად, ასევე, არც ერთი წინადადება არ ჩანს განსაკუთრებით სასურველი.

ბოლო კომენტარი ჯერჯერობით.

რომაელმა მეცნიერმა და ფილოსოფოსმა მარკუს ტულიუს ციცერონმა განაცხადა, რომ არაფერია უფრო კეთილშობილური, უფრო პატივცემული, ვიდრე ერთგულება. შესაძლოა, ხელოვნური ინტელექტის უნარს მივცეთ საშუალება, წინ გაგვიწიოს და გახდეს ინსტრუმენტი, რომელიც საშინლად გამოიყენებს „ერთგულებას“.

ღირსშესანიშნავი მიზეზი იმისა, რომ ხელოვნური ინტელექტის ეთიკა ჩვენი სამუშაოების სიის სათავეში დავაყენოთ.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- ატესტაცია-რომელიც-შეიძლება ასახავდეს მჩაგვრელ-ავტონომიურ-სისტემებს/