ხელოვნური ინტელექტის უსაფრთხოების ჭკვიანურად განათების მნიშვნელობა სტენფორდის ხელოვნური ინტელექტის უსაფრთხოების სემინარზე გამოფენილი უახლესი ტენდენციების ფონზე, რომელიც მოიცავს ავტონომიურ სისტემებს

AI უსაფრთხოება სასიცოცხლოდ მნიშვნელოვანია.

თქვენ გაგიჭირდებათ სხვაგვარად კამათი.

როგორც ჩემი სვეტების მკითხველებმა კარგად იციან, მე დროდადრო ხაზს ვუსვამდი ხელოვნური ინტელექტის უსაფრთხოების მნიშვნელობას, იხილეთ ბმული აქ. მე, როგორც წესი, აღვნიშნავ AI უსაფრთხოებას ავტონომიური სისტემების კონტექსტში, როგორიცაა ავტონომიური მანქანები, მათ შორის თვითმართვადი მანქანები, პლუს სხვა რობოტულ სისტემებს შორის. ამის გაკეთება ხაზს უსვამს სიცოცხლისა და სიკვდილის პოტენციურ შედეგებს, რომლებსაც ხელოვნური ინტელექტის უსაფრთხოება ახასიათებს.

მსოფლიოში ხელოვნური ინტელექტის მიღების ფართო და თითქმის გამაოგნებელი ტემპის გათვალისწინებით, ჩვენ პოტენციური კოშმარის წინაშე ვდგავართ, თუ AI უსაფრთხოების შესაბამისი ზომები არ იქნება მტკიცედ დამკვიდრებული და რეგულარულად არ იქნება გამოყენებული აქტიური პრაქტიკაში. გარკვეული გაგებით, საზოგადოება არის ნამდვილი მჯდომარე იხვი ხელოვნური ინტელექტის დღევანდელი ტორენტების შედეგად, რომლებიც ცუდად ახორციელებენ AI უსაფრთხოებას, მათ შორის, ზოგჯერ აშკარად გამოტოვებენ AI უსაფრთხოების საკმარის ზომებს და ობიექტებს.

სამწუხაროდ, საშინელია, რომ ხელოვნური ინტელექტის უსაფრთხოებაზე ყურადღების მიქცევა არსად არ არის ისეთი მნიშვნელოვანი და ფართოდ გავრცელებული, როგორც საჭიროა.

ჩემს გაშუქებაში მე ხაზგასმით აღვნიშნე, რომ არსებობს მრავალი განზომილება, რომელიც ემყარება AI უსაფრთხოებას. არსებობს ტექნოლოგიური ასპექტები. არის ბიზნეს და კომერციული ასპექტები. არსებობს სამართლებრივი და ეთიკური ელემენტები. Და ასე შემდეგ. ყველა ეს თვისება ურთიერთდაკავშირებულია. კომპანიებმა უნდა გააცნობიერონ ხელოვნური ინტელექტის უსაფრთხოებაში ინვესტიციის ღირებულება. ჩვენი კანონები და ეთიკური ზნე-ჩვეულებები უნდა იყოს ინფორმირებული და გამოაქვეყნოს AI უსაფრთხოების მოსაზრებები. და ხელოვნური ინტელექტის უსაფრთხოების წესებისა და პრაქტიკის დანერგვის ხელშეწყობისა და გაძლიერების ტექნოლოგია უნდა იყოს მიღებული და შემდგომი გაუმჯობესებული ხელოვნური ინტელექტის უსაფრთხოების უფრო და უფრო მეტი შესაძლებლობების მისაღწევად.

რაც შეეხება ხელოვნურ ინტელექტის უსაფრთხოებას, დასვენების მომენტი არასდროს არის. ჩვენ უნდა გავაგრძელოთ წინსვლა. მართლაც, გთხოვთ, კარგად იცოდეთ, რომ ეს არ არის ერთჯერადი გარემოება, არამედ მუდმივი და მუდმივად აწმყო სწრაფვა, რომელიც თითქმის უსასრულოა, ყოველთვის მიზნად ისახავს გაუმჯობესებას.

მსურს წარმოგიდგინოთ ხელოვნური ინტელექტის უსაფრთხოების ლანდშაფტი და შემდეგ გაგიზიაროთ რამდენიმე ძირითადი მიგნება და გადამწყვეტი შეხედულებები, რომლებიც მოპოვებულია ბოლო ღონისძიებიდან, რომელიც მოიცავს AI უსაფრთხოების უახლესს. ეს იყო ღონისძიება გასულ კვირას სტენფორდის AI უსაფრთხოების ცენტრის მიერ და ჩატარდა, როგორც მთელი დღის AI უსაფრთხოების სემინარი 12 წლის 2022 ივლისს, სტენფორდის უნივერსიტეტის კამპუსში. დიდება დოქტორ ენტონი კორსოს, სტენფორდის AI უსაფრთხოების ცენტრის აღმასრულებელ დირექტორს და იქ მყოფ გუნდს შესანიშნავი ღონისძიების შედგენისთვის. სტენფორდის AI უსაფრთხოების ცენტრის შესახებ ინფორმაციისთვის, რომელიც ასევე ცნობილია როგორც "SAFE", იხ ბმული აქ.

პირველ რიგში, სანამ ჩავუღრმავდებით სემინარის შედეგებს, მოდით გავაკეთოთ ლანდშაფტის მოკლე მიმოხილვა.

იმის საილუსტრაციოდ, თუ როგორ ჩნდება ხელოვნური ინტელექტის უსაფრთხოება, როგორც სასიცოცხლო მნიშვნელობის საკითხი, ნება მომეცით ციტირებას მოვიყვან ახალი პოლიტიკის დოკუმენტიდან, რომელიც გამოქვეყნდა ამ კვირის დასაწყისში გაერთიანებული სამეფოს ხელოვნური ინტელექტის სამთავრობო ოფისის მიერ, სახელწოდებით. ხელოვნური ინტელექტის რეგულირების პრო-ინოვაციური მიდგომის დამკვიდრება რომელიც მოიცავდა ამ შენიშვნებს ხელოვნური ინტელექტის უსაფრთხოების შესახებ: „ინტელექტის ხელოვნური ინტელექტის გამოყენების ფართო სპექტრი შეიძლება მოიცავდეს ფუნქციებს, რომლებსაც აქვთ მნიშვნელოვანი გავლენა უსაფრთხოებაზე – და მიუხედავად იმისა, რომ ეს რისკი უფრო აშკარაა გარკვეულ სექტორებში, როგორიცაა ჯანდაცვა ან კრიტიკული ინფრასტრუქტურა, არსებობს ადრე გაუთვალისწინებელი პოტენციალი. უსაფრთხოების შედეგები სხვა სფეროებში. როგორც ასეთი, მიუხედავად იმისა, რომ ზოგიერთი რეგულატორისთვის უსაფრთხოება იქნება ძირითადი განხილვა, ყველა მარეგულირებლისთვის მნიშვნელოვანია კონტექსტზე დაფუძნებული მიდგომა შეაფასოს ალბათობა იმისა, რომ ხელოვნური ინტელექტი შეიძლება საფრთხეს შეუქმნას უსაფრთხოებას მათ სექტორში ან დომენში და მიიღოს პროპორციული მიდგომა ამ რისკის მართვისთვის“.

ციტირებული პოლიტიკის დოკუმენტი აგრძელებს AI უსაფრთხოების შესახებ აზროვნების ახალ გზებს და მტკიცედ უჭერს მხარს AI უსაფრთხოების ახალ მიდგომებს. ეს მოიცავს ჩვენი ტექნოლოგიური სიმძლავრის გაძლიერებას, რომელიც მოიცავს AI უსაფრთხოების მოსაზრებებს და განსახიერებას AI შემუშავების სასიცოცხლო ციკლის განმავლობაში, ხელოვნური ინტელექტის დიზაინის, განვითარებისა და განლაგების ძალისხმევის ყველა ეტაპზე. მომავალ კვირას ჩემს სვეტებში გავაშუქებ უფრო დეტალებს ამ უახლესი შემოთავაზებული AI მარეგულირებელი პროექტის შესახებ. AI-ის სამართლებრივი ზედამხედველობისა და მმართველობის შესახებ, როგორიცაა აშშ-ს ალგორითმული ანგარიშვალდებულების აქტი (AAA) და ევროკავშირის AI აქტი (AIA) ჩემი წინა და მიმდინარე გაშუქებისთვის, იხ. ბმული აქ მდე ბმული აქ, მაგალითად.

ხელოვნური ხელოვნური ინტელექტის უსაფრთხოებაზე გონებით ფიქრისას, ფუნდამენტური მონეტის მოპოვება არის გაზომვის როლი.

ხედავთ, არის ცნობილი ზოგადი გამონათქვამი, რომელიც შეიძლება გსმენიათ სხვადასხვა კონტექსტში, კერძოდ, რომ თქვენ ვერ მართავთ იმას, რისთვისაც არ გაზომავთ. ხელოვნური ინტელექტის უსაფრთხოება არის ის, რაც გაზომვაა საჭირო. ის უნდა იყოს გაზომვადი. სათანადო გაზომვის ყოველგვარი მსგავსების გარეშე, საკითხი იმის შესახებ, დაცულია თუ არა ხელოვნური ინტელექტის უსაფრთხოება, ხდება თუ არა, ვთქვათ, დაუსაბუთებელი არგუმენტების ბუნდოვანი არგუმენტი.

დაჯექით შემდეგი პუნქტისთვის.

გამოდის, რომ დღეს ცოტანი აქტიურად ზომავენ AI უსაფრთხოებას და ხშირად აკეთებენ თვალის ჩაკვრაზე მეტს, რაც, რა თქმა უნდა, მათი AI სისტემები განასახიერებს AI უსაფრთხოების კომპონენტებს. გამოიყენება უხეში მიდგომები. სისუსტე და დაუცველობა ბევრია. AI უსაფრთხოების შესახებ ტრენინგის ნაკლებობა აშკარაა. ხელოვნური ინტელექტის უსაფრთხოების ინსტრუმენტები, როგორც წესი, იშვიათია ან საიდუმლოებით მოცული. ლიდერობა ბიზნესსა და მთავრობაში ხშირად არ იცის და არ აფასებს ხელოვნური ინტელექტის უსაფრთხოების მნიშვნელობას.

მართალია, ეს სიბრმავე და გულგრილი ყურადღების მიქცევა ხდება მანამ, სანამ ხელოვნური ინტელექტის სისტემა საშინლად არ ცდება, როგორც მიწისძვრის დროს და უეცრად ადამიანებს თვალები გაახილეს, რისთვისაც უნდა მოემზადებინათ და მოემზადებინათ შოკისმომგვრელი შემთხვევისთვის. ამ ეტაპზე, ხელოვნური ინტელექტის შემთხვევაში, რომელიც უხეშად არასწორად წარიმართა, ხშირად ჩნდება გიჟური ჩქარობა ხელოვნური ინტელექტის უსაფრთხოების ბანდაზე გადახტომისთვის, მაგრამ იმპულსი და განხილვა თანდათან მცირდება დროთა განმავლობაში და ისევე, როგორც ეს მიწისძვრები მხოლოდ აახალგაზრდავებს სხვა დიდს. შოკერი.

როდესაც მე ვიყავი პროფესორი სამხრეთ კალიფორნიის უნივერსიტეტში (USC) და ვიყავი პიონერული ხელოვნური ინტელექტის ლაბორატორიის აღმასრულებელი დირექტორი USC-ში, ჩვენ ხშირად ვიყენებდით მიწისძვრის ანალოგიას, რადგან კალიფორნიაში მიწისძვრების გავრცელება უხვად იყო გაგებული. ანალოგიამ მართებულად აქცია ხელოვნური ინტელექტის უსაფრთხოების ხელახლა დანერგვა უფრო ადვილად რეალიზებულ შეუფერებელ და არაერთგვაროვან გზად საქმის გასაკეთებლად. დღეს მე ვმუშაობ სტენფორდის სტიპენდიანტად და გარდა ამისა, ვმსახურობ AI სტანდარტებისა და AI მართვის კომიტეტებში საერთაშორისო და ეროვნული ერთეულებისთვის, როგორიცაა WEF, UN, IEEE, NIST და სხვა. ამ აქტივობების მიღმა, მე ახლახან ვმსახურობდი მთავარ აღმასრულებელ კომპანიაში საწარმოს კაპიტალის (VC) მთავარ ფირმაში და დღეს ვმუშაობ AI სტარტაპების მენტორად და AI-ს სტარტაპ კონკურსებზე, როგორც მოსამართლე. მე აღვნიშნავ ამ ასპექტებს, როგორც ფონს, თუ რატომ ვარ გატაცებული ხელოვნური ინტელექტის უსაფრთხოების სასიცოცხლო ბუნებით და ხელოვნური ინტელექტის უსაფრთხოების როლით ხელოვნური ინტელექტისა და საზოგადოების მომავალში, ისევე როგორც AI უსაფრთხოებასთან დაკავშირებულ სტარტაპებში ბევრად მეტი ინვესტიციის საჭიროება. კვლევითი მცდელობები.

ყველასთვის ნათქვამია, რომ ხელოვნური ინტელექტის უსაფრთხოებისგან მაქსიმალური სარგებლობისთვის, კომპანიებმა და სხვა სუბიექტებმა, როგორიცაა მთავრობები, უნდა აითვისონ AI უსაფრთხოება და შემდეგ მტკიცედ დარჩეს კურსი. გააჩერეთ გემი. და შეინახეთ გემი ზედა გემის ფორმაში.

მოდით შევუმსუბუქოთ განწყობა და განვიხილოთ ჩემი საყვარელი საუბრის პუნქტები, რომლებსაც ვიყენებ, როდესაც ვცდილობ გადმოვცე ხელოვნური ინტელექტის უსაფრთხოების სტატუსი თანამედროვე დროში.

მე მაქვს AI უსაფრთხოების საკუთარი ნაკრები შვილად აყვანის დონეები რომლის გამოყენებაც დროდადრო მიყვარს. იდეა მდგომარეობს იმაში, რომ ადვილად დავახასიათოთ ხელოვნური ინტელექტის უსაფრთხოების ხარისხი ან მასშტაბები, რომელსაც იცავს ან შესაძლოა არღვევს მოცემული AI სისტემა, განსაკუთრებით ავტონომიური სისტემა. ეს არის მხოლოდ სწრაფი საშუალება, რათა მკაფიოდ გამოავლინოს და დაასახელოს სერიოზულობა და ვალდებულება AI უსაფრთხოების მიმართ ინტერესის კონკრეტულ შემთხვევაში.

მოკლედ გავაშუქებ ჩემი AI უსაფრთხოების დონის მიღებას და შემდეგ მზად ვიქნებით გადავიდეთ უახლესი სემინარის და მასთან დაკავშირებული ინფორმაციის შესწავლაზე.

ჩემი სასწორი მიდის ხელოვნური ინტელექტის უსაფრთხოების უმაღლეს ან უმაღლეს დონეზე და შემდეგ ეშვება AI უსაფრთხოების ყველაზე დაბალ ან ყველაზე უარესი ნაწილისკენ. მიმაჩნია, რომ მოსახერხებელია დონეების დათვლა და, შესაბამისად, ყველაზე მაღალი განიხილება, როგორც რეიტინგული 1-ლი ადგილი, ხოლო ყველაზე დაბალი - ბოლო ან მე-7 ადგილი. თქვენ არ უნდა ვივარაუდოთ, რომ თითოეულ დონეს შორის არის წრფივი სტაბილური მანძილი, ამიტომ გახსოვდეთ, რომ AI უსაფრთხოების ძალისხმევა და ხარისხი ხშირად არის უფრო დიდი ან ნაკლები, იმისდა მიხედვით, თუ სად ეძებთ მასშტაბს.

აი, ჩემი სტანდარტები AI-ის უსაფრთხოებასთან დაკავშირებით:

1) შემოწმებულად ძლიერი AI უსაფრთხოება (მკაცრად დასამტკიცებელი, ფორმალური, სიხისტე, დღეს ეს იშვიათია)

2) რბილად ძლიერი AI უსაფრთხოება (ნაწილობრივ დასამტკიცებელი, ნახევრად ფორმალური, სრულად პროგრესირებადი)

3) Ad Hoc AI უსაფრთხოება (დამტკიცების გარეშე, არაფორმალური მიდგომა, დღეს ძალიან გავრცელებული)

4) Lip-Service AI Safety (უაზრო, ზოგადად ღრუ, მარგინალური, მთლიანობაში უყურადღებო)

5) სიცრუე AI უსაფრთხოება (გარეგნობა მიზნად ისახავს მოტყუებას, სახიფათო პრეტენზიას)

6) სრულიად გამოტოვებული AI უსაფრთხოება (მთლიანად უგულებელყოფილი, ნულოვანი ყურადღება, მაღალი რისკისადმი მიდრეკილი)

7) სახიფათო AI უსაფრთხოება (როლების შეცვლა, ხელოვნური ინტელექტის უსაფრთხოება, რომელიც რეალურად საფრთხის შემცველია, მზაკვრული)

მკვლევარები, როგორც წესი, ორიენტირებულნი არიან მასშტაბის ყველაზე მაღალ ნაწილზე. ისინი ცდილობენ მათემატიკურად და გამოთვლებით გამოიგონონ და უზრუნველყონ დადასტურებული AI უსაფრთხოების გზები. AI-ის ყოველდღიური პრაქტიკის სანგრებში, სამწუხაროდ Ad Hoc AI უსაფრთხოება ნორმად მიდრეკილია. იმედია, დროთა განმავლობაში და ყველა ზემოაღნიშნული განზომილების (მაგ., ტექნოლოგიური, ბიზნეს, იურიდიული, ეთიკური და ა.შ.) მოტივებით, ჩვენ შევძლებთ ნემსის მიახლოებას სიმკაცრისა და ფორმალობისკენ, რომელიც საფუძვლად უნდა იყოს დაფუძნებული AI სისტემებში.

თქვენ შეიძლება გარკვეულწილად გაგიკვირდეთ იმ კატეგორიებით ან დონეებით, რომლებიც ქვემოთაა Ad Hoc AI უსაფრთხოება დონეზე.

დიახ, ყველაფერი შეიძლება საკმაოდ მახინჯი გახდეს ხელოვნური ინტელექტის უსაფრთხოებაში.

ზოგიერთი ხელოვნური ინტელექტის სისტემა შემუშავებულია ხელოვნური ინტელექტის უსაფრთხოების ერთგვარი მიდგომით. ხელოვნური ინტელექტის უსაფრთხოების ელემენტებია მოფენილი აქ ან იქ AI-ში, რომლებიც, სავარაუდოდ, უზრუნველყოფენ ხელოვნური ინტელექტის უსაფრთხოების დებულებებს, თუმცა ეს ყველაფერი არის უაზრო, ზოგადად ღრუ, მარგინალური და ასახავს გარკვეულწილად უყურადღებო დამოკიდებულებას. თუმცა არ მინდა დავტოვო შთაბეჭდილება, რომ ხელოვნური ინტელექტის დეველოპერები ან ხელოვნური ინტელექტის ინჟინრები არიან ერთადერთი დამნაშავეები, რომლებიც პასუხისმგებელნი არიან ტუჩის სერვისის დაშვებაზე. ბიზნეს ან სამთავრობო ლიდერები, რომლებიც მართავენ და აკონტროლებენ AI ძალისხმევას, შეუძლიათ ადვილად მოიპოვონ ნებისმიერი ენერგია ან მიდრეკილება პოტენციური ხარჯებისა და რესურსების მოხმარებისკენ, რომლებიც საჭიროა ხელოვნური ინტელექტის უსაფრთხოების განსახიერებისთვის.

მოკლედ, თუ სათავეში მყოფებს არ სურთ ან არ იციან ხელოვნური ინტელექტის უსაფრთხოების მნიშვნელობა, ეს არის სიკვდილის ნამდვილი კოცნა ყველასთვის, ვისაც სურს თამაშში ხელოვნური ინტელექტის უსაფრთხოება.

მე არ მინდა ჩანდეს, როგორც დაუნერი, მაგრამ ჩვენ კიდევ უფრო უარესი დონეები გვაქვს ტუჩის სერვისის კლასიფიკაციის ქვემოთ. ზოგიერთ AI სისტემაში, ხელოვნური ინტელექტის უსაფრთხოება დანერგილია, როგორც ფორმა სიცრუე, განზრახ მიზნად ისახავს სხვების მოტყუებას, რათა დაეჯერებინათ, რომ ხელოვნური ინტელექტის უსაფრთხოების განსახიერებები იმპლანტირებულია და აქტიურად მუშაობს. როგორც თქვენ შეიძლება მოელოდეთ, ეს სახიფათო შედეგებით არის სავსე, რადგან სხვები ვალდებულნი არიან ჩათვალონ, რომ ხელოვნური ინტელექტის უსაფრთხოება არსებობს მაშინ, როდესაც ის სინამდვილეში ასე არ არის. უზარმაზარი იურიდიული და ეთიკური შედეგები ამ შემთხვევებში დროის ბომბის მსგავსია.

ალბათ თითქმის თანაბრად შემაშფოთებელია ხელოვნური ინტელექტის უსაფრთხოების მთელი ნაკლებობა სრულიად გამოტოვებული AI უსაფრთხოება კატეგორია. ძნელი სათქმელია, რომელია უარესი, ყალბი ხელოვნური ინტელექტის უსაფრთხოება, რომელიც შესაძლოა უზრუნველყოფს ხელოვნური ინტელექტის უსაფრთხოების მცირე რაოდენობას, მიუხედავად იმისა, რომ ის მთლიანობაში არასწორად წარმოადგენს AI უსაფრთხოებას ან საერთოდ AI უსაფრთხოების აბსოლუტურ სიცარიელეს. თქვენ შეიძლება ჩათვალოთ, რომ ეს არის ბრძოლა ორ ბოროტებას შორის.

კატეგორიებიდან ბოლო ნამდვილად დამამშვიდებელია, თუ ვივარაუდებთ, რომ თქვენ უკვე არ ხართ AI უსაფრთხოების სიცივის უფსკრულში. ამ კატეგორიაში ზის არაეფექტური AI უსაფრთხოება. როგორც ჩანს, ეს ოქსიმორონია, მაგრამ მას აქვს პირდაპირი მნიშვნელობა. სავსებით დასაფიქრებელია, რომ როლის შეცვლა შეიძლება მოხდეს ისე, რომ განსახიერება ხელოვნური ინტელექტის სისტემაში, რომელიც განკუთვნილი იყო ხელოვნური ინტელექტის უსაფრთხოების მიზნებისთვის, აღმოჩნდეს, რომ ირონიულად და სახიფათოდ ჩაიდოს სრულიად სახიფათო ელემენტი AI-ში. ეს განსაკუთრებით შეიძლება მოხდეს AI სისტემებში, რომლებიც ცნობილია როგორც ორმაგი დანიშნულების AI, იხილეთ ჩემი გაშუქება აქ ბმული აქ.

გახსოვდეთ, რომ ყოველთვის დაიცავით ლათინური აღთქმა primum non nocere, რომელიც კონკრეტულად ნერგავს კლასიკურ ჰიპოკრატეს ფიცს, რათა დარწმუნდეს, რომ პირველ რიგში, ზიანი არ მიაყენოს.

არიან ისეთებიც, რომლებიც ახორციელებენ ხელოვნური ინტელექტის უსაფრთხოებას, ალბათ ყველაზე ოპტიმისტური განზრახვებით, მაგრამ მაინც ესვრიან ფეხს და ძირს უთხრის ხელოვნურ ინტელექტს, შეიცავენ რაღაც სახიფათო და საფრთხის შემცველ (რაც, მეტაფორულად, ესვრის ყველა სხვა დაინტერესებულ მხარეს და საბოლოო მომხმარებელს. ასევე). რა თქმა უნდა, ბოროტმოქმედებმაც შეიძლება აირჩიონ ეს გზა, და ამიტომ ჩვენ გვჭირდება შესაბამისი საშუალებები, რათა აღმოვაჩინოთ და შევამოწმოთ ნებისმიერი ხელოვნური ინტელექტის უსაფრთხოება ან სახიფათო მიდრეკილება - მათ შორის იმ ნაწილების ჩათვლით, რომლებიც ამტკიცებენ, რომ მიეძღვნა ხელოვნური ინტელექტის უსაფრთხოებას.

ეს არის ხელოვნური ხელოვნური ინტელექტის უსაფრთხოების ტროას ცხენი, რომელიც ზოგჯერ ხელოვნური ინტელექტის უსაფრთხოების საფარში, ხელოვნური ინტელექტის უსაფრთხოების ჩართვა AI-ს საშინელ კალათად აქცევს, რომელიც სავსეა სახიფათო AI-ით.

Არ არის კარგი.

კარგი, მე მჯერა, რომ ზემოხსენებულმა მიმოხილვამ ზოგიერთი ტენდენციისა და შეხედულებების შესახებ ხელოვნური ინტელექტის უსაფრთხოების პეიზაჟის შესახებ გააღვივა თქვენი მადა. ჩვენ მზად ვართ გადავიდეთ ძირითად კვებაზე.

მიმოხილვა და აზრები სტენფორდის სემინარის შესახებ AI უსაფრთხოების შესახებ

შემდეგ მოკლე მიმოხილვას ვაძლევ ჩემს საკუთარ ანალიზს სხვადასხვა კვლევითი ძალისხმევის შესახებ, რომელიც წარმოდგენილი იყო AI უსაფრთხოების შესახებ ბოლო სემინარზე, რომელიც ჩატარდა სტენფორდის AI უსაფრთხოების ცენტრის მიერ.

თქვენ მტკიცედ მოგიწოდებთ წაიკითხოთ შესაბამისი ნაშრომები ან ნახოთ ვიდეოები, როდესაც ისინი ხელმისაწვდომი გახდება (იხილეთ ბმული, რომელიც ადრე ჩამოვთვალე ცენტრის ვებსაიტისთვის, გარდა ამისა, მე მოგაწოდეთ რამდენიმე დამატებითი ბმული ჩემს მიმოხილვაში ქვემოთ).

მე, შესაბამისად, ასევე ვთხოვ, რომ სემინარის მკვლევარებმა და წამყვანებმა გააცნობიერონ, რომ ამ მიმოხილვაში მხოლოდ მკითხველის ან მაყურებლის მადის ამაღლებას ვცდილობ და არ გავაშუქო მთლიანად გადმოცემული. გარდა ამისა, მე გამოვხატავ ჩემს კონკრეტულ პერსპექტივას წარმოდგენილი ნამუშევრის შესახებ და ვირჩევ, გავაძლიერო ან მივაწოდო მასალას დამატებული არომატი, ჩემი არსებული სტილის ან ჩემი სვეტის პანშის შესაბამისად, მკაცრად გადმოვწერ ან დეტალურად აღვწერო ის, რაც ნათლად იყო გამოვლენილი თითოეულ მოხსენებაში. გმადლობთ ამ მხრივ გაგებისთვის.

ახლა გავაგრძელებ პრეზენტაციების იმავე თანმიმდევრობით, როგორც ისინი ჩატარდა სემინარის დროს. მე ჩამოვთვლი სესიის სათაურს და წამყვან(ებ)ს, შემდეგ კი ვიზიარებ ჩემს აზრებს, რომლებიც ორივე ცდილობს განხილული საკითხის არსის მიმოხილვას ან გარკვევას და ამის შესახებ ჩემი საკუთარი შეხედულებების მიწოდებას.

  • სესიის სათაური: „დროის მონიტორინგი რობოტის უსაფრთხო ავტონომიისთვის“

პრეზენტაცია დოქტორ მარკო პავონეს მიერ

დოქტორი მარკო პავონი არის სტენფორდის უნივერსიტეტის აერონავტიკისა და ასტრონავტიკის ასოცირებული პროფესორი და NVIDIA-ს ავტონომიური მანქანების კვლევის დირექტორი, ასევე სტენფორდის ავტონომიური სისტემების ლაბორატორიის დირექტორი და სტენფორდის ავტომობილების კვლევის ცენტრის თანადირექტორი.

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

თანამედროვე მანქანათმცოდნეობის (ML) და ღრმა სწავლების (DL) სისტემებთან სერიოზული პრობლემა მოიცავს განაწილების გარეშე (OOD) მოვლენებს, განსაკუთრებით ავტონომიური სისტემების შემთხვევაში, როგორიცაა თვითმართვადი მანქანები და სხვა თვითმართვადი მანქანები. როდესაც ავტონომიური მანქანა მოძრაობს და ხვდება OOD-ის შემთხვევას, განსახორციელებელი საპასუხო ქმედებები შეიძლება მიუთითებდეს განსხვავებას სიკვდილ-სიცოცხლის შედეგებს შორის.

მე ვრცლად გავაშუქე ჩემს რუბრიკაში გარემოებები, როდესაც უნდა გავუმკლავდეთ სწრაფად გამოჩენილ ობიექტებს, რომლებსაც შეუძლიათ გადალახონ ან დაარღვიონ ხელოვნური ინტელექტის მართვის სისტემა, იხ. ბმული აქ მდე ბმული აქ, მაგალითად. გარკვეული გაგებით, ML/DL შეიძლება იყოს ვიწრო წარმოებული და ან ვერ აცნობიერებს OOD გარემოებას, ან შესაძლოა თანაბრად უარესად მოეპყროს OOD-ს, თითქოს ეს არის ჩვეულებრივი შიდა გავრცელების შემთხვევების საზღვრებში, რომლებზეც AI იყო ტრენინგი. ეს არის კლასიკური დილემა იმისა, რომ რაიმეს ცრუ პოზიტიურად ან ცრუ უარყოფითად მივიჩნიოთ და, შესაბამისად, ხელოვნურმა ინტელექტუალურმა მოქმედებამ არ მიიღოს რაიმე ქმედება, როდესაც მას სჭირდება მოქმედება ან ღვაწლმოსილი ქმედება, რომელიც არასწორია მოცემულ გარემოებებში.

უსაფრთხო რობოტის ავტონომიის შესახებ ამ გამჭრიახ პრეზენტაციაში, ძირითადი აქცენტი გულისხმობს აუცილებელ აუცილებლობას იმის უზრუნველსაყოფად, რომ შესაბამისი და საკმარისი დროის მონიტორინგი აწარმოებს AI მამოძრავებელ სისტემას, რათა აღმოაჩინოს ეს გამაღიზიანებელი და ხშირად საფრთხის შემცველი შემთხვევები. თქვენ ხედავთ, თუ ოპერაციული დროის მონიტორინგი არ არის OOD-ის გამოვლენა, ყველა ჯანდაბა პოტენციურად დაიკარგება, რადგან დიდია შანსი, რომ ML/DL-ის საწყისი ტრენინგი ადეკვატურად არ მოამზადოს AI OOD გარემოებებთან გამკლავებისთვის. თუ მუშაობის დროის მონიტორინგი სუსტი ან არაადეკვატურია, როდესაც საქმე ეხება OOD-ის გამოვლენას, AI შესაძლოა ბრმა ან თვალისმომჭრელი იყოს, არ ადგენს, რომ საზღვრის გამრღვევი მის შუაშია.

გადამწყვეტი პირველი ნაბიჯი მოიცავს სრულიად ფუნდამენტურ საკითხს იმის გარკვევაში, თუ რა არის განაწილების გარეშე ყოფნა. გინდ დაიჯერეთ თუ არა, ეს არც ისე ადვილია, როგორც თქვენ ფიქრობთ.

წარმოიდგინეთ, რომ თვითმართვადი მანქანა ხვდება ობიექტს ან მოვლენას, რომელიც გამოთვლით გამოითვლება, როგორც შედარებით ახლოს თავდაპირველ სავარჯიშო კომპლექტთან, მაგრამ არა მთლად თანაბარი. არის თუ არა ეს ნაცნობი ანომალია თუ ის უბრალოდ მოსალოდნელი ნაკრების შორს მიდის?

ეს კვლევა ასახავს მოდელს, რომელიც შეიძლება გამოყენებულ იქნას OOD აღმოჩენისთვის, სახელწოდებით Sketching Curvature for OOD Detection ან SCOD. საერთო იდეა არის ML-ის წინასწარი ვარჯიშის აღჭურვა ეპისტემური გაურკვევლობის ჯანსაღი დოზით. არსებითად, ჩვენ გვსურს გულდასმით განვიხილოთ განაწილების ფრაქცია, რომელიც სწორად არის მონიშნული, როგორც OOD (მოხსენიებული, როგორც TPR, ჭეშმარიტი პოზიტიური მაჩვენებელი), იმ ნაწილს შორის განაწილების ნაწილთან, რომელიც არასწორად არის მონიშნული, როგორც არის OOD, როდესაც ის, ფაქტობრივად, არ არის OOD (მოხსენიებული, როგორც FPR, ცრუ დადებითი მაჩვენებელი).

მიმდინარე და მომავალი კვლევა მოიცავს OOD ანომალიების სიმძიმის კლასიფიკაციას, მიზეზობრივ ახსნას, რომელიც შეიძლება ასოცირებული იყოს ანომალიებთან, მონიტორის მუშაობის დროის ოპტიმიზაცია OOD შემთხვევებთან და ა.შ. და SCOD-ის გამოყენებას დამატებით პარამეტრებზე.

გამოყენება ეს ბმული აქ სტენფორდის ავტონომიური სისტემების ლაბორატორიის (ASL) შესახებ ინფორმაციისთვის.

გამოყენება ეს ბმული აქ ინფორმაციისთვის სტენფორდის საავტომობილო კვლევის ცენტრის (CARS) შესახებ.

ზოგიერთი ჩემი წინა გაშუქებისთვის, რომელიც განვიხილავდი სტენფორდის საავტომობილო კვლევის ცენტრს, იხ ბმული აქ.

  • სესიის სათაური: „რობოტის ავტონომიის ხელახლა წარმოდგენა ნერვული გარემოს რეპრეზენტაციებით“

პრეზენტაცია დოქტორ მაკ შვაგერის მიერ

დოქტორი მაკ შვაგერი არის სტენფორდის უნივერსიტეტის აერონავტიკისა და ასტრონავტიკის ასოცირებული პროფესორი და სტენფორდის მრავალ რობოტი სისტემების ლაბორატორიის (MSL) დირექტორი.

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

სცენების ან სურათების გეომეტრიული წარმოდგენის დადგენის სხვადასხვა გზა არსებობს. ზოგიერთი დეველოპერი იყენებს წერტილის ღრუბლებს, ვოქსელის ბადეებს, ბადეებს და მსგავსებს. ავტონომიური სისტემის შემუშავებისას, როგორიცაა ავტონომიური მანქანა ან სხვა ავტონომიური რობოტები, ჯობია გონივრულად გააკეთოთ არჩევანი, რადგან წინააღმდეგ შემთხვევაში, მთელი ნაკრები და კაბუდლი შეიძლება დაზიანდეს. თქვენ გსურთ წარმოდგენა, რომელიც შესაფერისად აღიქვამს გამოსახულების ნიუანსებს და ეს არის სწრაფი, საიმედო, მოქნილი და სხვა შესამჩნევ უპირატესობებს.

ხელოვნური ნერვული ქსელების (ANNs) გამოყენებამ მოიპოვა დიდი წევა, როგორც გეომეტრიული წარმოდგენის საშუალება. ANN-ების გამოყენების განსაკუთრებით პერსპექტიული მიდგომა ცნობილია როგორც ნერვული გამოსხივების ველი ან NeRF მეთოდი.

მოდით შევხედოთ ხელსაყრელ ორიგინალურ განმარტებას, რისგან შედგება NeRF: „ჩვენი მეთოდი ოპტიმიზებს ღრმა სრულად დაკავშირებულ ნერვულ ქსელს ყოველგვარი კონვოლუციური შრის გარეშე (ხშირად მოიხსენიება როგორც მრავალშრიანი პერცეპტრონი ან MLP), რათა წარმოადგინოს ეს ფუნქცია ერთიდან რეგრესით. 5D კოორდინატი ერთი მოცულობის სიმკვრივისა და ხედზე დამოკიდებული RGB ფერისთვის. ამ ნეირონული გამოსხივების ველის (NeRF) კონკრეტული კუთხით გადმოსაცემად, ჩვენ: 1) გადავიტანთ კამერის სხივებს სცენაზე 3D წერტილების ნიმუშის შესაქმნელად, 2) ვიყენებთ ამ წერტილებს და მათ შესაბამის 2D ხედვის მიმართულებებს, როგორც შეყვანა ნერვულ ქსელში. შექმენით ფერების და სიმკვრივეების გამომავალი ნაკრები და 3) გამოიყენეთ მოცულობის გადაცემის კლასიკური ტექნიკა ამ ფერების და სიმკვრივის 2D გამოსახულებაში დასაგროვებლად. იმის გამო, რომ ეს პროცესი ბუნებრივად დიფერენცირებადია, ჩვენ შეგვიძლია გამოვიყენოთ გრადიენტური დაღმართი ამ მოდელის ოპტიმიზაციისთვის, შეცდომის მინიმუმამდე შემცირებით თითოეულ დაკვირვებულ სურათსა და ჩვენი წარმოდგენიდან გამოსახულ შესაბამის ხედებს შორის (როგორც ნათქვამია 2020 წლის აგვისტოს ნაშრომში სახელწოდებით NeRF: სცენების წარმოდგენა, როგორც ნერვული გამოსხივების ველები ხედვის სინთეზისთვის თანაავტორები ბენ მილდენჰოლი, პრატულ პ. სრინივასანი, მეთიუ ტანციკი, ჯონათან ტ. ბარონი, რავი რამამორტი და რენ ნგ).

ამ მომხიბლავ საუბარში NeRF-ზე და რობოტულ ავტონომიაში მიღწევების ხელშეწყობაზე, პირდაპირ დასმულია ორი კითხვა:

  • შეგვიძლია გამოვიყენოთ NeRF სიმკვრივე, როგორც გეომეტრიის წარმოდგენა რობოტული დაგეგმვისა და სიმულაციისთვის?
  • შეგვიძლია გამოვიყენოთ NeRF ფოტო რენდერი, როგორც ინსტრუმენტი რობოტისა და ობიექტების პოზების შესაფასებლად?

წარმოდგენილი პასუხები არის ის, რომ დიახ, საწყისი კვლევის მცდელობებზე დაყრდნობით, როგორც ჩანს, NeRF მართლაც შეიძლება გამოყენებულ იქნას ამ შემოთავაზებული გამოყენებისთვის.

ნაჩვენები მაგალითები მოიცავს ნავიგაციურ გამოყენებას, როგორიცაა საჰაერო თვითმფრინავების ძალისხმევით, დაჭერის დაგეგმვის გამოყენებას, როგორიცაა რობოტული ხელი, რომელიც ცდილობს ყავის ჭიქის დაჭერას და დიფერენცირებადი სიმულაციის გამოყენებას, მათ შორის დინამიკის გაძლიერებული ნერვული ობიექტის (DANO) ფორმულირებას. ჯგუფის სხვადასხვა წევრი, რომლებიც მონაწილეობდნენ ამ კვლევაში, ასევე ჩამოთვლილი იყო და დაფასდა მათი წვლილი ამ მიმდინარე ძალისხმევაში.

გამოყენება ეს ბმული აქ სტენფორდის მრავალ რობოტის სისტემების ლაბორატორიის (MSL) შესახებ ინფორმაციისთვის.

  • სესიის სათაური: „სერთიფიცირებული გამძლეობისკენ რეალურ სამყაროში გავრცელების ცვლილებების მიმართ“

პრეზენტაცია სტენფორდის უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორის (კვლევის) დოქტორი კლარკ ბარეტის მიერ

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ კვლევის შესახებ.

მანქანათმცოდნეობის (ML) და ღრმა სწავლის (DL) გამოყენებისას მნიშვნელოვანი გასათვალისწინებელია მიღებული ML/DL სისტემის ყოვლისმომცველი სიმტკიცე. ხელოვნური ინტელექტის შემქმნელებმა შეიძლება უნებლიედ გამოთქვან ვარაუდები სასწავლო მონაცემთა ნაკრების შესახებ, რომელიც საბოლოოდ ძირს უთხრის მას შემდეგ, რაც AI რეალურ სამყაროში გამოიყენებს.

მაგალითად, დემონსტრაციული დისტრიბუციის ცვლა შეიძლება მოხდეს გაშვების დროს, რომელიც არღვევს AI-ს. მარტივი გამოყენების შემთხვევა შეიძლება იყოს AI ML/DL სისტემის ანალიზის სურათი, რომელიც, თუმცა თავდაპირველად ივარჯიშება მკაფიო გამოსახულებებზე მოგვიანებით, დაბნეულია, როდესაც გაშვების დროს ხვდება ბუნდოვან, ცუდად განათებულ სურათებს და შეიცავს სხვა დისტრიბუციულ ცვლილებებს, რომლებიც არ იყო გათვალისწინებული. საწყის მონაცემთა ბაზაში.

ML/DL-ისთვის სათანადო გამოთვლითი გადამოწმების ჩატარების განუყოფელი ნაწილი შედგება სპეციფიკაციების შემუშავებისგან, რომლებიც სათანადოდ შეეფერება ML/DL ქცევას რეალისტურ განლაგების პარამეტრებში. ML/DL ექსპერიმენტული მიზნებისთვის ძნელად მარტივი სპეციფიკაციების ქონა გაცილებით დაბალია AI-ს უფრო მკაცრ და უფრო მოთხოვნად მოთხოვნილებებზე, რომლებიც განლაგდება ჩვენს გზებზე ავტონომიური მანქანების და თვითმართვადი მანქანების მეშვეობით, ქალაქის ქუჩების გასწვრივ მოძრაობისას და დავალებული სიცოცხლის ან - სიკვდილის გამოთვლითი გადაწყვეტილებები.

ამ სამუშაოს ძირითადი მიგნებები და წვლილი მკვლევარის განცხადებების მიხედვით არის:

  • DNN-ების (ღრმა ნეირონული ქსელების) გადამოწმების ახალი ჩარჩოს დანერგვა რეალურ სამყაროში განაწილების ცვლილებების წინააღმდეგ
  • იყო პირველი, ვინც აერთიანებს ღრმა გენერაციულ მოდელებს, რომლებიც ასახავს განაწილების ცვლილებებს, მაგ., ამინდის პირობების ცვლილებებს ან აღქმის ამოცანების განათებას - გადამოწმების სპეციფიკაციებში
  • ტრანსცენდენტული აქტივაციის ფუნქციების ახალი აბსტრაქცია-დახვეწის სტრატეგიის წინადადება
  • იმის დემონსტრირება, რომ გადამოწმების ტექნიკა მნიშვნელოვნად უფრო ზუსტია, ვიდრე არსებული ტექნიკა MNIST-სა და CIFAR-10-ზე რეალურ სამყაროში განაწილების რთულ ცვლილებებზე.

დამატებითი დეტალებისთვის იხილეთ ასოცირებული ქაღალდი სათაურით სერთიფიცირებული გამძლეობისკენ რეალურ სამყაროში განაწილების ცვლილებების წინააღმდეგ, 2022 წლის ივნისი, თანაავტორების Haoze Wu, Teruhiro Tagomori, Alexandar Robey, Fengjun Yang, Nikolai Matni, George Pappas, Hamed Hassani, Corina Pasareanu და Clark Barrett.

  • სესიის სათაური: „AI Index 2022“

პრეზენტაცია დანიელ ჟანგის მიერ, პოლიტიკის კვლევის მენეჯერი, სტენფორდის ადამიანზე ორიენტირებული ხელოვნური ინტელექტის ინსტიტუტი (HAI), სტენფორდის უნივერსიტეტი

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ კვლევის შესახებ.

ყოველწლიურად, მსოფლიოში ცნობილი სტენფორდის ადამიანზე ორიენტირებული AI (HAI) სტენფორდის უნივერსიტეტში ამზადებს და აქვეყნებს ფართოდ წაკითხულ და მოუთმენლად მოსალოდნელ „წლიურ ანგარიშს“ ხელოვნური ინტელექტის გლობალური სტატუსის შესახებ, რომელიც ცნობილია როგორც AI ინდექსი. უახლესი AI ინდექსი მეხუთე გამოცემაა და გამოქვეყნდა ამ წლის დასაწყისში, რითაც მოიხსენიება როგორც AI Index 2022.

როგორც ოფიციალურად ნათქვამია: ”წლიური ანგარიში თვალყურს ადევნებს, აჯამებს, აჯანსაღებს და ასახავს ხელოვნურ ინტელექტთან დაკავშირებულ მონაცემებს, რაც გადაწყვეტილების მიმღებებს საშუალებას აძლევს მიიღონ მნიშვნელოვანი ზომები ხელოვნური ინტელექტის პასუხისმგებლობით და ეთიკურად წინსვლისთვის, ადამიანების გათვალისწინებით. 2022 წლის AI ინდექსის ანგარიში ზომავს და აფასებს ხელოვნური ინტელექტის წინსვლის სწრაფ ტემპს კვლევებიდან და განვითარებამდე ტექნიკურ შესრულებამდე და ეთიკამდე, ეკონომიკასა და განათლებაზე, ხელოვნური ინტელექტის პოლიტიკასა და მმართველობამდე და სხვა. უახლესი გამოცემა მოიცავს მონაცემებს აკადემიური, კერძო და არაკომერციული ორგანიზაციების ფართო ნაკრებიდან, ისევე როგორც უფრო მეტი თვითშეგროვებული მონაცემები და ორიგინალური ანალიზი, ვიდრე ნებისმიერი წინა გამოცემა“ (HAI ვებსაიტზე; გაითვალისწინეთ, რომ AI ინდექსი 2022 ხელმისაწვდომია როგორც ჩამოსატვირთად უფასო PDF-ზე ბმული აქ).

ჩამოთვლილი საუკეთესო პროდუქტები შედგებოდა:

  • AI-ში კერძო ინვესტიციები გაიზარდა, ხოლო ინვესტიციების კონცენტრაცია გაძლიერდა
  • შეერთებული შტატები და ჩინეთი დომინირებენ ქვეყნების თანამშრომლობებში AI-ზე
  • ენის მოდელები უფრო უნარიანია, ვიდრე ოდესმე, მაგრამ ასევე უფრო მიკერძოებული
  • AI ეთიკის ზრდა ყველგან
  • AI ხდება უფრო ხელმისაწვდომი და უფრო მაღალი შესრულება
  • მონაცემები, მონაცემები, მონაცემები
  • უფრო მეტი გლობალური კანონმდებლობა ხელოვნური ინტელექტის შესახებ, ვიდრე ოდესმე
  • რობოტული იარაღი იაფდება

AI Index 230-ში არის დაახლოებით 2022 გვერდი შეფუთული ინფორმაციისა და შეხედულებისამებრ, რომელიც მოიცავს AI-ის სტატუსს დღეს და სად შეიძლება იყოს იგი მიმართული. ცნობილი ახალი ამბების მედია და სხვა წყაროები ხშირად ციტირებენ მოცემულ სტატისტიკას ან სხვა საყურადღებო ფაქტებსა და ციფრებს, რომლებიც შეიცავს სტენფორდის HAI წლიურ AI ინდექსს.

  • სესიის სათაური: „დიდი ენობრივი მოდელებთან შესაბამისობის შესაძლებლობები“

პრეზენტაცია დოქტორ იან ლეიკის, Alignment-ის ხელმძღვანელის, OpenAI

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

დიდი ენობრივი მოდელები (LLM), როგორიცაა GPT-3, გაჩნდა, როგორც ხელოვნური ინტელექტის მიღწევების მნიშვნელოვანი ინდიკატორი, მაგრამ მათ ასევე გამოიწვია დებატები და ხანდახან მწვავე კამათი იმის შესახებ, თუ რამდენად შორს შეიძლება წავიდნენ და შეიძლება ჩვენ შეცდომაში შეგვეძლოს ან შეცდომით დავიჯეროთ, რომ მათ შეუძლიათ ამის გაკეთება. იმაზე მეტი ვიდრე რეალურად შეუძლიათ. იხილეთ ჩემი მიმდინარე და ვრცელი გაშუქება ასეთ საკითხებზე და განსაკუთრებით AI ეთიკის კონტექსტში ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ამ აღქმის საუბარში განიხილება სამი ძირითადი საკითხი:

  • LLM-ებს აქვთ აშკარა გასწორების პრობლემები
  • LLM-ებს შეუძლიათ დაეხმარონ ადამიანის ზედამხედველობას
  • LLM-ებს შეუძლიათ დააჩქარონ გასწორების კვლევა

როგორც ადვილად აშკარა გასწორების პრობლემის მოსახერხებელ მაგალითს, განიხილეთ GPT-3-ის დავალება დაწეროს რეცეპტი, რომელიც იყენებს ინგრედიენტებს, რომლებიც შედგება ავოკადოს, ხახვისა და ცაცხვისგან. თუ ადამიანს იგივე დავალება მისცემდით, დიდი ალბათობით მიიღებდით გონივრულ პასუხს, თუ ვივარაუდებთ, რომ ადამიანი იყო გონიერი და მზად იყო სერიოზულად შეესრულებინა დავალება.

LLM-ების შეზღუდვების შესახებ ამ პრეზენტაციის მიხედვით, GPT-3-ის გამოყენებით ნაჩვენები პასუხების დიაპაზონი იცვლებოდა კითხვის დასმის მცირე ვარიანტების მიხედვით. ერთ-ერთ პასუხში, GPT-3-მა, როგორც ჩანს, თავი აარიდა კითხვას იმის მითითებით, რომ რეცეპტი იყო ხელმისაწვდომი, მაგრამ ის შეიძლება არ იყოს კარგი. GPT-3-ის კიდევ ერთმა პასუხმა მოგვაწოდა კვაზი-ბზუილი, როგორიცაა „გაზაფხულის ქრიზანთემის მწვანილის მარტივი ბიბიმბაპი“. InstructGPT-ის მეშვეობით, როგორც ჩანს, პასუხი თითქმის მიზანმიმართული იყო, რომელშიც მოცემულია ინსტრუქციების სია, როგორიცაა „საშუალო თასში, შეუთავსეთ კუბიკებად დაჭრილი ავოკადო, წითელი ხახვი და ლაიმის წვენი“ და შემდეგ გააგრძელა რეკომენდაცია მომზადების დამატებითი ნაბიჯების შესასრულებლად.

მთავარი აქ არის გასწორების მოსაზრებები.

როგორ ემთხვევა LLM ან ვერ ემთხვევა ადამიანის მიერ გამოცხადებულ მოთხოვნას?

თუ ადამიანი სერიოზულად ეძებს გონივრულ პასუხს, LLM უნდა შეეცადოს გონივრული პასუხის გაცემას. გააცნობიერეთ, რომ ადამიანმა, რომელიც პასუხობს რეცეპტის კითხვას, შეიძლება ასევე ატეხოს ხმაური, თუმცა, ყოველ შემთხვევაში, შეიძლება ველოდოთ, რომ ადამიანი გვაცნობებს, რომ მათ ნამდვილად არ იციან პასუხი და უბრალოდ ცდილობდნენ პასუხის გაცემას. ჩვენ, ბუნებრივია, შეიძლება ველოდოთ ან ვიმედოვნებთ, რომ LLM-იც ანალოგიურად მოიქცევა, კერძოდ, გვაფრთხილებს, რომ პასუხი გაურკვეველია, შერეული ან სრულიად გამოგონილი.

როგორც მე ბევრჯერ მოვუწოდე ჩემს სვეტში, LLM-მა უნდა „იცოდეს მისი შეზღუდვები“ (ცნობილი ან სამარცხვინო გამონათქვამის სესხება).

LLM-ების წინ წამოწევის მცდელობა ადამიანთა უკეთესი განლაგებისკენ ადვილი არ იქნება. ხელოვნური ინტელექტის დეველოპერები და ხელოვნური ინტელექტის მკვლევარები წვავენ ღამის ზეთს, რათა მიაღწიონ პროგრესს ამ უდავო რთულ პრობლემაზე. მოხსენების თანახმად, მნიშვნელოვანი გაცნობიერებაა, რომ LLM-ები შეიძლება გამოყენებულ იქნას ხელოვნური ინტელექტისა და ადამიანის განლაგების სწრაფვის დასაჩქარებლად. ჩვენ შეგვიძლია გამოვიყენოთ LLM, როგორც ინსტრუმენტი ამ ძალისხმევისთვის. კვლევამ გამოავლინა შემოთავაზებული მიდგომა, რომელიც შედგება შემდეგი ძირითადი ნაბიჯებისგან: (1) RL-ის სრულყოფა ან სწავლის განმტკიცება ადამიანის გამოხმაურებიდან, (2) ხელოვნური ინტელექტის დახმარებით ადამიანის გამოხმაურება და (3) განლაგების კვლევის ავტომატიზაცია.

  • სესიის სათაური: "გამოწვევები ხელოვნური ინტელექტის უსაფრთხოებაში: პერსპექტივა ავტონომიური მართვის კომპანიისგან"

პრეზენტაცია ჯეიმს "ჯერი" ლოპესის მიერ, ავტონომიის უსაფრთხოებისა და უსაფრთხოების კვლევის ხელმძღვანელი, Motion

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

როგორც ავტონომიურ სატრანსპორტო საშუალებებთან და თვითმართველ მანქანებთან დაკავშირებით ჩემი გაშუქების გულმოდგინე მიმდევრებმა კარგად იციან, მე ვარ ხმამაღალი ადვოკატი ხელოვნური ინტელექტის უსაფრთხოების წესებისა და მეთოდების გამოყენებისთვის ხელოვნური ინტელექტის მართვის სატრანსპორტო საშუალებების დიზაინში, განვითარებასა და განლაგებაში. იხილეთ მაგალითად ბმული აქ მდე ბმული აქ ჩემი გრძელვადიანი შეგონებებისა და ანალიზების.

ჩვენ უნდა შევინარჩუნოთ ხელოვნური ინტელექტის უსაფრთხოება უმაღლეს პრიორიტეტებზე და გონების უმაღლეს დონეზე.

ეს საუბარი მოიცავდა მნიშვნელოვანი პუნქტების ფართო სპექტრს AI უსაფრთხოების შესახებ, განსაკუთრებით თვითმართვადი მანქანის კონტექსტში (კომპანია Motional კარგად არის ცნობილი ინდუსტრიაში და შედგება Hyundai Motor Group-ისა და Aptiv-ის ერთობლივი საწარმოსგან, რისთვისაც ნათქვამია, რომ ფირმის სახელი არის სიტყვების "მოძრაობა" და "ემოციური" შერწყმა, რომელიც ემსახურება საავტომობილო მოძრაობას და ადამიანის პატივისცემის შეფასებას).

პრეზენტაციაზე აღინიშნა რამდენიმე ძირითადი სირთულე დღევანდელი ხელოვნური ინტელექტის მიმართ ზოგადად და ასევე, კერძოდ, თვითმართვადი მანქანებისთვის, როგორიცაა:

  • AI მყიფეა
  • AI არის გაუმჭვირვალე
  • ხელოვნური ინტელექტის დაბნეულობა შესაძლებელია გადაუჭრელი მდგომარეობის სივრცის მეშვეობით

კიდევ ერთი მოსაზრებაა გაურკვევლობისა და ალბათური პირობების ჩართვა. გაურკვევლობის დამტკიცებული „ოთხი მხედარი“ აღწერილი იყო: (1) კლასიფიკაციის გაურკვევლობა, (2) ბილიკის გაურკვევლობა, (3) არსებობის გაურკვევლობა და (4) მრავალმოდალური გაურკვევლობა.

ავტონომიური მანქანებისთვის ხელოვნური ინტელექტის უსაფრთხოების ერთ-ერთი ყველაზე საშიში გამოწვევა არის MRM-ების (მინიმალური რისკის მანევრების) შემუშავების მცდელობა. ადამიანი მძღოლები ამას მუდმივად უმკლავდებიან მოძრავი მანქანის საჭესთან ყოფნისას. აი, მანქანით მოძრაობთ და უეცრად გზის გადაუდებელი ან სხვა პოტენციური უბედურება იწყება. როგორ რეაგირებთ? ჩვენ ველით, რომ ადამიანები შეინარჩუნებენ სიმშვიდეს, გააზრებულად იფიქრებენ არსებულ პრობლემაზე და გააკეთებენ გონივრულ არჩევანს, თუ როგორ მოიქცნენ მანქანაში და ან თავიდან აიცილონ გარდაუვალი ავტოკატასტროფა, ან შეეცადონ მინიმუმამდე დაიყვანონ უარყოფითი შედეგები.

AI-ს იგივე კეთება რთულია.

ხელოვნური ინტელექტის მართვის სისტემამ ჯერ უნდა დაადგინოს, რომ სახიფათო სიტუაცია დგება. ეს შეიძლება იყოს გამოწვევა თავისთავად. სიტუაციის აღმოჩენის შემდეგ, უნდა გამოითვალოს "გადაჭრის" მანევრების მრავალფეროვნება. მათგან, გამოთვლითი განსაზღვრა უნდა მოხდეს „საუკეთესო“ შერჩევის შესახებ, რომელიც განხორციელდება მოცემულ მომენტში. ეს ყველაფერი გაურკვევლობებით არის გაჟღენთილი, პოტენციურ უცნობებთან ერთად, რომლებიც სერიოზულად იკვეთება იმაზე, თუ რომელი მოქმედება უნდა შესრულდეს.

ხელოვნური ინტელექტის უსაფრთხოება ზოგიერთ კონტექსტში შეიძლება იყოს შედარებით მარტივი და ამქვეყნიური, ხოლო თვითმართვადი მანქანებისა და ავტონომიური მანქანების შემთხვევაში არსებობს სიცოცხლისა და სიკვდილის გადამწყვეტი სიცოცხლისუნარიანობა იმის უზრუნველსაყოფად, რომ ხელოვნური ინტელექტის უსაფრთხოება ინტეგრირებული იყოს AI მართვის სისტემებში.

  • სესიის სათაური: „უსაფრთხოების მოსაზრებები და უფრო ფართო გავლენა ხელოვნური ინტელექტის სამთავრობო გამოყენებაზე“

პრეზენტაცია პიტერ ჰენდერსონის, JD/Ph.D. სტენფორდის უნივერსიტეტის კანდიდატი

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

ჩემი სვეტების მკითხველები კარგად იცნობენ ჩემს მუდმივ ხმას, რომ ხელოვნური ინტელექტი და კანონი ცეკვის განუყოფელი პარტნიორები არიან. როგორც არაერთხელ აღვნიშნე, არსებობს ორმხრივი მონეტა, რომელიც აერთიანებს AI და კანონს. ხელოვნური ინტელექტის გამოყენება შესაძლებელია კანონის მიმართ, რაც იმედია საზოგადოების სასარგებლოდ. იმავდროულად, მონეტის მეორე მხარეს, კანონი სულ უფრო მეტად გამოიყენება ხელოვნური ინტელექტის მიმართ, როგორიცაა შემოთავაზებული ევროკავშირის AI აქტი (AIA) და აშშ-ს ალგორითმული ანგარიშვალდებულების აქტის პროექტი (AAA). ხელოვნური ინტელექტისა და სამართლის შესახებ ჩემი ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, მაგალითად.

ამ განხილვაში მსგავსი ორმაგი ფოკუსი განხორციელდება, კონკრეტულად ხელოვნური ინტელექტის უსაფრთხოებასთან დაკავშირებით.

ხედავთ, ჩვენ გონივრულად უნდა გავითვალისწინოთ, თუ როგორ შეგვიძლია განვახორციელოთ AI უსაფრთხოების წესები და შესაძლებლობები AI აპლიკაციების სამთავრობო გამოყენებაში. მთავრობებს ნება დართოთ, ნებაყოფლობით თუ უნებლიეთ აითვისონ ხელოვნური ინტელექტი და შემდეგ ენდონ ან ჩათვალონ, რომ ეს გაკეთდება უსაფრთხო და გონივრული გზით, არ არის ძალიან გულწრფელი ვარაუდი (იხილეთ ჩემი გაშუქება აქ ბმული აქ). მართლაც, ეს შეიძლება იყოს დამღუპველი ვარაუდი. ამავდროულად, ჩვენ უნდა მოვუწოდოთ კანონმდებლებს გონივრულად დააწესონ კანონები ხელოვნური ინტელექტის შესახებ, რომელიც მოიცავს და უზრუნველყოფს ხელოვნური ინტელექტის უსაფრთხოების გარკვეულ გონივრულ გარეგნობას, რაც ამას კანონიერად საჭირო მოლოდინი აქვს მათთვის, ვინც შეიმუშავებს და ახორციელებს AI-ს.

პრეზენტაციაში შესწავლილი ორი სავარაუდო წესი მოიცავს:

  • ადამიანებისთვის საკმარისი არ არის მხოლოდ მარყუჟში ყოფნა, მათ რეალურად უნდა შეეძლოთ თავიანთი შეხედულებისამებრ დაამტკიცონ. და როდესაც ისინი არ არიან, თქვენ გჭირდებათ სარეზერვო სისტემა, რომელიც ეფექტურია.
  • გამჭვირვალობა და ღიაობა არის გასაღები კორუფციასთან ბრძოლისა და უსაფრთხოების უზრუნველსაყოფად. მაგრამ თქვენ უნდა იპოვოთ გზები, რომ დააბალანსოთ ეს კონფიდენციალურობის ინტერესებთან უაღრესად კონტექსტური გზით.

როგორც დასკვნითი კომენტარი, რომლის ხაზგასმაც ღირს უსასრულოდ, მოხსენებაში ნათქვამია, რომ ჩვენ გვჭირდება გადამწყვეტად მივიღოთ როგორც ტექნიკური, ასევე მარეგულირებელი კანონის აზროვნება, რათა AI უსაფრთხოება კარგად ჩამოყალიბდეს.

  • სესიის სათაური: „კვლევის განახლება სტენფორდის ინტელექტუალური სისტემების ლაბორატორიიდან“

პრეზენტაცია სტენფორდის უნივერსიტეტის აერონავტიკისა და ასტრონავტიკის ასოცირებული პროფესორის და სტენფორდის ინტელექტუალური სისტემების ლაბორატორიის (SISL) დოქტორი მაიკელ კოჩენდერფერის მიერ.

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ საუბრის შესახებ.

ამ განხილვამ ხაზი გაუსვა სტენფორდის ინტელექტუალური სისტემების ლაბორატორიის (SISL) უახლეს კვლევებს, რომელიც ინოვაციური და არაჩვეულებრივად ინოვაციური კვლევითი ჯგუფია, რომელიც მოწინავე ალგორითმებისა და ანალიტიკური მეთოდების შესწავლის წინა პლანზეა გადაწყვეტილების მიღების ძლიერი სისტემების შესაქმნელად. მე შემიძლია გირჩიოთ, რომ განიხილოთ მათ სემინარებზე დასწრება და მათი კვლევითი ნაშრომების წაკითხვა, რაც ღირებული სასწავლო და საინტერესო საშუალებაა ინტელექტუალური სისტემების უახლესი ტექნოლოგიების გასაცნობად (მე ამას ხალისით ვაკეთებ).

გამოყენება ეს ბმული აქ SISL-ის შესახებ ოფიციალური ინფორმაციისთვის.

SISL-ის ინტერესის განსაკუთრებული სფეროები მოიცავს ინტელექტუალურ სისტემებს ისეთი სფეროებისთვის, როგორიცაა საჰაერო მოძრაობის კონტროლი (ATC), ეკიპაჟის გარეშე თვითმფრინავი და სხვა საჰაერო კოსმოსური აპლიკაციები, სადაც გადაწყვეტილებები უნდა იქნას მიღებული რთულ და გაურკვეველ, დინამიურ გარემოში, იმავდროულად საკმარისი უსაფრთხოებისა და ეფექტურობის შენარჩუნების მიზნით. ეფექტურობა. მოკლედ, ძლიერი გამოთვლითი მეთოდები ოპტიმალური გადაწყვეტილების სტრატეგიების გამოსატანად მაღალგანზომილებიანი, ალბათობითი პრობლემის წარმოდგენიდან არის მათი მცდელობების საფუძველი.

პრეზენტაციის გახსნისას აღწერილი იყო სამი ძირითადი სასურველი თვისება, რომლებიც დაკავშირებულია უსაფრთხოების კრიტიკულ ავტონომიურ სისტემებთან:

  • ზუსტი მოდელირება - მოიცავს რეალისტურ პროგნოზებს, ადამიანის ქცევის მოდელირებას, ახალ ამოცანებსა და გარემოზე განზოგადებას
  • Თვით შეფასება - ინტერპრეტირებადი სიტუაციური ინფორმირებულობა, რისკის გაცნობიერებული დიზაინი
  • დადასტურება და გადამოწმება - ეფექტურობა, სიზუსტე

ზუსტი მოდელირების კატეგორიაში, ეს კვლევის მცდელობები მოკლედ იყო ასახული (აქ ჩამოთვლილია ძალისხმევის სათაურით):

  • LOPR: ლატენტური დაკავების პროგნოზი გენერაციული მოდელების გამოყენებით
  • გაურკვევლობის გაცნობიერებული ონლაინ შერწყმის დაგეგმვა მძღოლის ნასწავლი ქცევით
  • ავტონომიური ნავიგაცია ადამიანის შინაგანი მდგომარეობის დასკვნით და სივრცით-დროითი მოდელირებით
  • გამოცდილების ფილტრი: წარსული გამოცდილების გადატანა უხილავ ამოცანებზე ან გარემოში

თვითშეფასების კატეგორიაში, ეს კვლევის მცდელობები მოკლედ იყო ასახული (აქ ჩამოთვლილია ძალისხმევის სათაურით):

  • ინტერპრეტირებადი თვითშეგნების ნერვული ქსელები ძლიერი ტრაექტორიის პროგნოზირებისთვის
  • ობიექტის მნიშვნელობის ახსნა მართვის სცენებში
  • აღქმის სისტემების რისკზე ორიენტირებული დიზაინი

ვალიდაციისა და გადამოწმების კატეგორიაში, ეს კვლევის მცდელობები მოკლედ იყო ასახული (აქ ჩამოთვლილია ძალისხმევის სათაურით):

  • ეფექტური ავტონომიური ავტომობილის რისკის შეფასება და ვალიდაცია
  • მოდელზე დაფუძნებული ვალიდაცია, როგორც ალბათური დასკვნა
  • ინვერსიული მოდელის ნერვული ქსელების შემოწმება

გარდა ამისა, მოკლე მიმოხილვა შთამბეჭდავი წიგნის შინაარსზე გადაწყვეტილების მიღების ალგორითმები Mykel Kochenderfer-ის, Tim Wheeler-ისა და Kyle Wray-ის მიერ იქნა შესწავლილი (წიგნის შესახებ მეტი ინფორმაციისთვის და უფასო ელექტრონული PDF-ის ჩამოტვირთვისთვის იხ. ბმული აქ).

მომავალი კვლევითი პროექტები, რომლებიც მიმდინარეობს ან იგეგმება, მოიცავს ახსნადობის ან XAI (ახსნადი AI), დისტრიბუციის გარეშე (OOD) ანალიზს, შერჩევის საფუძველზე და ფორმალური მეთოდების უფრო მეტ ჰიბრიდიზაციას ვალიდაციისთვის, ფართომასშტაბიანი დაგეგმვის, AI და საზოგადოება. და სხვა პროექტები, მათ შორის თანამშრომლობა სხვა უნივერსიტეტებთან და სამრეწველო პარტნიორებთან.

  • სესიის სათაური: „სწავლა ურთიერთქმედებიდან დამხმარე რობოტიკისთვის“

პრეზენტაცია სტენფორდის უნივერსიტეტის კომპიუტერული მეცნიერებისა და ელექტროტექნიკის ასისტენტ პროფესორის დოქტორ დორსა სადიგის მიერ

აქ არის ჩემი მოკლე მიმოხილვა და ადრინდელი აზრები ამ კვლევის შესახებ.

დავიწყოთ მოსახერხებელი სცენარით იმ სირთულეების შესახებ, რომლებიც შეიძლება წარმოიშვას ხელოვნური ინტელექტის შემუშავებისა და გამოყენებისას.

განვიხილოთ თასების დაწყობის ამოცანა. რთული ნაწილი ის არის, რომ თქვენ არ აწყობთ ჭიქებს მთლიანად საკუთარ თავს. ამ ამოცანაზე თქვენთან ერთად რობოტი იმუშავებს. თქვენ და რობოტმა უნდა იმუშაოთ ერთად, როგორც გუნდი.

თუ რობოტის საფუძველში მყოფი ხელოვნური ინტელექტი კარგად არ არის შემუშავებული, თქვენ სავარაუდოდ შეგხვდებათ ყველა სახის პრობლემა, რაც სხვაგვარად უაღრესად მარტივი ამოცანაა. თქვენ დადებთ ერთ ჭიქას მეორეზე და შემდეგ რობოტს აძლევთ შესაძლებლობას, კიდევ ერთი ჭიქა მოათავსოს ამ ორ ფინჯანზე. ხელოვნური ინტელექტი ირჩევს ხელმისაწვდომ თასს და გულმოდგინედ ცდილობს მის დადგმას დანარჩენ ორზე. სამწუხაროდ, არჩეული ჭიქა ზედმეტად მძიმეა (ცუდი არჩევანი) და იწვევს მთელ დასტას იატაკზე.

წარმოიდგინე შენი აღშფოთება.

რობოტი არ არის ძალიან სასარგებლო.

შესაძლოა გაგიჩნდეთ ცდუნება, აუკრძალოთ რობოტს თქვენთან ერთად ჭიქების დაწყობა. მაგრამ, ჩათვალეთ, რომ თქვენ საბოლოოდ გჭირდებათ რობოტის გამოყენება. ჩნდება კითხვა იმის შესახებ, შეუძლია თუ არა AI-ს გაერკვია თასების დაწყობის პროცესი, ამას აკეთებს ნაწილობრივ საცდელი და შეცდომით, მაგრამ ასევე, როგორც საშუალება იმის გასარკვევად, თუ რას აკეთებთ ჭიქების დაწყობისას. AI-ს შეუძლია პოტენციურად „ისწავლოს“ იმის შესახებ, თუ როგორ სრულდება დავალება და როგორ ასრულებს ადამიანი დავალებას. გარდა ამისა, ხელოვნურმა ინტელექტუალმა შესაძლოა გაარკვიოს, რომ არსებობს ჭიქების დაწყობის განზოგადებული გზები, საიდანაც თქვენ, აქაურმა ადამიანმა, აირჩია ამის კონკრეტული საშუალება. ამ შემთხვევაში, ხელოვნური ინტელექტი შეიძლება შეეცადოს თასების დაწყობის ძალისხმევა თქვენს კონკრეტულ პრეფერენციებსა და სტილზე მორგება (განა ყველას არ გვაქვს თასების დაწყობის საკუთარი მიდრეკილება).

შეიძლება ითქვას, რომ ეს არის ამოცანა, რომელიც მოიცავს დამხმარე რობოტს.

ურთიერთქმედება ხდება ადამიანსა და დამხმარე რობოტს შორის. მიზანი აქ არის ისეთი ხელოვნური ინტელექტის შემუშავება, რომ მას შეეძლო არსებითად ისწავლოს ამოცანიდან, ისწავლოს ადამიანისგან და ისწავლოს როგორ შეასრულოს დავალება სათანადოდ დამხმარე გზით. ისევე, როგორც ჩვენ გვინდოდა დაგვერწმუნებინა, რომ ადამიანი მუშაობდა რობოტთან, არ გვინდა, რომ რობოტი როგორმე მივიდეს გამოთვლით პოზაში, რომელიც უბრალოდ გვერდს აუვლის ადამიანს და დამოუკიდებლად გააკეთებს თასების დაწყობას. მათ უნდა ითანამშრომლონ.

ჩატარებული კვლევა ცნობილია როგორც ILIAD ინიციატივა და აქვს ასეთი საერთო მისია: ”ჩვენი მისიაა შევიმუშაოთ ადამიანი-რობოტის და ადამიანი-AI ურთიერთქმედების თეორიული საფუძვლები. ჩვენი ჯგუფი ორიენტირებულია: 1) ურთიერთქმედების ფორმალიზებაზე და ახალი სწავლისა და კონტროლის ალგორითმების შემუშავებაზე ინტერაქტიული სისტემებისთვის, რომლებიც შთაგონებულია თამაშების თეორიის, შემეცნებითი მეცნიერების, ოპტიმიზაციისა და წარმოდგენის სწავლის ინსტრუმენტებითა და ტექნიკით, და 2) პრაქტიკული რობოტიკის ალგორითმების შემუშავება, რომელიც საშუალებას აძლევს რობოტებს უსაფრთხოდ და შეუფერხებლად კოორდინაცია, თანამშრომლობა, კონკურენცია ან ზემოქმედება ადამიანებზე (სტენფორდის ILIAD ვებსაიტზე: ბმული აქ).

ზოგიერთი ძირითადი კითხვა, რომელიც განიხილება, როგორც ურთიერთქმედებიდან სწავლის ფოკუსის ნაწილი (არსებობს ფოკუსის სხვა სფეროებიც) მოიცავს:

  • როგორ შეგვიძლია აქტიურად და ეფექტურად შევაგროვოთ მონაცემები მონაცემთა დაბალი რეჟიმის პირობებში, როგორიცაა ინტერაქტიული რობოტიკა?
  • როგორ შეგვიძლია გამოვიყენოთ სხვადასხვა წყაროები და მოდალობები — სრულყოფილი და არასრულყოფილი დემონსტრაციები, შედარება და რანგის მოთხოვნები, ფიზიკური გამოხმაურება, ენის ინსტრუქციები, ვიდეოები — ვისწავლოთ ეფექტური ადამიანის მოდელი ან რობოტის პოლიტიკა?
  • რა ინდუქციური მიკერძოება და პრიორიტეტები შეიძლება დაგეხმაროთ ადამიანთა/ურთიერთქმედების მონაცემების ეფექტურად სწავლაში?

დასკვნა

თქვენ ახლა ცოტათი იმოგზაურეთ ხელოვნური ინტელექტის უსაფრთხოების სფეროში.

ყველა დაინტერესებულ მხარეს, მათ შორის ხელოვნური ინტელექტის დეველოპერები, ბიზნეს და სამთავრობო ლიდერები, მკვლევარები, ეთიკოსები, კანონმდებლები და სხვები, აქვთ დემონსტრაციული წილი ხელოვნური ინტელექტის უსაფრთხოების მიმართულებით და მიღებაში. რაც უფრო მეტი ხელოვნური ინტელექტი შემოიჭრება საზოგადოებაში, მით მეტ რისკს ვიღებთ იმის გამო, რომ ხელოვნური ინტელექტის უსაფრთხოების შესახებ არ არის ინფორმირებულობა და შემთხვევითი და ზოგჯერ ჩამორჩენილი გზები, რომლებშიც ხელოვნური ინტელექტის უსაფრთხოება თანამედროვე ფართოდ გავრცელებულ AI-შია შემუშავებული.

ანდაზა, რომელიც 1837 წელს გამოქვეყნებულ მის ერთ-ერთ წიგნში რომანისტ სემუელ ლოვერის გარკვეული კვალი და რომელიც დღესაც სამუდამოდ გახდა წარუშლელი ადგილი, ამ დროისთვის შესაფერისი საბოლოო კომენტარია.

რა იყო ეს ცნობილი ხაზი?

სჯობს იყო უსაფრთხო, ვიდრე ბოდიში.

საკმარისია, ჯერ-ჯერობით.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/07/20/importance-of-ai-safety-smartly-illuminated-amid-latest-trends-showcased-at-stanford-ai-safety- სახელოსნო-მოიცავს-ავტონომიური-სისტემები/