ხელოვნური ინტელექტის ექსპერტები ხელს აწერენ დოკუმენტს, რომელიც ადარებს "ინტელექტის ხელოვნური ინტელექტისგან გადაშენების" რისკს პანდემიებს, ბირთვულ ომს

ხელოვნური ინტელექტის (AI) ათეულმა ექსპერტმა, მათ შორის OpenAI, Google DeepMind და Anthropic-ის აღმასრულებელმა დირექტორებმა, ახლახან ხელი მოაწერეს ღია განცხადებას, რომელიც გამოქვეყნდა AI უსაფრთხოების ცენტრის (CAIS) მიერ. 

განცხადება შეიცავს ერთ წინადადებას:

„ინტელექტუალური ინტელექტისგან გადაშენების რისკის შერბილება უნდა იყოს გლობალური პრიორიტეტი სხვა სოციალური მასშტაბის რისკებთან ერთად, როგორიცაა პანდემია და ბირთვული ომი“.

დოკუმენტის ხელმომწერთა შორის არის ხელოვნური ინტელექტის ჩინოვნიკების ნამდვილი „ვინ ვინ არის“, მათ შორის ხელოვნური ინტელექტის „ნათლია“ ჯეფრი ჰინტონი; კალიფორნიის უნივერსიტეტი, ბერკლის სტიუარტ რასელი; და მასაჩუსეტსის ტექნოლოგიური ინსტიტუტის ლექს ფრიდმანი. მუსიკოსი გრაიმსი ასევე არის ხელმომწერი, რომელიც ჩამოთვლილია "სხვა ცნობილი ფიგურების" კატეგორიაში.

ამავე თემაზე: მუსიკოსი გრაიმსი მზადაა "50% ჰონორარი გაყოს" ხელოვნური ინტელექტის გამომუშავებული მუსიკით

მიუხედავად იმისა, რომ განცხადება შეიძლება გარეგნულად უვნებელი ჩანდეს, ძირითადი მესიჯი გარკვეულწილად საკამათოა ხელოვნური ინტელექტის საზოგადოებაში.

ექსპერტების ერთი შეხედვით მზარდი რაოდენობა თვლის, რომ მიმდინარე ტექნოლოგიებმა შესაძლოა ან აუცილებლად მიგვიყვანოს ხელოვნური ინტელექტის სისტემის წარმოქმნამდე ან განვითარებამდე, რომელსაც შეუძლია ეგზისტენციალური საფრთხე შეუქმნას ადამიანის სახეობას.

თუმცა, მათ მოსაზრებებს ეწინააღმდეგება ექსპერტთა კონტიგენტი, რომელთაც დიამეტრალურად საპირისპირო მოსაზრებები აქვთ. მაგალითად, Meta-ს მთავარი AI მეცნიერი იან ლეკუნი არაერთხელ აღნიშნავს, რომ მას სულაც არ სჯერა, რომ ხელოვნური ინტელექტი უკონტროლო გახდება.

მისთვის და სხვებისთვის, ვინც არ ეთანხმება „გადაშენების“ რიტორიკას, როგორიცაა ენდრიუ ნგ, Google Brain-ის თანადამფუძნებელი და Baidu-ს ყოფილი მთავარი მეცნიერი, AI არ არის პრობლემა, ეს არის პასუხი.

არგუმენტის მეორე მხარეს, ექსპერტები, როგორიცაა Hinton და Conjecture-ის აღმასრულებელი დირექტორი კონორ ლეჰი, თვლიან, რომ ადამიანის დონის AI გარდაუვალია და, როგორც ასეთი, მოქმედების დრო ახლაა.

თუმცა, გაურკვეველია, რა ქმედებებს ითხოვენ განცხადების ხელმომწერები. აღმასრულებელი დირექტორები და/ან ხელოვნური ინტელექტის ხელმძღვანელები თითქმის ყველა ძირითადი AI კომპანიისთვის, ისევე როგორც ცნობილი მეცნიერები მთელი აკადემიიდან, მათ შორის არიან, ვინც ხელი მოაწერეს, რაც ცხადყოფს, რომ განზრახვა არ არის ამ პოტენციურად საშიში სისტემების განვითარების შეჩერება.

ამ თვის დასაწყისში, OpenAI-ის აღმასრულებელი დირექტორი სემ ალტმანი, ზემოხსენებული განცხადების ერთ-ერთი ხელმომწერი, პირველად გამოჩნდა კონგრესის წინაშე სენატის მოსმენის დროს, რათა განეხილათ ხელოვნური ინტელექტის რეგულირება. მისი ჩვენება გახდა სათაურები მას შემდეგ, რაც მან დახარჯა მისი უმეტესი ნაწილი და მოუწოდა კანონმდებლებს დაერეგულირებინათ მისი ინდუსტრია.

Altman's Worldcoin, პროექტი, რომელიც აერთიანებს კრიპტოვალუტას და პიროვნების მტკიცებულებას, ასევე ცოტა ხნის წინ გამოჩნდა მედიაში მას შემდეგ, რაც 115 მილიონი დოლარი მოიზიდა C სერიის დაფინანსებით, რამაც მისი მთლიანი დაფინანსება სამი რაუნდის შემდეგ 240 მილიონ დოლარამდე მიიყვანა.

წყარო: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war