Cry Wolf მომენტი AI Hype არ არის სასარგებლო

მიუხედავად იმისა, რომ მე ვარ ადამიანი, რომელიც სწავლობს კაცობრიობის დასასრულის სცენარებს, მე მჯერა, რომ „ექსპერტის წერილი“, რომელიც გვთავაზობს 6-თვიან AI მორატორიუმს ან უფრო ბოლო განცხადებას, რომ ხელოვნური ინტელექტის რისკი პანდემიისა და ბირთვული რისკის დონეზეა, ორივე ზედმეტად გაჟღენთილია. კიდევ უფრო გაურკვეველი მოსაზრება, რომ ჩვენ უნდა დავხუროთ ხელოვნური ინტელექტი, არის უპასუხისმგებლო. ნებისმიერი შეშფოთება უნდა იყოს პროპორციული იმ რისკებისა, რომელთა წინაშეც ვდგავართ. ამჟამად, ჩვენ არ ვართ უშუალო საფრთხის წინაშე AI-სგან.

ამჟამინდელ AI-ებს არ შეუძლიათ საზოგადოების ხელში ჩაგდება. მათ არ აქვთ გრძნობები და არ იმსახურებენ დაცვას ისე, როგორც ადამიანის სიცოცხლეს. ისინი არ არიან სუპერინტელექტუალური და არ აღემატებიან ადამიანებს ზოგადად. სინამდვილეში, ისინი საერთოდ არ ფიქრობენ. ახლავე, თუ იკვებება უხვი მონაცემებით, AI-ები ძალიან კარგად ასრულებენ კონკრეტულ ამოცანებს, როგორიცაა გამოთვლა და პროგნოზირება. ეს არ არის შემაშფოთებელი, ეს არის მახასიათებლები ამ სისტემებს დიზაინის მიხედვით. AI-ების დაპირება მოიცავს კიბოს გადაჭრას, ინდუსტრიული წარმოების ტრანსფორმაციას, სამომავლო სცენარების მოდელირებას და გარემოსდაცვითი გამოწვევების მართვას. ამის თქმით, არსებობს ლეგიტიმური მიზეზები, რომ გავაკრიტიკოთ არსებული AI-ები რესურსების გამოყენების, გამჭვირვალობის, მიკერძოების, კიბერუსაფრთხოების და მისი მომავალი ზემოქმედების გამო დასაქმებაზე.

AI-ები გამოთვლით ძვირია – რაც ნიშნავს, რომ ისინი მწირი, წიაღისეული ენერგიის დიდ ნარჩენს წარმოადგენენ. ეს დაუყოვნებლივ უნდა მოგვარდეს. მაგრამ ეს არ არის ეგზისტენციალური საკითხი, ეს არის რაციონალური რესურსის გამოყენების საკითხი. ის ფაქტი, რომ AI-ები, რომლებიც ეყრდნობიან მონაცემთა დიდ და არაეფექტურ მოდელებს, ძალიან ძვირი ხდება აკადემიის ან მთავრობის მიერ თვალყურის დევნისა და გამოძიებისთვის, რეალური საკითხია. მაგრამ ეს მყისიერად გამოსწორდება. ელიტარული აკადემიური ინსტიტუტების ან მთავრობების კონსორციუმებს შეუძლიათ ერთად გაერთიანდნენ გამოთვლითი რესურსები ისე, როგორც ეს გააკეთეს სუპერკომპიუტერისთვის.

Large Language Models (LLM) არის ხელოვნური ინტელექტის მოდელები, რომლებსაც შეუძლიათ ბუნებრივი ენის ტექსტების გენერირება დიდი რაოდენობით მონაცემებიდან. ამის ერთი პრობლემა ის არის, რომ ეს ტექსტები პირდაპირ გამომდინარეობს სხვა ადამიანების გულწრფელი ინტელექტუალური წვლილიდან. ისინი ფაქტობრივად მოპარულია. გენერაციული AI, კერძოდ, აერთიანებს როგორც მომხმარებლის, ისე ორგანიზაციულ მონაცემებს, ასევე შემოქმედებით შინაარსს საავტორო უფლებების მკვეთრი დარღვევით. ეს სერიოზულია, მაგრამ არა ეგზისტენციალური და მეტიც, ევროკავშირი, ჰოლივუდის ლობისტები და წიგნის „დიდი ხუთეული“ უკვე საქმეზეა. ველით, რომ ეს შეანელებს AI-ს წონას. ამჟამინდელი ტემპით, AI-ებს ამოიწურება კარგი ტრენინგის მონაცემები, სანამ ის სენტიმენტს მიაღწევს.

ალგორითმები, რომლებიც უკვე გამოიყენება ჩვენი გადასახადების გამოსათვლელად, ჩვენი ონლაინ არხების ასარჩევად ან ადამიანების ციხეში ჩასაგდებად, აშკარად არ არის გამჭვირვალე. თუმცა, ეს ასე იყო წლების განმავლობაში და საერთო არაფერი აქვს ხელოვნური ინტელექტის ბოლო მოვლენებთან. AI მიკერძოება არის ფუნქცია და არა შეცდომა. სტერეოტიპები, ფაქტობრივად, მთავარი მიდგომაა, რომლის მეშვეობითაც ასეთი მოდელები მუშაობენ. გარდა იმისა, რომ ცრურწმენა იმალება მანქანური მსჯელობის შეუღწევად ფენებში, რომლებიც მიუწვდომელია ადამიანებისთვის, ექსპერტებისთვის თუ არა. ის, რაც ჩვენ კითხვის ნიშნის ქვეშ უნდა ვიყოთ, არის დეველოპერების სიბრძნე, რომლებმაც განავითარეს ასეთი სისტემები და არა მათ მიერ შექმნილი სისტემის შესაძლებლობები, რაც მოცემულია. სისტემები იშვიათად იქნება უკეთესი, ვიდრე სიბრძნე ან განზრახვა მათ, ვინც აშენებს ან მართავს მას.

AI ტრენინგის მონაცემები ასახავს საზოგადოებაში არსებულ მიკერძოებას, საიდანაც ეს მონაცემები შეგროვდა. ცუდი ვარჯიშის მონაცემების ხელახალი გამოყენება შემაშფოთებელი პრაქტიკაა, რომელიც უკვე აბინძურებს ხელოვნური ინტელექტის მოდელებს. ამჟამინდელი AI მიდგომები უბრალოდ აძლიერებს მიკერძოებას, რათა სწრაფად მიაღწიოთ შედეგს. ეს, რა თქმა უნდა, საპირისპიროა იმისა, რაც ჩვენ გვინდა. რისი გაკეთებაც გვინდა, არის ტექნოლოგიის გამოყენება ადამიანური შეცდომების დასაცავად. მანქანის შეცდომებზე ფიქრი ადამიანის ინტელექტის ფუჭად გამოყენებაა.

მიუხედავად "ნერვული ქსელის" მეტაფორისა, ამჟამინდელი AI არ ჰგავს ტვინს წარმოსახვით. ამჟამინდელი AI სისტემებს არ შეუძლიათ მსჯელობა ანალოგიით, როგორც ამას ადამიანები აკეთებენ. Კარგია. ჩვენ შეიძლება რეალურად არ გვსურს ხელოვნური ინტელექტის გასწორება, რომლის მომხრეები არიან და ცდილობენ მიბაძონ. მანქანები უნდა განსხვავდებოდეს ადამიანებისგან. ასე შეგვიძლია მაქსიმალურად გავზარდოთ ერთმანეთის ძლიერი მხარეები. და როგორ შეგვიძლია შევინარჩუნოთ მანქანები განსხვავებული და ერთმანეთისგან განცალკევებული. მანქანებს არ უნდა ჰქონდეთ რაიმე ინტერესების გასწორება.

ხელოვნური ინტელექტი სულ უფრო მეტად წარმოადგენს კიბერუსაფრთხოების მნიშვნელოვან საფრთხეს, როგორც აქტივს კრიმინალებისა და მტრულად განწყობილი სახელმწიფოებისთვის. მაგრამ კიბერუსაფრთხოება არის სექსუალურ ინდუსტრიაში უამრავი ექსპერტი, რომელიც კარგად არის აღჭურვილი გამოწვევისთვის. არ არსებობს მიზეზი, რომ გამორთოთ ხელოვნური ინტელექტი კიბერუსაფრთხოების შიშის გამო.

ხელოვნური ინტელექტის გამო დასაქმების შეფერხება წლების განმავლობაში პოლიტიკის პრობლემაა, ჯერ რობოტებთან, ახლა კი პროგრამულ უზრუნველყოფაზე დაფუძნებული AI სისტემებით. ეს ნიშნავს, რომ მთავრობები მზად იქნებიან გაუმკლავდნენ მას. MIT Work of the Future-ის კვლევამ დაადგინა, რომ რობოტების გამო უმუშევრობის შესახებ შეშფოთება გადაჭარბებული იყო. ადამიანები ყოველთვის პოულობდნენ მუშაობის გზებს და მომავალშიც ასე მოიქცევიან. გარდაიქმნება თუ არა წარმოება ხელოვნური ინტელექტის საშუალებით? ეს უკვე ხდება, მაგრამ საკმაოდ კონტროლირებადი გზით.

დროდადრო, ხელოვნური ინტელექტი განიცდის ზედმეტ დაპირებებს ამჟამინდელი ფუნქციონირების ან სამომავლო მასშტაბის შესახებ. პირველი ხელოვნური ინტელექტის ზამთარი დაიწყო 1974-1980 წლებში, როდესაც აშშ-ს მთავრობამ დაფინანსება შეწყვიტა. მეორე იყო 1987-1993 წლებში, რადგან ხარჯები გაიზარდა და AI ვერ შეასრულა თავისი მაღალი დაპირებები.

ახალი პარადიგმების მოლოდინში, 2025-2030 წლებში, ჩვენ სავარაუდოდ შევა მესამე AI ზამთარში. ყოველ შემთხვევაში, ცხელ AI ზაფხულთან შედარებით, გვპირდებიან. მიზეზი ის არის, რომ აჟიოტაჟის მიუხედავად, ზემოთ ჩამოთვლილი ყველა მიზეზის გამო, დიდი ენობრივი მოდელები მიაღწიეს მაქსიმალურ სარგებლიანობას და საბოლოოდ უნდა შეიცვალოს გამოთვლითი უფრო ელეგანტური მიდგომებით, რომლებიც უფრო გამჭვირვალეა.

ერთ-ერთი ასეთი კანდიდატია ჰიპერგანზომილებიანი გამოთვლა, რომელიც მანქანებს უფრო ეფექტურად აზროვნებს, რადგან ისინი აძლევენ მანქანებს სემანტიკურ გაგებას, უნარს, გადაამუშაონ მნიშვნელობა და კონტექსტი რეალურ სამყაროში არსებული ინფორმაციის მიღმა. ამჟამად, ხელოვნური ინტელექტის სისტემებს არ ესმით სიტყვებსა და ფრაზებს შორის ურთიერთობა, ისინი უბრალოდ კარგად გამოცნობენ. ეს არასაკმარისია. ჩვენ საბოლოოდ დაგვჭირდება განსახიერებული AI, რადგან აზროვნება დაკავშირებულია სივრცის აღქმასთან. ეს ნამდვილად ასეა წარმოებაში, რომელიც უაღრესად ფიზიკური თამაშია. ჩვენ ასევე დაგვჭირდება ხელოვნური ინტელექტი, რომელსაც შეუძლია ადამიანის მეხსიერების ფუნქციები, როგორიცაა პრიორიტეტების განსაზღვრა ზოგიერთი ინფორმაციის წინა პლანზე და სხვა ინფორმაციის ფონზე. დავიწყება არის ინსტრუმენტი, რომელსაც ადამიანები იყენებენ აბსტრაქტული აზროვნებისთვის, მოძველებული ორგანიზაციული პრაქტიკიდან გადასვლის, გადაწყვეტილებების მიღებისა და მომენტში დარჩენისთვის და არ არის უბრალოდ ნაკლი. ჯერ არცერთ მანქანას არ შეუძლია ამის გაკეთება ძალიან კარგად.

ამასობაში ჩვენ ნამდვილად გვჭირდება დარეგულირება, მაგრამ არა ამ წამს. და როცა ვარეგულირებთ, ჯობია კარგად გავაკეთოთ. ხელოვნური ინტელექტის ცუდი რეგულირება, სავარაუდოდ, გააუარესებს სიტუაციას. მარეგულირებლების გაღვიძება ამ გამოწვევისთვის შეიძლება სასარგებლო იყოს, მაგრამ დარწმუნებული არ ვარ, რომ რეგულატორების ამჟამინდელი თაობა მზად არის ისეთი ყოვლისმომცველი ცვლილებებისთვის, რაც საჭირო იქნება ამის კარგად გასაკეთებლად. ეს გამოიწვევს ძლიერი კომპანიების (შესაძლოა ყველა ჩამოთვლილი კომპანიის) შეზღუდვას, AI-ის გამოყენების შეზღუდვას მმართველობაში და ნიშნავს უზარმაზარ ცვლილებებს სამომხმარებლო ბაზრების მუშაობაში. არსებითად, ჩვენ მოგვიწევს საზოგადოების გადახედვა. ეს რამდენიმე ათეული წლით ადრე შეგვიყვანს დეგუსტაციაში, ვიდრე ჩვენ გვსურს. AI-ის გარშემო არსებული გამჭვირვალობის გამოწვევა შეიძლება უფრო სერიოზული იყოს, ვიდრე კონტროლის ცვლადები, რომლებზეც ყველას ასე აწუხებს, რა თქმა უნდა, რომ ისინი არ არიან დაკავშირებული.

უფრო მეტიც, ჩვენ არ შეგვიძლია ერთნაირად შეშფოთებული ვიყოთ ყოველ ჯერზე, როდესაც მიიღწევა ხელოვნური ინტელექტის ნიშნული. ჩვენ უნდა შევინარჩუნოთ ჩვენი ენერგია კასკადური რისკის მართლაც დიდი მომენტებისთვის. ისინი მოვლენ და, სამართლიანად, ჩვენ მზად არ ვართ. ჩემი მოფიქრებული სამომავლო სცენარები (იხ. გადაშენების სცენარები 2075 წლისთვის) მოიცავს მონაცემთა მასიურ დარღვევას, რაც მთელ ქვეყნებს თვეობით აკავებს საკუთარ პროცესებს. მე ასევე მაწუხებს AI-ები, რომლებსაც კრიმინალური ჯგუფები ან სახელმწიფო აქტორები ეხმარებიან. ყველაზე მეტად, მე მაწუხებს ხელოვნური ინტელექტის, ნანოტექნიკის, სინთეზური ბიოლოგიის და კვანტური ტექნოლოგიების კომბინაციები - უცნობი შესაძლებლობების თითქმის უხილავი კვაზიორგანული ინტელექტი, შესაძლოა მხოლოდ რამდენიმე ათწლეულის დაშორებით, რომელიც მოხდება სწორედ მაშინ, როდესაც სამყარო მოიხმარს კლიმატის კასკადურ ეფექტებს. შეცვლა.

ხელოვნური ინტელექტის ამჟამინდელი მოდელები ჯერ კიდევ არ მუშაობს საკმარისად კარგად, რომ საფრთხე იყოს კაცობრიობისთვის. სანამ მათ გამორთვას განვიხილავთ, უკეთესი AI-ები გვჭირდება. უფრო მეტიც, ჩვენ გვჭირდება უფრო ბრძენი დეველოპერები, უფრო მგრძნობიარე მოქალაქეები და უკეთ ინფორმირებული პოლიტიკის შემქმნელები. ჩვენ ასევე გვჭირდება კონცეფცია, თუ როგორ დავარეგულიროთ AI. მაგრამ ეს შეიძლება გაკეთდეს არაფრის შენელების გარეშე. ეს იქნება საგანმანათლებლო მოგზაურობა ყველასთვის. მორატორიუმის წერილი GPT 4-თან დაკავშირებით (2023) არის მგლის ტირილის მომენტი, რომელსაც მხოლოდ სუსტი მსგავსება აქვს კასკადურ რისკებთან, რომლებსაც კაცობრიობა აწყდება მომდევნო ათწლეულებში. ხელოვნური ინტელექტის რისკის დაყენება პანდემიისა და ბირთვული რისკის დონეზე 2023 წელს ნაადრევია. მივალთ? Ალბათ. მაგრამ მგლის ტირილს აქვს შედეგები. ის შთანთქავს ჟანგბადს მომავალი დებატებიდან რეალური შეშინების შესახებ.

წყარო: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/