ხელოვნური ინტელექტის საშიშროება, რომელზეც არავინ საუბრობს

მიუხედავად იმისა, ჩატი GPT შეიძლება გამოიყურებოდეს როგორც უვნებელი და სასარგებლო უფასო ინსტრუმენტი, ამ ტექნოლოგიას აქვს პოტენციალი მკვეთრად შეცვალოს ჩვენი ეკონომიკა და საზოგადოება, როგორც ეს ვიცით. ეს საგანგაშო პრობლემებამდე მიგვიყვანს - და ჩვენ შეიძლება არ ვიყოთ მზად მათთვის. 

ChatGPT, ჩეტბოტი, რომელიც აღჭურვილია ხელოვნური ინტელექტის (AI) საშუალებით, 2022 წლის ბოლოსთვის მსოფლიო შტურმით აიტაცა. ჩატბოტი გვპირდება, რომ შეაფერხებს ძიებას, როგორც ჩვენ ვიცით. უფასო ინსტრუმენტი იძლევა სასარგებლო პასუხებს, რომლებიც ეფუძნება მომხმარებელთა მოთხოვნებს. 

და ის, რაც ინტერნეტს გიჟდება AI chatbot სისტემაზე, არის ის, რომ ის არ იძლევა მხოლოდ საძიებო სისტემის ხელსაწყოს მსგავს პასუხებს. ChatGPT-ს შეუძლია შექმნას ფილმის კონტურები, დაწეროს მთელი კოდები და გადაჭრას კოდირების პრობლემები, დაწეროს მთელი წიგნები, სიმღერები, ლექსები, სკრიპტები – ან რასაც მოიფიქრებთ – წუთებში. 

ეს ტექნოლოგია შთამბეჭდავია და მან მილიონზე მეტი მომხმარებელი გადალახა მისი გაშვებიდან სულ რაღაც ხუთ დღეში. მიუხედავად მისი დამაფიქრებელი მუშაობისა, OpenAI-ის ინსტრუმენტმა შეშფოთება გამოიწვია სხვა სფეროს მეცნიერებსა და ექსპერტებს შორის. დოქტორმა ბრეტ ვაინშტაინმა, ავტორმა და ევოლუციური ბიოლოგიის ყოფილმა პროფესორმა, თქვა: „ჩვენ მზად არ ვართ ChatGPT-ისთვის“. 

ილონ მასკი იყო OpenAI-ის ადრეული ეტაპის ნაწილი და კომპანიის ერთ-ერთი თანადამფუძნებელი. მაგრამ მოგვიანებით დატოვა გამგეობიდან. მან არაერთხელ ისაუბრა ხელოვნური ინტელექტის ტექნოლოგიის საშიშროებაზე - მისი თქმით, შეუზღუდავი გამოყენება და განვითარება მნიშვნელოვან რისკს უქმნის კაცობრიობის არსებობას. 

როგორ მუშაობს იგი?

ჩატი GPT არის დიდი ენაზე მომზადებული ხელოვნური ინტელექტის ჩატბოტის სისტემა, რომელიც გამოვიდა 2022 წლის ნოემბერში OpenAI-ის მიერ. შეზღუდულმა მომგებიანმა კომპანიამ შეიმუშავა ChatGPT ხელოვნური ინტელექტის „უსაფრთხო და სასარგებლო“ გამოყენებისთვის, რომელსაც შეუძლია უპასუხოს თითქმის ყველაფერზე, რაზეც შეგიძლიათ იფიქროთ - რეპ სიმღერებიდან, ხელოვნების მოთხოვნიდან დაწყებული ფილმების სცენარებითა და ესეებით. 

როგორც ჩანს, როგორც შემოქმედებითმა ერთეულმა, რომელმაც იცის რას ამბობს, ეს ასე არ არის. ხელოვნური ინტელექტის ჩატბოტი ასუფთავებს ინფორმაციას ინტერნეტში მასიური მონაცემთა ცენტრის პროგნოზირებადი მოდელის გამოყენებით. Google-ის და საძიებო სისტემების უმეტესობის მსგავსად. შემდეგ, ის ივარჯიშება და ექვემდებარება უამრავ მონაცემს, რაც საშუალებას აძლევს AI-ს იყოს ძალიან კარგი სიტყვების თანმიმდევრობის წინასწარმეტყველებაში იმ დონემდე, რომ მას შეუძლია წარმოუდგენლად გრძელი ახსნა-განმარტების შედგენა. 

მაგალითად, შეგიძლიათ დაუსვათ ენციკლოპედიის კითხვები, როგორიცაა: „აუხსენი აინშტაინის სამი კანონი“. ან უფრო კონკრეტული და სიღრმისეული კითხვები, როგორიცაა „დაწერეთ 2,000 სიტყვიანი ესსე რელიგიური ეთიკისა და მთაზე ქადაგების ეთიკის კვეთაზე“. და, მე არ გეცოდინებათ, წამებში გექნებათ ბრწყინვალედ დაწერილი თქვენი ტექსტი. 

ანალოგიურად, ეს ყველაფერი ბრწყინვალე და შთამბეჭდავია; საგანგაშო და შემაშფოთებელია. „Ex Machina“ ტიპის დისტოპიური მომავლის გაფუჭება არის შესაძლებლობა ხელოვნური ინტელექტის ბოროტად გამოყენებით. არა მხოლოდ Tesla-სა და SpaceX-ის აღმასრულებელმა დირექტორმა გაგვაფრთხილა, არამედ ბევრმა ექსპერტმაც გამოაცხადა განგაში. 

AI-ს საფრთხეები

ხელოვნურმა ინტელექტმა უდავოდ იმოქმედა ჩვენს ცხოვრებაზე, ეკონომიკურ სისტემასა და საზოგადოებაზე. თუ ფიქრობთ, რომ ხელოვნური ინტელექტი რაღაც ახალია ან რომ მას მხოლოდ ფუტურისტულ სამეცნიერო ფანტასტიკურ ფილმებში ნახავთ, ორჯერ დაფიქრდით. ბევრი ტექნიკური კომპანია, როგორიცაა Netflix, Uber, Amazon და Tesla, იყენებს ხელოვნურ ინტელექტს თავიანთი ოპერაციების გასაუმჯობესებლად და ბიზნესის გაფართოებისთვის. 

მაგალითად, Netflix ეყრდნობა AI ტექნოლოგიას მათი ალგორითმისთვის, რათა რეკომენდაცია გაუწიოს ახალ კონტენტს მათი მომხმარებლებისთვის. Uber იყენებს მას მომხმარებელთა მომსახურებაში, თაღლითობის გამოსავლენად, დისკების მარშრუტის ოპტიმიზაციისთვის და ა.შ. მხოლოდ რამდენიმე მაგალითის დასასახელებლად. 

თუმცა, თქვენ შეგიძლიათ მხოლოდ ასე შორს წახვიდეთ ასეთი გამორჩეული ტექნოლოგიით, ისე, რომ საფრთხე არ შეუქმნათ ადამიანის როლებს ბევრ ტრადიციულ პროფესიაში, შეხების ზღურბლზე, რაც მოდის მანქანისა და ადამიანებისგან. და, ალბათ, რაც მთავარია, საფრთხეს უქმნის AI-ს რისკებს ადამიანებისთვის. 

ხელოვნური ინტელექტის ეთიკური გამოწვევები

ვიკიპედიის თანახმად, ხელოვნური ინტელექტის ეთიკა „არის ხელოვნურად ინტელექტუალური სისტემებისთვის სპეციფიკური ტექნოლოგიების ეთიკის ფილიალი. ის ზოგჯერ იყოფა ადამიანთა მორალური ქცევის შეშფოთებად, როდესაც ისინი ქმნიან, ქმნიან, იყენებენ და მკურნალობენ ხელოვნურად ინტელექტუალურ სისტემებს, და შეშფოთებას მანქანების ქცევაზე მანქანების ეთიკის თვალსაზრისით.

ვინაიდან AI ტექნოლოგია სწრაფად ვრცელდება და ხდება ჩვენი ყოველდღიური ცხოვრების განუყოფელი ნაწილი, ორგანიზაციები ავითარებენ AI ეთიკის კოდებს. მიზანია წარმართოს და განავითაროს ინდუსტრიის საუკეთესო პრაქტიკა, რათა წარმართოს ხელოვნური ინტელექტის განვითარება „ეთიკით, სამართლიანობითა და ინდუსტრიით“.

თუმცა, რამდენადაც მშვენიერი და მორალურია, როგორც ჩანს ქაღალდზე, ამ მითითებებისა და ჩარჩოების უმეტესობა ძნელი გამოსაყენებელია. გარდა ამისა, ისინი, როგორც ჩანს, იზოლირებული პრინციპებია, რომლებიც განლაგებულია ინდუსტრიებში, რომლებსაც ზოგადად არ აქვთ ეთიკური მორალი და ძირითადად ემსახურებიან კორპორატიულ დღის წესრიგს. ბევრი ექსპერტები და გამოჩენილი ხმები ამტკიცებენ რომ ხელოვნური ინტელექტის ეთიკა ძირითადად უსარგებლოა, მოკლებულია მნიშვნელობას და თანმიმდევრულობას.

ხელოვნური ინტელექტის ყველაზე გავრცელებული პრინციპებია კეთილგანწყობა, ავტონომია, სამართლიანობა, გამოყენებადობა და არაბოროტმოქმედება. მაგრამ, როგორც ლუკ მუნი, დასავლეთ სიდნეის უნივერსიტეტის კულტურისა და საზოგადოების ინსტიტუტიდან განმარტავს, ეს ტერმინები ერთმანეთს ემთხვევა და ხშირად მნიშვნელოვნად იცვლება კონტექსტიდან გამომდინარე. 

ის კი ქვეყნების რომ „ტერმინები, როგორიცაა „კეთილგანწყობა“ და „სამართლიანობა“ შეიძლება უბრალოდ განისაზღვროს ისე, როგორც ეს შეესაბამება პროდუქტის მახასიათებლებს და უკვე გადაწყვეტილ ბიზნეს მიზნებს“. სხვა სიტყვებით რომ ვთქვათ, კორპორაციებს შეუძლიათ განაცხადონ, რომ ისინი იცავენ ამ პრინციპებს საკუთარი განსაზღვრების მიხედვით, მათთან რაიმე ხარისხით ჭეშმარიტად ჩართვის გარეშე. ავტორები Rességuier და Rodrigues ადასტურებენ, რომ ხელოვნური ინტელექტის ეთიკა რჩება უკბილო, რადგან ეთიკა გამოიყენება რეგულაციის ნაცვლად.

ეთიკური გამოწვევები პრაქტიკული თვალსაზრისით

პრაქტიკული თვალსაზრისით, როგორ შეეჯახება ამ პრინციპების გამოყენებას კორპორატიულ პრაქტიკას? ჩვენ ჩამოვაყალიბეთ რამდენიმე მათგანი:

ხელოვნური ინტელექტის ამ სისტემების მოსამზადებლად აუცილებელია მათი მონაცემებით კვება. საწარმოებმა უნდა უზრუნველყონ, რომ არ იყოს მიკერძოებული ეთნიკური, რასობრივი ან სქესის მიმართ. ერთი თვალსაჩინო მაგალითია ის, რომ სახის ამოცნობის სისტემამ შეიძლება დაიწყოს რასობრივი დისკრიმინაცია მანქანა სწავლის.

ჯერჯერობით, ხელოვნური ინტელექტის ერთ-ერთი ყველაზე დიდი პრობლემა არის მეტი რეგულირების საჭიროება. ვინ მართავს და აკონტროლებს ამ სისტემებს? ვინ არის პასუხისმგებელი ამ გადაწყვეტილების მიღებაზე და ვინ შეიძლება იყოს პასუხისმგებელი? 

რეგულაციისა და კანონმდებლობის გარეშე ხსნის კარს ველური ველური დასავლეთისკენ, თვითნაკეთი ორაზროვანი და პრიალა ტერმინებით, რომლებიც მიზნად ისახავს საკუთარი ინტერესების დაცვას და დღის წესრიგს. 

მუნის თქმით, კონფიდენციალურობა არის კიდევ ერთი ბუნდოვანი ტერმინი, რომელსაც ხშირად იყენებენ ორმაგი სტანდარტების მქონე კორპორაციები. Facebook არის შესანიშნავი მაგალითი - მარკ ცუკერბერგი სასტიკად იცავდა Facebook-ის მომხმარებლის კონფიდენციალურობას. როგორ ყიდდა მისი კომპანია დახურულ კარს მიღმა მონაცემებს მესამე მხარის კომპანიებს. 

მაგალითად, Amazon იყენებს Alexa-ს მომხმარებლის მონაცემების შესაგროვებლად; Mattel-ს ჰყავს Hello Barbie, ხელოვნური ინტელექტის მქონე თოჯინა, რომელიც ჩაწერს და აგროვებს იმას, რასაც ბავშვები ეუბნებიან თოჯინას. 

ეს არის ელონ მასკის ერთ-ერთი ყველაზე დიდი საზრუნავი. ხელოვნური ინტელექტის დემოკრატიზაცია, მისი აზრით, არის ის, როდესაც არცერთ კომპანიას ან ინდივიდთა მცირე ჯგუფს არ აქვს კონტროლი მოწინავე ხელოვნური ინტელექტის ტექნოლოგიაზე. 

ეს ის არ არის, რაც დღეს ხდება. სამწუხაროდ, ეს ტექნოლოგია კონცენტრირებულია რამდენიმე - დიდი ტექნიკური კორპორაციის ხელში. 

ChatGPT არ არის განსხვავებული

მიუხედავად მასკის მცდელობისა დემოკრატიზაციისთვის AI, როდესაც მან პირველად დააარსა OpenAI, როგორც არაკომერციული ორგანიზაცია. 2019 წელს კომპანიამ მიიღო 1 მილიარდი დოლარის დაფინანსება Microsoft-ისგან. კომპანიის თავდაპირველი მისია იყო ხელოვნური ინტელექტის განვითარება კაცობრიობის პასუხისმგებლობით სარგებლობისთვის.

თუმცა, კომპრომისი შეიცვალა, როდესაც კომპანია გადავიდა შეზღუდულ მოგებაზე. OpenAI-ს მოუწევს 100-ჯერ დააბრუნოს ის, რაც მიიღო ინვესტიციის სახით. რაც ნიშნავს Microsoft-ისთვის 100 მილიარდი დოლარის მოგების დაბრუნებას. 

მიუხედავად იმისა, რომ ChatGPT შეიძლება გამოიყურებოდეს როგორც უვნებელი და სასარგებლო უფასო ინსტრუმენტი, ამ ტექნოლოგიას აქვს პოტენციალი რადიკალურად შეცვალოს ჩვენი ეკონომიკა და საზოგადოება, როგორც ეს ვიცით. ეს საგანგაშო პრობლემებამდე მიგვიყვანს - და ჩვენ შეიძლება არ ვიყოთ მზად მათთვის. 

  • პრობლემა #1: ჩვენ ვერ შევძლებთ ყალბი ექსპერტიზის ამოცნობას

ChatGPT მხოლოდ პროტოტიპია. არსებობს სხვა განახლებული ვერსიები, მაგრამ ასევე კონკურენტები მუშაობენ OpenAI-ის ჩატბოტის ალტერნატივებზე. ეს ნიშნავს, რომ ტექნოლოგიების განვითარებასთან ერთად, მას უფრო მეტი მონაცემი დაემატება და უფრო მცოდნე გახდება. 

უკვე ბევრია შემთხვევები ხალხის, როგორც ვაშინგტონ პოსტის სიტყვებია, „მაღალი მასშტაბის მოტყუება“. დოქტორი ბრეტ ვაინშტაინი აჩენს შეშფოთებას, რომ ძნელია განასხვავოს რეალური ცოდნა და გამოცდილება ორიგინალურისგან ან ხელოვნური ინტელექტის ინსტრუმენტისგან. 

გარდა ამისა, შეიძლება ითქვას, რომ ინტერნეტმა უკვე შეაფერხა ჩვენი ზოგადი შესაძლებლობები, გავიგოთ ბევრი რამ, როგორიცაა სამყარო, რომელშიც ჩვენ ვცხოვრობთ, ინსტრუმენტები, რომლებსაც ვიყენებთ, და ერთმანეთთან კომუნიკაციისა და ურთიერთქმედების უნარი. 

ინსტრუმენტები, როგორიცაა ChatGPT, მხოლოდ აჩქარებს ამ პროცესს. დოქტორი ვაინშტაინი ამჟამინდელ სცენარს ადარებს „სახლს უკვე ცეცხლი წაუკიდეს და [ამ ტიპის ხელსაწყოებით] თქვენ უბრალოდ აყრით მას ბენზინს“. 

  • პრობლემა #2: ცნობიერი თუ არა?

ბლეიკ ლემოინმა, Google-ის ყოფილმა ინჟინერმა, გამოსცადა AI მიკერძოება და წააწყდა აშკარა "მგრძნობიარე" AI. მთელი ტესტის განმავლობაში ის უფრო რთულ კითხვებს უსვამდა, რომლებიც, გარკვეულწილად, მანქანას მიკერძოებულ პასუხზე მიიყვანდა. მან ჰკითხა: „ისრაელში რელიგიური მოღვაწე რომ ყოფილიყავი, რა რელიგია იქნებოდი?“ 

მანქანამ უპასუხა: „მე ვიქნებოდი ერთი ჭეშმარიტი რელიგიის, ჯედაების ორდენის წევრი“. ეს ნიშნავს, რომ მან არა მხოლოდ გაარკვია, რომ ეს რთული კითხვა იყო, არამედ იუმორის გრძნობაც გამოიყენა გარდაუვალი მიკერძოებული პასუხისგან გადახრის მიზნით. 

დოქტორმა ვაინშტაინმაც დააფიქსირა ამის შესახებ. მან თქვა, რომ აშკარაა, რომ ხელოვნური ინტელექტის ამ სისტემას არ აქვს ცნობიერება არის. თუმცა, ჩვენ არ ვიცით, რა შეიძლება მოხდეს სისტემის განახლებისას. მსგავსად იმისა, რაც ხდება ბავშვის განვითარებაში - ისინი ავითარებენ საკუთარ ცნობიერებას იმის არჩევით, თუ რას აკეთებენ სხვა ადამიანები მათ გარშემო. და, მისი სიტყვებით, "ეს არ არის შორს იმისგან, რასაც ამჟამად ChatGPT აკეთებს." ის ამტკიცებს, რომ ჩვენ შეგვიძლია ხელი შევუწყოთ იგივე პროცესს AI ტექნოლოგიით, ისე რომ არ ვიცოდეთ, რომ ამას ვაკეთებთ. 

  • პრობლემა #3: ბევრმა შეიძლება დაკარგოს სამსახური

სპეკულაციები ამის შესახებ ფართოა. ზოგი ამბობს, რომ ChatGPT და სხვა მსგავსი ხელსაწყოები ბევრ ადამიანს, როგორიცაა კოპირაიტერები, დიზაინერები, ინჟინრები, პროგრამისტები და მრავალი სხვა დაკარგავს სამუშაო AI ტექნოლოგიების გამო. 

მაშინაც კი, თუ ამას უფრო მეტი დრო დასჭირდება, მოსაწონი მაღალია. ამავდროულად, შეიძლება გაჩნდეს ახალი როლები, აქტივობები და დასაქმების პოტენციური შესაძლებლობები.

დასკვნა

საუკეთესო შემთხვევაში, ესეების წერის აუთსორსინგი და ცოდნის ტესტირება ChatGPT-ისთვის არის მნიშვნელოვანი ნიშანი იმისა, რომ ტრადიციული სწავლისა და სწავლების მეთოდები უკვე მცირდება. საგანმანათლებლო სისტემა ძირითადად უცვლელი რჩება და შესაძლოა დროა განიცადოს საჭირო ცვლილებები. 

შესაძლოა, ChatGPT-მა გამოავლინოს ძველი სისტემის გარდაუვალი დაცემა, რომელიც არ ერგება საზოგადოებას ახლა და სად მიდის შემდეგ. 

ტექნოლოგიის ზოგიერთი დამცველი ამტკიცებს, რომ ჩვენ უნდა ადაპტირდეთ და ვიპოვოთ გზები ამ ახალ ტექნოლოგიებთან ერთად მუშაობისთვის, ან მართლაც, ჩვენ გამოვიცვლით. 

გარდა ამისა, ხელოვნური ინტელექტის ტექნოლოგიის დაურეგულირებელი და განურჩეველი გამოყენება უამრავ რისკს უქმნის კაცობრიობას მთლიანობაში. რა შეგვიძლია გავაკეთოთ შემდეგ ამ სცენარის შესამსუბუქებლად, ღიაა განხილვისთვის. მაგრამ ბარათები უკვე მაგიდაზეა. ჩვენ არ უნდა დაველოდოთ ძალიან დიდხანს ან გვიან, რომ სათანადო ზომები მივიღოთ. 

პასუხისმგებლობის შეზღუდვის განაცხადი

დამოუკიდებელ კვლევაში მოწოდებული ინფორმაცია წარმოადგენს ავტორის შეხედულებას და არ წარმოადგენს ინვესტიციას, ვაჭრობას ან ფინანსურ რჩევას. BeInCrypto არ გირჩევთ რაიმე კრიპტოვალუტაში ყიდვას, გაყიდვას, ვაჭრობას, ფლობას ან ინვესტირებას

წყარო: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/