ხელოვნური ინტელექტის ეთიკა და AI-ით გამოწვეული ფსიქოლოგიური ინოკულაცია, რათა დაეხმაროს ადამიანებს დეზინფორმაციაში

რას ვაპირებთ გავაკეთოთ დეზინფორმაციისა და დეზინფორმაციის მასიური სიჭარბის შესახებ?

ეს ყველაფერი აშკარად უარესდება და უარესდება, ყოველი გასული დღე.

შესაძლოა, ხელოვნურმა ინტელექტს (AI) შეუძლია ჩვენი გადარჩენა. დიახ, ეს ასეა, ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტის სასარგებლო გამოყენება დეზინფორმაციისა და დეზინფორმაციის ჩვენს დაუნდობელ ცუნამთან გასამკლავებლად. შეიძლება გონივრული ვიყოთ, რომ ვცადოთ ამის გაკეთება. პოტენციური გადაწყვეტის ყველა გზა, როგორც ჩანს, ღირსი იქნება.

გარდა ამისა, მინდა დაუყოვნებლივ ვაღიარო და აღვნიშნო, რომ AI უდავოდ აპირებს ასევე იყავით ასევე პრობლემის ნაწილი. ეჭვგარეშეა, რომ ადამიანებს შეუძლიათ ადვილად გამოიყენონ AI დეზინფორმაციისა და დეზინფორმაციის შესაქმნელად. გარდა ამისა, ხელოვნური ინტელექტი შეიძლება მზაკვრულად იქნას გამოყენებული, რათა დეზინფორმაცია და დეზინფორმაცია საოცრად მართებულად გამოიყურებოდეს და ადამიანებმა მოატყუონ, რომ წარმოდგენილი ინფორმაცია მიმზიდველად ზუსტი და ფაქტობრივია. აშკარად სევდიანი სახე, რასაც AI მოაქვს მაგიდასთან. ჩვენ დავუბრუნდებით ამ უარყოფით თავსატეხს ამ დისკუსიის ბოლოს.

ახლა მოდით, ღიმილიანი სახეები ჩავიცვათ და გამოვიკვლიოთ, რამდენად სასარგებლოა ხელოვნური ინტელექტი დეზინფორმაციისა და დეზინფორმაციის მის ძლიერ მუხლებამდე. ერთ-ერთი მნიშვნელოვანი ნაკადი იქნება ის, რომ ეს ყველაფერი მიეკუთვნება ხელოვნური ინტელექტის ეთიკის სასიცოცხლო ელემენტებს. AI ეთიკისა და ეთიკური AI-ის ჩემი სვეტის გაშუქება გრძელდება და ვრცელია, მათ შორის ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

განვიხილოთ ეს ქვაკუთხედი გზები, რომ AI შეიძლება იყოს განსაკუთრებით დამხმარე მოკავშირე დეზინფორმაციისა და დეზინფორმაციის წინააღმდეგ ომში:

  • გაჩერდით გამგზავრებაზე: ხელოვნური ინტელექტის გამოყენება შესაძლებელია დეზინფორმაციისა და დეზინფორმაციის აღმოსაჩენად და მისი ამოკვეთის მცდელობისთვის, სანამ ის გაქრება
  • გაფილტვრა ნახვამდე: ხელოვნური ინტელექტის გამოყენება შესაძლებელია დეზინფორმაციისა და დეზინფორმაციის გასაფილტრად, რათა არ დაგჭირდეთ ფიქრი მის დანახვაზე
  • მოამზადეთ იმუნიტეტი: ხელოვნური ინტელექტის გამოყენება შეიძლება თქვენი მზადყოფნისა და დეზინფორმაციის წინააღმდეგ ბრძოლის უნარის გასაძლიერებლად (ფორმალურად ცნობილია, როგორც ერთგვარი ფსიქოლოგიური ინოკულაციის უზრუნველყოფა)
  • სხვა

პირველი ჩამოთვლილი პუნქტი გულისხმობს დეზინფორმაციისა და დეზინფორმაციის შეჩერების მცდელობას რაც შეიძლება ადრეულ მომენტში, სანამ შინაარსი სამყაროში მოხვდება.

ეს უაღრესად პრობლემური მიდგომაა. ზოგი ხმამაღლა ამტკიცებს, რომ ეს შეიძლება იყოს დიდი ძმის მცდელობა სიტყვის თავისუფლების დათრგუნვის. რამდენად შორს შეძლებდა ეს AI წასვლა? შეუძლია თუ არა მას ხელი შეუშალოს ადამიანებს თავისუფლად გამოხატონ თავიანთი შეხედულებები? ეს საშინელება შეიძლება გახდეს ხელოვნური ინტელექტის მოლიპულ ფერდობზე, რომელიც საბოლოოდ გახდება ბოროტი შედეგების ყველაზე უარესი კოშმარი, რომელიც უდანაშაულოდ დაიწყო საუკეთესო ზრახვებით.

დარწმუნებული ვარ სურათს მიიღებთ.

მეორე პუნქტი ოდნავ უფრო ზომიერია და გვთავაზობს, რომ ჩვენ შეგვიძლია გამოვიყენოთ AI შინაარსის გასაფილტრად.

შესაძლოა გქონდეთ ხელოვნური ინტელექტის ფილტრის ბოტი, რომელიც დაასკანირებს თქვენს ყველა შემომავალ მონაცემებს სხვადასხვა სიახლეებიდან და სხვა წყაროებიდან. AI მორგებულია ნებისმიერი დეზინფორმაციის ან დეზინფორმაციის დასაჭერად, რომელიც შეესაბამება თქვენს პირად კრიტერიუმებს. ამრიგად, ასეთ სცენარში, ეს არ არის დიდი ძმის ცენზურის სიტუაცია. თქვენ აკონტროლებთ AI-ს და იმას, თუ როგორ ფილტრავს ის თქვენს ნამდვილ ინფორმაციას თქვენი სახელით.

საკმაოდ კარგად ჟღერს.

თუმცა არის რამდენიმე საყურადღებო შეშფოთება.

მაგალითად, ჩვენ უკვე დიდად პოლარიზებულები ვართ ჩვენს შეხედულებებში და ხელოვნური ინტელექტის ამ გამოყენებამ შესაძლოა ეს პოლარიზაცია უფრო ღრმა და ბნელი გახადოს. წარმოიდგინეთ, რომ ამ გლუვი ხელოვნური ინტელექტის საშუალებით, რომელიც მუშაობს უწყვეტად 24×7, თქვენ არასოდეს დაგჭირდებათ ისეთი ინფორმაციის ნახვა, რომელიც თქვენ კლასიფიცირდება, როგორც პოტენციური დეზინფორმაცია და დეზინფორმაცია. თქვენი პოლარიზებული პერსპექტივა ახლა თითქმის გარანტირებულია დარჩება ხელუხლებელი. მთელი დღის განმავლობაში და როდესაც თქვენ ცდილობთ გადახედოთ თქვენს ყურადღებას ელოდება ინფორმაციას, ის ყოველთვის წინასწარ არის შერჩეული და ე.წ. დეზინფორმაციისა და დეზინფორმაციის შეხედვის შანსი არ არის.

მე ვამბობ, რომ დეზინფორმაცია და დეზინფორმაცია შეიძლება იყოს ე.წ იმის გამო, რომ არსებობს უზარმაზარი კამათი იმის თაობაზე, თუ რას წარმოადგენს სინამდვილეში დეზინფორმაცია და დეზინფორმაცია. ზოგიერთი ექსპერტი ამტკიცებს, რომ არსებობს აბსოლუტური საფუძველი იმის დასადგენად, რა არის დეზინფორმაცია და რა არის დეზინფორმაცია. არის სწორი და არასწორი. ყველაფრის დათვლა შეიძლება შეცდომის გარეშე, რომ რაღაც არის დეზინფორმაცია ან დეზინფორმაცია.

ყველა არ ხედავს საკითხებს ასე ნათლად.

ანდაზური ჩართვა-გამორთვის ურთიერთგამომრიცხავი დიქოტომიური კონტრასტი, როგორც ამბობენ, შეცდომაში შემყვანი გონების ჩარჩოა. ერთი ადამიანის დეზინფორმაცია შეიძლება არ ჩაითვალოს სხვა ადამიანის დეზინფორმაციად. ასევე დეზინფორმაციის შესახებ. მტკიცება არის ის, რომ დეზინფორმაცია და დეზინფორმაცია განსხვავდება ბუნებისა და მასშტაბების მიხედვით. ყველა ინფორმაციის საბოლოო კლასიფიკაციის მცდელობა ამა თუ იმ გროვად ბევრად უფრო რთულია, ვიდრე ხელის ქნევა გვთავაზობს.

არსი ის არის, რომ მეორე პუნქტი ხელოვნური ინტელექტის, როგორც ფილტრაციის მექანიზმის გამოყენებასთან დაკავშირებით, აქვს თავისი შეღავათები. ეჭვგარეშეა, რომ ხელოვნური ინტელექტი უფრო მეტად გამოიყენებს ამ გამოყენებას. ამავდროულად, ჩვენ უნდა გავითვალისწინოთ ის გამოწვევები, რომლებსაც ასეთი ხელოვნური ინტელექტი წინა პლანზე წამოაყენებს. ხელოვნური ინტელექტი, როგორც დეზინფორმაციისა და დეზინფორმაციის ფილტრი, არ არის რაიმე ვერცხლის ტყვია ან სლემ დანკი.

ეს მიგვიყვანს მესამე პუნქტამდე, კერძოდ, ხელოვნური ინტელექტის გამოყენების შესაძლებლობა, რათა ადამიანები უკეთესად გაუმკლავდნენ დეზინფორმაციასა და დეზინფორმაციას.

მეეჭვება, რომ თქვენ ალბათ გსმენიათ ბევრი რამ ამ კონტექსტში ხელოვნური ინტელექტის გამოყენების მესამე გამზირის შესახებ. ის ახლახან იწყებს გაჩენას. თქვენ ახლა იმ კუთხით ხართ, რაც სავარაუდოდ გაიზრდება და თანდათანობით გამოიყენებს. გთხოვთ, იცოდეთ, რომ ამ პოპულარობის გაფართოებასთან ერთად, კამათი იმის შესახებ, არის თუ არა ეს შესაფერისი მიდგომა, ასევე შესამჩნევი გახდება.

საკითხის ნაწილი ის არის, რომ ხელოვნური ინტელექტი გარკვეულწილად გამოიყენება იმისთვის, რასაც ზოგიერთი დამამცირებელი სახით მოიხსენიებს ადამიანებთან გონებრივი თამაშების თამაში.

ეს საშინელი ჩანს.

ეს ასევე მიგვიყვანს ხელოვნური ინტელექტის ეთიკის სფეროში.

ეს ყველაფერი ასევე ეხება დღევანდელი ხელოვნური ინტელექტის და განსაკუთრებით მანქანური სწავლისა და ღრმა სწავლების გამოყენებას, როგორც ტექნოლოგიის ფორმას და როგორ ხდება მისი გამოყენება, ფხიზელ გაჩენილ შეშფოთებას. ხედავთ, არის ML/DL-ის გამოყენება, რომელიც გულისხმობს AI-ს ანთროპომორფიზაციას ფართო საზოგადოების მიერ, რომელსაც სჯერა ან ირჩევს ვივარაუდოთ, რომ ML/DL არის მგრძნობიარე AI ან ახლოს (ეს არ არის). გარდა ამისა, ML/DL შეიძლება შეიცავდეს გამოთვლითი შაბლონის შესატყვის ასპექტებს, რომლებიც არასასურველია ან აშკარად არასათანადო, ან უკანონო ეთიკისა თუ სამართლებრივი პერსპექტივიდან.

შესაძლოა სასარგებლო იყოს პირველ რიგში იმის გარკვევა, თუ რას ვგულისხმობ, როდესაც ვგულისხმობ AI-ს მთლიანობაში და ასევე მოგვაწოდეთ მანქანური სწავლისა და ღრმა სწავლების მოკლე მიმოხილვა. არსებობს დიდი დაბნეულობა, თუ რას გულისხმობს ხელოვნური ინტელექტი. მე ასევე მინდა გაგაცნოთ ხელოვნური ინტელექტის ეთიკის პრინციპები, რომლებიც განსაკუთრებით განუყოფელი იქნება ამ დისკურსის დარჩენილი ნაწილისთვის.

AI-ის შესახებ ჩანაწერის დაფიქსირება

მოდით დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა.

ჩვენ არ გვაქვს ეს.

ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ იწინასწარმეტყველებს, მივაღწევთ თუ არა სენტიმენტალურ AI-ს და არც გონიერი ხელოვნური ინტელექტი როგორმე სასწაულებრივად სპონტანურად წარმოიქმნება გამოთვლითი შემეცნებითი სუპერნოვას სახით (ჩვეულებრივ უწოდებენ სინგულარობას, იხილეთ ჩემი გაშუქება აქ ბმული აქ).

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-სთან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა და ღრმა სწავლება, რომელიც იყენებს გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც რაიმე შემეცნებითი საოცრება აქვს ძლიერი ადამიანის აზროვნებას.

საკითხის ნაწილი არის ჩვენი ტენდენცია კომპიუტერების და განსაკუთრებით ხელოვნური ინტელექტის ანთროპომორფიზაციისკენ. როდესაც კომპიუტერული სისტემა ან ხელოვნური ინტელექტი, როგორც ჩანს, მოქმედებს ისე, როგორც ჩვენ ასოცირდება ადამიანის ქცევასთან, ჩნდება თითქმის დიდი სურვილი, მივაწეროთ სისტემას ადამიანური თვისებები. ეს არის საერთო გონებრივი ხაფანგი, რომელსაც შეუძლია დაიპყროს თუნდაც ყველაზე შეუპოვარი სკეპტიკოსი გრძნობის მიღწევის შანსების შესახებ.

გარკვეულწილად, სწორედ ამიტომ არის AI ეთიკა და ეთიკური AI ასეთი გადამწყვეტი თემა.

ხელოვნური ინტელექტის ეთიკის პრინციპები გვაიძულებს ვიყოთ სიფხიზლე. ხელოვნური ინტელექტის ტექნოლოგები შეიძლება დროდადრო დაკავდნენ ტექნოლოგიით, განსაკუთრებით მაღალტექნოლოგიური ოპტიმიზაციის გზით. ისინი სულაც არ განიხილავენ უფრო დიდ სოციალურ შედეგებს. ხელოვნური ინტელექტის ეთიკის აზროვნების ქონა და ამის გაკეთება AI განვითარებისა და დარგში სასიცოცხლოდ მნიშვნელოვანია შესაბამისი ხელოვნური ინტელექტის წარმოებისთვის, მათ შორის იმის შეფასებისთვის, თუ როგორ მიიღება AI ეთიკა ფირმების მიერ.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ. იხილეთ მაგალითად ჩემი გაშუქება მისამართზე ბმული აქ.

წინა სვეტებში მე გავაშუქე სხვადასხვა ეროვნული და საერთაშორისო ძალისხმევა ხელოვნური ინტელექტის მარეგულირებელი კანონების შემუშავებისა და ამოქმედების მიზნით, იხ. ბმული აქ, მაგალითად. მე ასევე გავაშუქე ხელოვნური ინტელექტის ეთიკის სხვადასხვა პრინციპები და გაიდლაინები, რომლებიც სხვადასხვა ერებმა დაადგინეს და მიიღეს, მათ შორის, მაგალითად, გაეროს ძალისხმევა, როგორიცაა იუნესკოს AI ეთიკის ნაკრები, რომელიც თითქმის 200 ქვეყანამ მიიღო, იხ. ბმული აქ.

აქ მოცემულია ეთიკური ხელოვნური ინტელექტის კრიტერიუმების ან მახასიათებლების სასარგებლო საკვანძო სია AI სისტემებთან დაკავშირებით, რომლებიც ადრე შევისწავლე:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების მთელი სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც აქ უკვე აღინიშნა, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დამუშავება, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაიცვას AI ეთიკის პრინციპები.

მოდით, ყველაფერი ძირეულად დავტოვოთ და ფოკუსირება მოახდინოთ დღევანდელ გამოთვლით არა მგრძნობიარე AI-ზე.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მე მჯერა, რომ ახლა შევქმენი საფუძველი იმისათვის, რომ საკმარისად განვიხილო ხელოვნური ინტელექტის როლი, როგორც საშუალება დეზინფორმაციასთან და დეზინფორმაციასთან გამკლავებასთან დაკავშირებული ფსიქოლოგიური ინოკულაციის დასაჩქარებლად.

შეღწევა ადამიანთა გონებაში

დავიწყოთ დეზინფორმაციისა და დეზინფორმაციის საფუძვლებით ან საფუძვლებით.

ზოგადად, დეზინფორმაცია ეხება ცრუ ან შეცდომაში შემყვან ინფორმაციას.

დეზინფორმაცია დაახლოებით იგივეა, თუმცა შედგება დამატებითი ელემენტისგან განზრახვა. ჩვენ ჩვეულებრივ განვიხილავთ ინფორმაციას, როგორც დეზინფორმაციას, როდესაც ის არის ინფორმაცია განკუთვნილია დეზინფორმაციას.

შეიძლება გითხრათ, რომ ამჟამად ღამის 10 საათია, რაც ვთქვათ ტყუილია, რადგან დრო მართლაც შუაღამეა. 10 საათი რომ გითხარი და არ ვცდილობდი მოტყუებას, ჩვეულებრივ ვიტყოდით, რომ არასწორი ინფორმაცია მოგაწოდეთ. დეზინფორმაცია მქონდა გადმოცემული. შეიძლება მე ვიყავი ზარმაცი ან იქნებ მართლა მჯეროდა, რომ 10 საათი იყო. მეორეს მხრივ, მე რომ ვახსენე 10 საათი, რადგან განზრახ მინდოდა მოგეტყუებინა, რომ დრო იყო 10 საათი და ვიცოდი, რომ დრო რეალურად შუაღამე იყო, შეიძლება ითქვას, რომ ეს იყო დეზინფორმაციის ფორმა. .

ზოგადად ინფორმაციის ერთ-ერთი თვალსაჩინო ასპექტი არის ის, რომ, როგორც წესი, ჩვენ შეგვიძლია გავავრცელოთ ინფორმაცია და, შესაბამისად, ინფორმაცია შეიძლება გარკვეულწილად გავრცელდეს. ინფორმაცია შეიძლება ჭეშმარიტად მიედინება წყალივით, ფართო გაგებით.

გეუბნები, ღამის 10 საათია. თქვენ ახლა გაქვთ ეს კონკრეტული ინფორმაცია. შეიძლება ხმამაღლა უყვიროთ ახლომდებარე ადამიანების ჯგუფს, რომ ღამის 10 საათია. ახლა მათაც აქვთ იგივე ინფორმაცია. შესაძლოა, ზოგიერთი მათგანი მობილურ ტელეფონებს აეხვიოს და სხვა ადამიანებს დაურეკოს და უთხრას, რომ 10 საათია. მთლიანობაში, ინფორმაციის გავრცელება ან გაზიარება შესაძლებელია და ზოგჯერ ასე სწრაფად, ხოლო სხვა შემთხვევებში ასე ნელა.

გარკვეული გაგებით, შეგიძლიათ ამტკიცებდეთ, რომ ინფორმაცია შეიძლება გახდეს ვირუსული.

არსებობს მოგონილი სიტყვა ან ტერმინოლოგია, რომელიც შეიძლება განსაკუთრებით არ გინახავთ ან არ იყენებდით, რომელიც დაგეხმარებათ ვირუსული ინფორმაციის გავრცელების ამ ფენომენის აღწერაში, სიტყვა არის ინფოდემია. ეს სიტყვა არის როგორც ინფორმაციის, ასევე ეპიდემიის შერწყმა. ზოგადად, ინფოდემია დაკავშირებულია დეზინფორმაციის ან დეზინფორმაციის გავრცელების გარემოებებთან. ცნება არის ის, რომ ყალბი ან შეცდომაში შემყვანი ინფორმაცია შეიძლება გახდეს ვირუსული, არასასურველად, დაავადების ან დაავადებების არასასურველი გავრცელების მსგავსი.

მაგალითში ღამის 10 საათის შესახებ, ეს ერთი შეხედვით ფაქტი იყო ინფორმაცია, რომელიც გავრცელდა ახლომდებარე ადამიანთა ჯგუფში. ისინი თავის მხრივ ავრცელებენ ფაქტს სხვებზე. თუ 10 საათი ყალბი იყო, მაშინ დეზინფორმაციის ან დეზინფორმაციის ეს კონკრეტული შემთხვევა ბევრ სხვაზეც გავრცელდა. მათ შესაძლოა არ იცოდნენ, რომ ინფორმაცია იყო დეზინფორმაცია ან შესაძლოა დეზინფორმაცია.

მე მჯერა, რომ ყველა ეს განმარტება და საფუძვლები გონივრულად გამოიყურება და თქვენ აქამდე ხართ.

კარგია, გავაგრძელოთ.

მე მიგიყვანეთ რაღაც ფარულად რაღაცაში, რაც დიდ ხიბლს და ასევე შფოთვას იკავებს. არსი ის არის, რომ არსებობს საეჭვო გონივრული პარალელები შორის, თუ რას აკეთებს დაავადებები ვირუსულად და რას აკეთებს დეზინფორმაცია ან დეზინფორმაცია ვირუსულად.

ყველა არ ეთანხმება ამ პრეტენზიულ პარალელებს. მიუხედავად ამისა, ისინი დამაინტრიგებელი და განხილვის ღირსია.

ნება მომეცით დავაზუსტო.

ხედავთ, ჩვენ შეგვიძლია შევეცადოთ გამოვიყენოთ ადამიანის მიერ გადაცემული დაავადებებისა და დაავადებებზე მითითების ბერკეტი, რათა შევადაროთ მსგავსი შესაძლებლობა დეზინფორმაციისა და დეზინფორმაციის გავრცელებას. იმისათვის, რომ შევაჩეროთ დაავადებების გავრცელება, ჩვენ შეგვიძლია მიზნად დავისახოთ დაავადების პოტენციური გავრცელების წერტილის ადრეული გამოვლენა და შევეცადოთ შევიკავოთ აღმოცენებული დაავადების წყარო. გავრცელებულ დაავადებასთან გამკლავების კიდევ ერთი მიდგომა იქნება მისი თავიდან აცილება ნიღბის ან დამცავი ხელსაწყოს ტარების გონივრული გამოყენებით. მესამე მიდგომა შეიძლება შედგებოდეს ვაქცინაციის მიღებაში, რათა სცადოთ თქვენი იმუნიტეტი ამ დაავადებასთან დაკავშირებული.

ჩვენ ახლა შევუდექით სრულ წრეს იმით, რომ იგივე მიდგომები დაავადებებთან გამკლავების მიმართ აშკარად შეიძლება შევადაროთ დეზინფორმაციასა და დეზინფორმაციას. ადრე აღვნიშნე, რომ მსგავსი მცდელობები მიმდინარეობს ხელოვნური ინტელექტის გამოსაყენებლად დეზინფორმაციასთან და დეზინფორმაციასთან გამკლავების მიზნით, განსაკუთრებით (როგორც ზემოთ აღინიშნა):

  • გაჩერდით გამგზავრებაზე: ხელოვნური ინტელექტის გამოყენება შესაძლებელია დეზინფორმაციისა და დეზინფორმაციის აღმოსაჩენად და მისი ამოკვეთის მცდელობისთვის, სანამ ის გაქრება
  • გაფილტვრა ნახვამდე: ხელოვნური ინტელექტის გამოყენება შესაძლებელია დეზინფორმაციისა და დეზინფორმაციის გასაფილტრად, რათა არ დაგჭირდეთ ფიქრი მის დანახვაზე
  • მოამზადეთ იმუნიტეტი: ხელოვნური ინტელექტის გამოყენება შეიძლება თქვენი მზადყოფნისა და დეზინფორმაციის წინააღმდეგ ბრძოლის უნარის გასაძლიერებლად (ფორმალურად ცნობილია, როგორც ერთგვარი ფსიქოლოგიური ინოკულაციის უზრუნველყოფა)
  • სხვა

მესამე ასპექტი აქ ყველაზე საინტერესო იქნება.

აქ არის გარიგება.

ჩვენ ვიცით, რომ დაავადებები ჩვეულებრივ იტანჯება ადამიანის სხეულის. იმის ანალოგიით, თუ როგორ ხდება დეზინფორმაცია და დეზინფორმაცია, ჩვენ შეგვიძლია ვივარაუდოთ, რომ უხეში ინფორმაცია ურტყამს ადამიანის გონება. დიახ, თქვენ შეიძლება შეხვიდეთ კონტაქტში დეზინფორმაციასთან ან დეზინფორმაციასთან, რომელიც მიედინება თქვენს გონებაში. დეზინფორმაცია ან დეზინფორმაცია პოტენციურად აფუჭებს ან წამლავს თქვენს აზროვნებას.

ადამიანის ორგანიზმის ვაქცინაცია შესაძლებელია, რათა შეეცადოს და მოემზადოს დაავადებებთან კონტაქტისთვის. ჩნდება დიდი კითხვა იმის შესახებ, შეგვიძლია თუ არა იგივე გავაკეთოთ ადამიანის გონებისთვის. შესაძლებელია თუ არა სცადოთ გონების ჩანერგვა ისე, რომ როდესაც დეზინფორმაცია ან დეზინფორმაცია მოგახსენებთ, რომ მზად ხართ ამისთვის და შესაბამისად გაკეთდით?

სასწავლო სფერო ცნობილია როგორც ფსიქოლოგიური აცრა ამტკიცებს, რომ გონება შეიძლება მართლაც იყოს დანერგილი იმ გაგებით, რომ მზად არის დეზინფორმაციის ან დეზინფორმაციის დასამუშავებლად.

განვიხილოთ ეს აღწერა ბოლოდროინდელ კვლევით კვლევაში, რომელიც ეხება ფსიქოლოგიურ ინოკულაციას და იმას, რასაც ზოგჯერ აკეთებენ prebunking:

  • „დეზინფორმაციის გაუქმება ასევე პრობლემურია, რადგან დეზინფორმაციის გამოსწორება ყოველთვის არ გააუქმებს მის ეფექტებს, ფენომენს, რომელიც ცნობილია როგორც მუდმივი გავლენის ეფექტი. შესაბამისად, დებანკინგისგან განსხვავებით, პრებუნკინგმა ადგილი მოიპოვა, როგორც დეზინფორმაციის მოსალოდნელი ზემოქმედების წინააღმდეგ მდგრადობის პრევენციული აგების საშუალება. ეს მიდგომა ჩვეულებრივ ეფუძნება ინოკულაციის თეორიას. ინოკულაციის თეორია მიჰყვება სამედიცინო იმუნიზაციის ანალოგიას და ამტკიცებს, რომ შესაძლებელია ფსიქოლოგიური წინააღმდეგობის აგება არასასურველი დარწმუნების მცდელობების წინააღმდეგ, ისევე როგორც სამედიცინო აცრები ქმნიან ფიზიოლოგიურ წინააღმდეგობას პათოგენების მიმართ.მეცნიერება ავანსები24 წლის 2022 აგვისტო, „ფსიქოლოგიური ინოკულაცია აუმჯობესებს მდგრადობას სოციალურ მედიაში დეზინფორმაციის მიმართ“ თანაავტორების ჯონ რუზენბეკის, სანდერ ვან დერ ლინდენის, ბეთ გოლდბერგის, სტივ რატიეს და სტეფან ლევანდოვსკის მიერ).

დავუბრუნდეთ ჩემს მაგალითს ღამის 10 საათის შესახებ, დავუშვათ, რომ ადრე გითხარით, რომ ხანდახან მოთხოვნილი დრო არ არის რეალური დრო. ამიერიდან თქვენ გაქვთ ინოკულაციის ფორმა, რომ ფრთხილად იყოთ პრეტენზიული დროების მიმართ. ამ ვაქცინაციამ მოამზადა თქვენ კონტაქტში მოსახვედრად პრეტენზიულ დროს, რომელიც არის დეზინფორმაცია ან დეზინფორმაცია.

მე რომ გაგაფრთხილოთ რამდენიმე წლის წინ იმის შესახებ, რომ პრეტენზიული დრო არ იყო რეალური დრო, არის შანსი, რომ არ იფიქროთ ამ დიდი ხნის წინანდელ გაფრთხილებაზე. ამრიგად, ადრეული ინოკულაცია (რომ ვთქვათ) გაცვეთილია. ჩემი აცრა თქვენთვის შესაძლოა გაძლიერდეს.

ასევე არსებობს შანსი, რომ ინოკულაცია არ იყო საკმარისად სპეციფიკური, რომ გამოიყენოთ იგი საჭიროების შემთხვევაში. მე რომ წლების წინ გაგაფრთხილეთ პრეტენზიული დროების შესახებ რეალურ დროებთან მიმართებაში, ეს შეიძლება ზედმეტად ფართო იყოს. ინოკულაციამ შეიძლება არ იმუშაოს იმ კონკრეტულ შემთხვევაში, როცა უთხრეს 10 საათზე. ამ თვალსაზრისით, ალბათ ჩემი აცრა უნდა ყოფილიყო ის, რომ ფრთხილად უნდა იყოთ, როდესაც გამოიყენება 10 საათის პრეტენზია. რა თქმა უნდა, დაავადების შემთხვევაში ინოკულაციები გარკვეულწილად იგივეა, ზოგჯერ ძალიან სპეციფიკურია ცნობილი დაავადებებისთვის, ხოლო სხვა შემთხვევებში არის ფართო სპექტრი.

კოლუმბიის უნივერსიტეტის უილიამ მაკგუაირის ფსიქოლოგიური ინოკულაციის შესახებ 1961 წელს ჩატარებული XNUMX წელს ხშირად ციტირებული კვლევითი კვლევა, როგორც წესი, კლასიკად ითვლება კვლევის ამ სფეროში. თქვენ შეიძლება დაგაინტერესოთ ის ძირითადი პუნქტები, რომლებიც მან იმ დროს გააკეთა:

  • „ასეთი განზოგადებული იმუნიზაცია შეიძლება მომდინარეობდეს ორი მექანიზმიდან. წინასწარი ექსპოზიცია შესაძლოა შოკში მოჰყვეს ადამიანს იმის გაგებაში, რომ ის „ტრუიზმები“, რომლებსაც ის ყოველთვის იღებდა, მართლაც დაუცველია, რითაც პროვოცირებას უწევს მას, განავითაროს თავისი რწმენის დაცვა, რის შედეგადაც ის უფრო მდგრადია ძლიერი კონტრარგუმენტების მიმართ, როდესაც ისინი მოდის. ალტერნატიულად, წინასწარ გამოფენაში ჩართულმა უარყოფებმა შეიძლება გახადოს ყველა შემდგომში წარმოდგენილი კონტრარგუმენტი რწმენის წინააღმდეგ ნაკლებად შთამბეჭდავი“ (William McGuire, “Resistance to Persuasion Conferred By Active And Passive Preor Refutation Of The Same and Alternative Conterarguments”, Journal of Abnormal and სოციალური ფსიქოლოგია, 1961).

მიგაჩნიათ თუ არა ინოკულაციისა და იმუნიზაციის ეს ანალოგია სასარგებლო და შესაფერისად დეზინფორმაციისა და დეზინფორმაციის სფეროსთან?

ზოგი აკეთებს, ზოგი არა.

ამ დისკუსიის მიზნებისთვის, გთხოვთ, მიიღოთ, რომ წინაპირობა გონივრული და შესაფერისია.

როგორ უნდა ვცადოთ და ვანოკულაცია ან იმუნიზაცია მოვახდინოთ ადამიანების გონებაში?

ჩვენ შეგვეძლო ხალხს წაეკითხათ წიგნები, რომლებმაც შეიძლება გაანათონ მათი გონება. ჩვენ შეიძლება ვუთხრათ მათ ამის შესახებ, ან ვუყუროთ ვიდეოებს ან მოუსმინონ აუდიო ფილებს. და ა.შ.

და ჩვენ შეიძლება გამოვიყენოთ AI, რომ იგივე გავაკეთოთ.

ხელოვნური ინტელექტის სისტემა შეიძლება შეიქმნას თქვენი ინოკულატორისთვის. როდესაც იწყებთ ონლაინ შესვლას, როგორიცაა ინტერნეტის ყურება, AI-ზე დაფუძნებულმა აპლიკაციამ შესაძლოა მოგამზადოთ თქვენი ონლაინ მოგზაურობისთვის. ხელოვნურმა ინტელექტუალმა შეიძლება მოგაწოდოთ მცირე რაოდენობით დეზინფორმაცია, რომელიც დასახელებულია, როგორც ასეთი, რაც საშუალებას მოგცემთ გააცნობიეროთ, რომ თქვენ დაინახავთ რაღაცას, რაც განზრახ მცდარია.

ხელოვნური ინტელექტის შემცველი დეზინფორმაციის გამოვლენის შემდეგ, თქვენი გონება ახლა მზად არის გაუმკლავდეს დეზინფორმაციას ან დეზინფორმაციას, რომელიც შეიძლება ველურ სამყაროში შეგხვდეთ ინტერნეტში. თქვენი გონება მზად არის. Voila, თქვენ ხედავთ ბლოგს ინტერნეტში, რომელიც გვთავაზობს მტკიცებულ ფაქტს, რომ მარსიდან უცხო არსებები უკვე არიან დედამიწაზე და იმალებიან აშკარად, მაგრამ ეს ერთი შეხედვით დეზინფორმაცია ან დეზინფორმაცია ადვილად უარყოფილია თქვენი გონების მიერ წინასწარი ინოკულაციის გამო (კარგად, შემდეგ ისევ, იქნებ სიმართლეა და ისინი ნამდვილად აქ არიან!).

ყოველ შემთხვევაში, ვიმედოვნებ, რომ ახლა თქვენ შეძლებთ გაარკვიოთ, თუ როგორ შეიძლება AI-ს შეუძლია დაეხმაროს ადამიანების აცრას ან იმუნიზაციას დეზინფორმაციის ან დეზინფორმაციის მიმართ.

შემუშავებულია სხვადასხვა ხელოვნური ინტელექტის აპლიკაციები, რომლებიც იმოქმედებენ როგორც დეზინფორმაციის ან დეზინფორმაციის ინოკულატორები. ხელოვნური ინტელექტი შეიძლება ცდილობდეს ფართო ინოკულაციის უზრუნველყოფას და იმუნიზაციის საერთო მსგავსებას. ხელოვნური ინტელექტი ასევე შეიძლება შეიქმნას ინოკულაციის უფრო სპეციფიკური ფორმებისთვის. გარდა ამისა, AI-ს შეუძლია იმუშაოს პერსონალიზებულ საფუძველზე, რომელიც შეესაბამება თქვენს კონკრეტულ საჭიროებებს ან ინტერესებს. მოწინავე AI ამ სივრცეში ასევე შეეცდება განსაზღვროს თქვენი ტოლერანტობის დონე, გონებრივი შთანთქმის მაჩვენებელი, შეკავების უნარი და სხვა ფაქტორები ე.წ. იმუნიზაციის კადრების შედგენისა და წარდგენისას.

საკმაოდ მოსახერხებელი ჩანს.

AI, როგორც საშიში გონების თამაშების მოთამაშე

ამ გზით გამოყენებული AI ერთი შეხედვით საკმაოდ მოსახერხებელი ჩანდა (ჰეი, ეს სულ რაღაც წამის წინ აღვნიშნე).

არსებობს პოტენციური უარყოფითი მხარეებისა და პრობლემების მთელი რიგი, რომლებიც შემაშფოთებელი და შესაძლოა საშინელებაა.

ჩემს სვეტებში მე ხშირად განვიხილავ ხელოვნური ინტელექტის ორმაგი გამოყენების შესაძლებლობებს, იხილეთ მაგალითად ბმული აქ. ხელოვნური ინტელექტი შეიძლება იყოს მნიშვნელოვანი წვლილი კაცობრიობისთვის. სამწუხაროდ, AI ასევე დატვირთულია უამრავი საფრთხისა და სამწუხარო ხაფანგით.

ხელოვნური ინტელექტის, როგორც ინკულკატორის შემთხვევისთვის, მოდით განვიხილოთ AI-ის ეთიკის საჩვენებელი საკითხები:

  • არასასურველი რეაქციები ადამიანის მიერ
  • ადამიანების არარეაგირებადი რეაქციები
  • AI არასწორი დამიზნება
  • ხელოვნური ინტელექტის დამიზნება
  • AI-ის კიბერ დარღვევა
  • სხვა

ჩვენ მოკლედ განვიხილავთ ამ შეშფოთებას.

არასასურველი რეაქციები ადამიანების მიერ

დავუშვათ, რომ ადამიანს, რომელიც ღებულობს AI-ზე დაფუძნებულ ამ სახის ინოკულაციას, აქვს არასასურველი რეაქცია ან იწვევს არასასურველ ეფექტს.

ადამიანმა შეიძლება არასწორად გაიაზროს იმუნიზაცია და მოულოდნელად გახდეს მიუღებელი ნებისმიერი ინფორმაციის მიმართ, რომელსაც იღებს. ისინი ბლოკავენ ყველა ინფორმაციას. ხელოვნურმა ინტელექტუალმა რატომღაც აიძულა ისინი ბავშვის აბაზანის წყლით გადაგდებაში (ძველი გამონათქვამი, ალბათ, ღირს გადადგომა). იმის ნაცვლად, რომ ცდილობდეს გაუმკლავდეს დეზინფორმაციას და დეზინფორმაციას, ადამიანმა რეაგირება მოახდინა და გადაწყვიტა, რომ ყველა ინფორმაცია ყოველთვის ყალბია.

არა მგონია, ჩვენ გვსურს, რომ ხალხმა ასე გადალახოს.

არსებობს მრავალი არასასურველი რეაქცია, რომელსაც ხელოვნურმა ინტელექტუალმა შესაძლოა ხელი შეუწყოს. ეს ნაწილობრივ განპირობებულია იმით, თუ როგორ ცდილობდა ხელოვნური ინტელექტი ინოკულაციის ჩატარებას, მაგრამ ასევე ჩვენ უნდა დავაყენოთ საკითხის ნაწილი იმ ადამიანის ფეხებთან, რომელმაც მიიღო ინოკულაცია. მათ შესაძლოა რეაგირება მოახდინონ ველური ან უცნაური გზით, რომ სხვები, რომლებიც იღებენ იგივე ხელოვნურ ინტელექტუალურ ინოკულაციას, ამას არ აკეთებენ.

კიდევ ერთხელ, შეგიძლიათ ეს შეადაროთ დაავადების აცრების ანალოგიას.

მოკლედ, მნიშვნელოვანი იქნება, რომ როდესაც ასეთი AI ძალისხმევები იქნება გამოყენებული, ისინი განხორციელდეს პასუხისმგებელი გზებით, რათა მინიმუმამდე დაიყვანოს უარყოფითი შედეგები. ასევე უნდა არსებობდეს ხელოვნური ინტელექტის შემდგომი ასპექტი, რათა დადგინდეს, მოხდა თუ არა გვერდითი რეაქცია. თუ გამოვლენილია არასასურველი რეაქცია, AI უნდა შეიმუშაოს, რათა სცადოს და დაეხმაროს ადამიანს გვერდითი რეაქციაში და შეეცადოს დაძლიოს ან შეამსუბუქოს რეაქცია.

უპასუხო რეაქციები ადამიანების მიერ

კიდევ ერთი შესაძლებლობა არის ის, რომ ხელოვნური ინტელექტის მქონე ინოკულაციას არ აქვს გავლენა მიმღებ ადამიანზე.

ადამიანი იღებს AI-ზე დაფუძნებულ ინოკულაციას, რომელიც დაკავშირებულია დეზინფორმაციასთან ან დეზინფორმაციასთან. მიუხედავად იმისა, რომ ადამიანების უმეტესობა "იღებს ამას" და ხდება იმუნიზაცია, აუცილებლად არიან ადამიანები, რომლებიც საერთოდ არ რეაგირებენ. ისინი ვერაფერს სწავლობენ ინოკულაციისგან. ისინი არ რეაგირებენ ხელოვნური ინტელექტის მცდელობაზე, ვაქცინონ ისინი ყველა ან გარკვეული სახის დეზინფორმაციის ან დეზინფორმაციისთვის.

კიდევ ერთხელ, ეს შედარებულია დაავადებების საწინააღმდეგო ინოკულაციასთან.

ხელოვნური ინტელექტი უნდა იყოს შემუშავებული, რომ ვებრძოლოთ ასეთ გარემოებას.

AI Mistargeting

წარმოიდგინეთ, რომ ხელოვნური ინტელექტი იმედოვნებს, რომ მოახდინოს ადამიანების იმუნიზაცია კონკრეტულ თემაზე, რომელიც ჩვენ ვიტყვით, რომ არის თემა X, მაგრამ აღმოჩნდა, რომ Y თემა გაშუქებულია. AI არის არასწორი მიზანი.

ეს ორმხრივი პრობლემაა. ჯერ ერთი, თემა X არ იყო გაშუქებული, როგორც ხელოვნური ინტელექტის ინოკულატორის სავარაუდო და სავარაუდო დანიშნულება. მეორეც, Y თემა გაშუქებულია, მაგრამ ჩვენ შეიძლება არ გვინდოდეს ამ თემაზე ადამიანების იმუნიზაცია.

უკაცრავად.

კითხვები ბევრია. შეიძლებოდა ამის თავიდან აცილება? თუ ეს მოხდება, შეგვიძლია გავაუქმოთ Y იმუნიზაციის თემა? შეგვიძლია ვეძიოთ X აცრობის თემის გაშუქება, თუ ადამიანი ნაკლებად მიმღები იქნება თუ არამიმღები, თავდაპირველად ხელოვნური ინტელექტის მიერ არასწორი დამიზნების გამო?

ბევრი პრობლემური შეშფოთება ჩნდება.

AI Under-Targeting

ხელოვნური ინტელექტი ახორციელებს ინოკულაციას Z თემაზე. ადამიანები, რომლებიც იღებენ აცრებს, როგორც ჩანს, აქვთ მინიმალური ან თითქმის უმნიშვნელო რეაქცია. ინოკულაცია არასაკმარისი იყო შესანარჩუნებლად.

შეიძლება გაგიჩნდეთ ცდუნება, სწრაფად თქვათ, რომ ეს ადვილად მოგვარდება. საკმარისია გაიმეოროთ ვაქცინაცია. შეიძლება კი, შეიძლება არა.

ხელოვნური ინტელექტის ინოკულაცია შეიძლება იყოს ისეთი შეზღუდული ღირებულების, რომ არ აქვს მნიშვნელობა აქვს თუ არა მას ასჯერ გამოცდილი ადამიანი, შედეგი მაინც ზღვრული შედეგია. შესაძლოა დაგჭირდეთ აცრების გაძლიერება, ვიდრე უბრალოდ გამეორება.

იმავდროულად, წარმოიდგინეთ, რომ ხდება მცდელობა გაზარდოს ხელოვნური ინტელექტის მქონე ინოკულაცია, მაგრამ ეს გადაჭარბებულია. გაძლიერებული ვერსია იწვევს ჰიპერრეაქციებს. დიახ, ჩვენ მოვედით ცუდიდან უარესზე.

AI-ის კიბერ დარღვევა

წარმოიდგინეთ, რომ ხელოვნური ინტელექტი ფართოდ გამოიყენება იმისთვის, რომ დაეხმაროს ადამიანებს დეზინფორმაციისა და დეზინფორმაციისგან დათესვაში.

ზოგადი ნდობა იკავებს ხალხს. მათ იციან და ელიან, რომ ხელოვნური ინტელექტი აპირებს მათ წარუდგინოს ფრაგმენტები, რომლებიც მათ თვალებს გაუხსნის იმას, რაც ცნობილია როგორც დეზინფორმაცია და დეზინფორმაცია.

ყველაფერი კარგადაა, როგორც ჩანს.

ბოროტმოქმედს როგორღაც შეუძლია AI-ზე კიბერ გარღვევა. ისინი მალულად აწვდიან AI-ს სასურველ დეზინფორმაციას, რომელიც მათ უნდათ, რომ ხალხს დეზინფორმაცია არ ჰგონიათ. ხელოვნური ინტელექტი ისეა მოწყობილი, რომ დეზინფორმაცია ნამდვილი ინფორმაცია იყოს. ასევე, ჭეშმარიტი ინფორმაცია დეზინფორმაციად გვევლინება.

ხალხი მთლიანად სნუკერია. მათ დეზინფორმაციას აწვდიან AI-ით. გარდა ამისა, იმის გამო, რომ ისინი გახდნენ დამოკიდებულნი AI-ზე და იმის გამო, რომ დარწმუნებულები იყვნენ, რომ AI სწორად აკეთებდა, ისინი აჯანყდებიან, ხაზს და აყრიან ამ დარღვეული AI-ს. Ყოყმანის გარეშე.

იმის გათვალისწინებით, თუ რამდენად ადვილად შეიძლება გავრცელდეს დეზინფორმაცია, ბოროტმოქმედს შეიძლება სიამოვნება მიიღოს, რომ ამ ტიპის ხელოვნური ინტელექტის არსებობა მათი უმარტივესი და სწრაფი გზაა მათი მზაკვრული სიცრუის გასავრცელებლად მთელს მსოფლიოში. ირონიულია, რა თქმა უნდა, AI ინოკულატორის გამოყენების ბერკეტი დაავადების არსებითად გასავრცელებლად.

დასკვნა

უნდა გვქონდეს თუ არა ხელოვნური ინტელექტი ჩვენთან ერთად გონების თამაშებს?

შეიძლება AI დეზინფორმაციისა და დეზინფორმაციის ინოკულაციისთვის საშიში ტროას ცხენი იყოს?

თქვენ შეგიძლიათ გააკეთოთ არსებითი შემთხვევა ასეთ კოშმარზე ფიქრისთვის.

სხვები დასცინიან ასეთ შესაძლებლობას. ადამიანები საკმარისად ჭკვიანები არიან, რომ იცოდნენ, როდის ცდილობს ხელოვნური ინტელექტი მათ მოტყუებას. ხალხი არ დაეცემა ასეთ დრიბლინგს. მხოლოდ იდიოტებს შეჰყავთ შეცდომაში ასეთი AI. ეს არის ჩვეულებრივი რეპლიკები და კონტრარგუმენტები.

არ მინდა ადამიანთა და ადამიანური ბუნებით აღფრთოვანებული ჩანდეს, მე უბრალოდ ვიტყოდი, რომ არსებობს საკმაო მტკიცებულება იმისა, რომ ადამიანებს შეიძლება შეეგუონ ხელოვნური ინტელექტი, რომელიც შეცდომაში შეჰყავს მათ.

არის კიდევ უფრო დიდი საკითხი, რომელიც შესაძლოა ამ ყველაფერზე დგას.

ვინ ქმნის AI-ს და როგორ წყვეტს AI ალგორითმულად რა ითვლება დეზინფორმაციად და დეზინფორმაციად?

დღეს მთელ მსოფლიოში მიმდინარეობს მთელი ხანძარსაწინააღმდეგო ბრძოლა იმის შესახებ, თუ რას წარმოადგენს კონკრეტულად დეზინფორმაცია და დეზინფორმაცია. ზოგიერთი ამტკიცებს, რომ ფაქტები ფაქტებია, ამიტომ არასოდეს შეიძლება იყოს რაიმე დაბნეულობა იმის თაობაზე, თუ რა არის სათანადო ინფორმაცია არასათანადო ინფორმაციის წინააღმდეგ. თუმცა ეშმაკი ზოგჯერ დეტალებშია, ეს რა თქმა უნდა.

ბოლო შენიშვნა ჯერჯერობით. აბრაამ ლინკოლნმა ცნობილმა თქვა: ”თქვენ შეგიძლიათ მოატყუოთ ყველა ადამიანი ზოგიერთ დროს და ზოგიერთი ადამიანი მუდმივად, მაგრამ არ შეგიძლიათ მოატყუოთ ყველა ადამიანი მუდმივად.”

იქნება თუ არა ხელოვნური ინტელექტი, რომელიც გამოიყენება დეზინფორმაციისა და დეზინფორმაციისგან კაცობრიობის დანერგვისთვის სასიცოცხლო მნიშვნელობის ინსტრუმენტის უზრუნველსაყოფად, რომ ყველა ადამიანის მოტყუება ყოველთვის არ შეიძლება? ან შეიძლება გამოყენებული იქნას უფრო მეტი ხალხის მოსატყუებლად?

Დრო გვიჩვენებს.

და ეს, რა თქმა უნდა, არ არის დეზინფორმაცია ან დეზინფორმაცია.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-desinformation/