AI ეთიკა და თვითშემეცნების ძიება AI-ში

თვითშეგნებული ხარ?

დადებდი, რომ გჯერა რომ ხარ.

საქმე იმაშია, რომ, სავარაუდოდ, ჩვენგან ცოტამ თუ იცის საკუთარი თავი. არსებობს თვითშემეცნების დიაპაზონი ან ხარისხი და ჩვენ ყველანი, სავარაუდოდ, განსხვავებულები ვართ იმით, თუ რამდენად ჭკვიანური ვართ თვითშემეცნებით. შეიძლება იფიქროთ, რომ სრულყოფილად აცნობიერებთ საკუთარ თავს და მხოლოდ მცირედ ხართ. შესაძლოა, თვითშეგნებული იყოთ და მიხვდეთ, რომ ეს თქვენი ფსიქიკური მდგომარეობაა.

იმავდროულად, სპექტრის უმაღლეს ნაწილში, შეიძლება გჯეროდეთ, რომ სრულად აცნობიერებთ საკუთარ თავს და გულწრფელად რომ ვთქვათ, ისეთივე თვითშეგნებული ხართ, როგორც ისინი წარმოადგენენ. Ყოჩაღ.

რა სარგებლობა მოაქვს მასზე ზედმეტად თვითშემეცნებას?

გამოკვლევის თანახმად ჰარვარდის ბიზნეს მიმოხილვა (HBR) ტაშა ევრიხის მიერ, თქვენ შეგიძლიათ მიიღოთ უკეთესი გადაწყვეტილებები, უფრო დარწმუნებული ხართ თქვენს გადაწყვეტილებებში, უფრო ძლიერი ხართ თქვენი კომუნიკაციის შესაძლებლობებში და მთლიანობაში უფრო ეფექტური (სტატიაში სათაურით „რა არის სინამდვილეში თვითშემეცნება (და როგორ ბონუს ფაქტორი არის ის, რომ მათ, ვისაც ძლიერი თვითშეგნება აქვთ, ნაკლებად არიან მიდრეკილნი მოტყუების, ქურდობისა და ტყუილისკენ. ცდილობთ იყოთ უკეთესი ადამიანი და გაალამაზოთ თქვენი თანამემამულე.

მთელი ეს საუბარი თვითშემეცნებაზე ბადებს გარკვეულწილად აშკარა კითხვას, კერძოდ, რას ნიშნავს ფრაზა თვითშემეცნება სინამდვილეში. თქვენ შეგიძლიათ მარტივად იპოვოთ ტონა სხვადასხვა განმარტებები და ინტერპრეტაციები კომპლექსის შესახებ და, ვთქვათ, მბზინავი კონსტრუქცია, რომელიც გულისხმობს თვითშემეცნებას. ზოგიერთი გაამარტივებს საკითხს იმ ვარაუდით, რომ თვითშემეცნება გულისხმობს საკუთარი მე-ს მონიტორინგს, იმის ცოდნას, თუ რას აკეთებს საკუთარი თავი. თქვენ კარგად აცნობიერებთ საკუთარ აზრებს და მოქმედებებს.

სავარაუდოდ, როცა არ არის თვითშეგნებული, ადამიანი ვერ აცნობიერებს რას აკეთებს და არც რატომ, და ასევე ვერ ხვდება, რას ამბობენ სხვები მათზე. დარწმუნებული ვარ, თქვენ შეხვედრიხართ ასეთ ადამიანებს.

როგორც ჩანს, ზოგიერთი ადამიანი დადის ამ დედამიწაზე, წარმოდგენა არ აქვს იმაზე, თუ რას აკეთებს თავად, და არც ისე ჰგავს იმას, რასაც სხვები ამბობენ მათზე. ვფიქრობ, შეგიძლიათ ამტკიცებდეთ, რომ ისინი ჰგვანან თავჩაქინდრული დამუხტვის ხარს დელიკატურ მსხვრევად ბუტიკში. ჩვენ ჩვეულებრივ გვჯერა, რომ ხარი არ იცის რას აკეთებს და იგნორირებას უკეთებს სხვების შეხედულებებს, თუ ეს სხვები არ ცდილობენ ფიზიკურად მანევრირებას ან შეურაცხყოფას გაუგებარ არსებას.

ნათქვამია, რომ თვითშემეცნება შეიძლება გარკვეულწილად რეკურსიული იყოს.

ნება მომეცით გამოვხატო მაგალითი ამ რეკურსიის საილუსტრაციოდ. თქვენ თქვენს სმარტფონზე კატის საკმაოდ შთამნთქმელ ვიდეოს უყურებთ (როგორც ჩანს, ამას ყველა აკეთებს). ზოგიერთ ადამიანს სხვა აშკარა აზრები არ ექნება, გარდა იმ საყვარელი კატების საოცარი გულთბილი ხრიკებისა. იმავდროულად, ვინც მცირე თვითშემეცნებას ფლობს, იცის, რომ უყურებს კატის ვიდეოს. მათ შეიძლება ასევე იცოდნენ, რომ გარშემომყოფები აღნიშნავენ, რომ უყურებენ კატის ვიდეოს.

გაითვალისწინეთ, რომ თქვენ შეგიძლიათ იყოთ თვითშეგნებული და მაინც ჩაძირული იყოთ, ვთქვათ, კონკრეტულ ძირითად საქმიანობაში. ამ შემთხვევაში მთავარი აქტივობა არის კატის ვიდეოს ყურება. მეორეც, და ამავდროულად, შეგიძლიათ იფიქროთ, რომ რეალურად უყურებთ კატის ვიდეოს. თქვენ ასევე შეგიძლიათ ატაროთ აზრი, რომ სხვები აკვირდებიან თქვენ, როდესაც თქვენ უყურებთ კატის სრულიად გასართობ ვიდეოს. თქვენ სულაც არ გჭირდებათ შეწყვიტოთ ერთი აქტივობა, მაგალითად, შეწყვიტოთ კატის ვიდეოს ყურება, რათა შემდეგ ცალკე იფიქროთ, რომ უყურებთ (ან უბრალოდ უყურებდით) კატის ვიდეოს. ეს აზრები ერთი შეხედვით შეიძლება მოხდეს ერთმანეთის პარალელურად.

ზოგჯერ ჩვენმა თვითშემეცნებამ შესაძლოა გამოგვაგდოს ან შეაფერხოს პირველადი გონებრივი აქტივობა. შესაძლოა, როდესაც ფიქრობთ კატის ვიდეოს ყურებაზე, თქვენი გონება ნაწილობრივ ზონირებს, რადგან ზედმეტად ძნელია კონცენტრირება მხოლოდ ვიდეოზე. თქვენ ირჩევთ, შემდეგ გადაახვიოთ ვიდეო, რათა ხელახლა გადახედოთ იმ ნაწილს, რომელიც ნანახი გაქვთ, მაგრამ გონებრივად გაფანტული იყავით სრული გაგებით. თვითშემეცნებამ დაარღვია თქვენი ძირითადი გონებრივი აქტივობა.

კარგი, ახლა ჩვენ მზად ვართ რეკურსიული ასპექტების წარმოშობისთვის.

მზად ხართ?

თქვენ უყურებთ კატის ვიდეოს. თქვენი თვითშემეცნება გაცნობებთ, რომ უყურებთ კატის ვიდეოს და რომ სხვები გიყურებენ, როგორც თქვენ უყურებთ ვიდეოს. ეს არის სტატუს კვო.

თქვენ შემდეგ გააკეთეთ დამატებითი გონებრივი ნახტომი. იწყებ ფიქრს შენს თვითშეგნებაზე. თქვენ აცნობიერებთ საკუთარ თავს, რომ ჩართავთ თქვენს თვითშემეცნებას. აი, როგორ მიდის ეს: ძალიან ბევრს ვფიქრობ კატის ვიდეოს ყურებაზე, თქვენ საკუთარ თავს სასოწარკვეთილად ჰკითხავთ? ეს არის თვითშემეცნების კიდევ ერთი ფენა. თვითშემეცნების რანჟირება სხვა თვითშემეცნებაზე.

არსებობს ძველი გამონათქვამი, რომ ეს კუებია მთელი გზა. თვითშემეცნების ფენომენებისთვის, თქვენ შეიძლება იყოთ:

  • არ იცის საკუთარი თავი
  • საკუთარი თავის შეცნობა
  • საკუთარი თავის გაცნობიერება საკუთარი თავის შესახებ
  • საკუთარი თავის გაცნობიერება საკუთარი თავის შესახებ
  • Ad Infinitum (ანუ და ასე შემდეგ)

თქვენ ალბათ მიხვდით, რომ მე ადრე დახვეწილად აღვნიშნე, რომ როგორც ჩანს, თვითშემეცნების ორი ძირითადი კატეგორიაა. ერთი კონკრეტული თეორია ამტკიცებს, რომ ჩვენ გვაქვს ერთგვარი შინაგანი თვითშეგნება, რომელიც ფოკუსირებულია ჩვენს შინაგან მდგომარეობებზე და ასევე გვაქვს გარეგანი თვითშემეცნება, რომელიც გვეხმარება გაზომოთ ჩვენს გარშემო მყოფთა აღქმა, რომლებიც გვიყურებენ.

HBR სტატიის მიხედვით, აქ მოცემულია თვითშემეცნების თეორიული ორი ტიპის სწრაფი ასახვა: ”პირველი, რომელიც ჩვენ დავარქვით შინაგანი თვითშეგნება, ასახავს რამდენად ნათლად ვხედავთ საკუთარ ღირებულებებს, ვნებებს, მისწრაფებებს, შეესაბამება ჩვენს გარემოს, რეაქციებს (აზრების, გრძნობების, ქცევების, ძლიერი და სუსტი მხარეების ჩათვლით) და გავლენას სხვებზე. და იმავდროულად მეორე არის: ”მეორე კატეგორია, გარეგანი თვითშეგნება, ნიშნავს იმის გაგებას, თუ როგორ გვიყურებენ სხვა ადამიანები, ზემოთ ჩამოთვლილი იგივე ფაქტორების მიხედვით. ჩვენი კვლევა აჩვენებს, რომ ადამიანები, რომლებმაც იციან, როგორ ხედავენ მათ სხვები, უფრო დახელოვნებულნი არიან თანაგრძნობის გამოვლენაში და სხვისი პერსპექტივების აღქმაში“.

მოსახერხებელი ორი-ორ მატრიცა ან ოთხი კვადრატი შეიძლება გამოვიდეს იმის მტკიცებით, რომ როგორც შინაგანი, ისე გარეგანი თვითშეგნება მერყეობს მაღალიდან დაბალამდე და თქვენ შეგიძლიათ დააკავშიროთ ეს ორი კატეგორია ერთმანეთთან. HBR კვლევა მიუთითებს, რომ თქვენ ხართ ერთ-ერთი ამ ოთხი თვითშემეცნების არქეტიპიდან:

  • ინტროსპექტორი: დაბალი გარეგანი თვითშემეცნება + მაღალი შინაგანი თვითშემეცნება
  • მაძიებელი: დაბალი გარეგანი თვითშემეცნება + დაბალი შინაგანი თვითშეგნება
  • გთხოვთ: მაღალი გარეგანი თვითშემეცნება + დაბალი შინაგანი თვითშეგნება
  • გაცნობიერებული: მაღალი გარეგანი თვითშემეცნება + მაღალი შინაგანი თვითშემეცნება

მწვერვალი იქნება „ცნობიერი“ არქეტიპი, რომელიც შედგება გარედან თვითშემეცნების ზედა საფეხურზე ყოფნისგან და ასევე შინაგანად თვითშემეცნების ზედა საფეხურზე. გარკვევისთვის, თქვენ არ მიაღწევთ ამ ამაყ პოზას აუცილებლად მუდმივი გზით. თქვენ შეგიძლიათ გადაიჩეხოთ წინ და უკან მაღლა და დაბალ ყოფას შორის, როგორც შიდა, ისე გარე თვითშემეცნების სფეროებში. ეს შეიძლება იყოს დამოკიდებული დღის დროზე, სიტუაციაზე, რომელშიც აღმოჩნდებით და სხვა გამორჩეულ ფაქტორებზე.

ახლა, როდესაც ჩვენ გულახდილად გავაშუქეთ რამდენიმე ფუნდამენტური ელემენტი თვითშემეცნების შესახებ, შეგვიძლია ვეცდებით ამის მიბმას ეთიკური ქცევების თემასთან.

ჩვეულებრივი პრეტენზია საკუთარი თავის შეცნობის შესახებ არის ის, რომ თქვენ უფრო მაღალია ალბათობა, როცა თვითშეგნება გაქვთ. ეს ნიშნავს, როგორც უკვე აღვნიშნეთ, თქვენ ნაკლებად ხართ მიდრეკილი არახელსაყრელი ეთიკური ქცევებისკენ, როგორიცაა ქურდობა, მოტყუება და ტყუილი. ამ ტენდენციის დასაბუთება ის არის, რომ თქვენი თვითშემეცნების აქტიურობა გაიძულებთ გააცნობიეროთ, რომ თქვენი ქცევა არასასიამოვნო ან არაეთიკურია. არა მხოლოდ იჭერთ თავს, როცა ტალახიან არაეთიკურ წყლებში გადახვალთ, არამედ მიდრეკილნი ხართ უკან და მშრალ მიწაზე (ეთიკური ტერიტორიის სიწმინდე), როგორც ეს იყო.

თქვენი თვითშემეცნება გეხმარებათ თვითკონტროლის განხორციელებაში.

კონტრასტი, სავარაუდოდ, იქნება, როდესაც არის მცირე ან საერთოდ არ არის თვითშემეცნება, რაც იმაზე მეტყველებს, რომ ვიღაცამ შესაძლოა არ იცის მათი არაეთიკური ქცევებისადმი მიდრეკილება. თქვენ შეიძლება ამტკიცებდეთ, რომ ასეთი გაუცნობიერებელი ადამიანი შეიძლება ვერ აცნობიერებდეს, რომ ისინი უარყოფითად მოქმედებს. მსხვრევადი ნივთების მაღაზიაში ხარის მსგავსი, სანამ რაიმე უფრო აშკარად არ მიიპყრობს მათ ყურადღებას, ისინი ნაკლებად სავარაუდოა, რომ მოაწესრიგონ საკუთარი თავი.

სხვათა შორის, ამას ყველა არ ყიდულობს. ზოგი ამტკიცებს, რომ თვითშემეცნება შეიძლება ისეთივე ადვილად გამოიყენოს არაეთიკურობაზე, როგორც ეთიკურობაზე. მაგალითად, ბოროტმოქმედს შეიძლება სრულიად აცნობიერებდეს საკუთარ თავს და სიამოვნებს, რომ ბოროტმოქმედებს ახორციელებს. მათი თვითშეგნებაც კი უბიძგებს მათ უფრო და უფრო დიდი ბოროტმოქმედებისკენ.

ამაზე მეტი მოღრუბლულობაა, ვიდრე ეს პირდაპირ ჩანს. დავუშვათ, რომ ვინმეს აქვს საკუთარი თავის გაცნობიერება, მაგრამ მათ არ იციან მოცემული საზოგადოების ან კულტურის ეთიკური წესები. ამგვარად, მათ არ გააჩნიათ რაიმე ეთიკური მითითებები, მიუხედავად იმისა, რომ ისინი თვითშეგნებულნი არიან. ან, თუ გნებავთ, შესაძლოა ადამიანმა იცის ეთიკური წესების შესახებ და არ სჯერა, რომ ისინი ეხება მათ. ისინი თავს უნიკალურებად თვლიან ან ჩვეულებრივი ეთიკური აზროვნების ფარგლებს გარეთ.

მრგვალი და მრგვალი მიდის.

თვითშემეცნება შეიძლება განიმარტოს, როგორც ორლესიანი ეთიკაზე ორიენტირებული მახვილი, ზოგი მხურვალედ ხაზს უსვამს.

ამ მომენტისთვის, მოდით გადავიდეთ ბედნიერი სახის ვერსიით, რომელიც შედგება თვითშემეცნებისგან, ძირითადად, ეთიკური ქცევისკენ მიმავალ გზაზე. ყველა სხვა თანაბარი იყოს, ჩვენ გამოვიყენებთ თავხედურ ვარაუდს, რომ რაც უფრო მეტი თვითშემეცნება იქნება, მით უფრო ეთიკურად მიდრეკილნი იქნებით. რა თქმა უნდა, როგორც ჩანს, სასიამოვნო და შთამაგონებელია ამის სურვილი.

მოდით გადავიტანოთ გადაცემათა კოლოფი და გამოვიტანოთ ხელოვნური ინტელექტი (AI).

ჩვენ ამ დისკუსიაში იმ ეტაპზე ვართ, რომ დავაკავშიროთ ყველა მიმდინარე ჩახლართული ეთიკური ხელოვნური ინტელექტის განვითარებადი სფერო, რომელიც ასევე ცნობილია როგორც ხელოვნური ინტელექტის ეთიკა. ხელოვნური ინტელექტის ეთიკის ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

ეთიკური ხელოვნური ინტელექტის ცნება გულისხმობს ეთიკისა და ეთიკური ქცევის სფეროს AI-ს მოსვლას. თქვენ, რა თქმა უნდა, გინახავთ სათაურები, რომლებმაც სიგნალიზაცია გამოიწვია ხელოვნური ინტელექტის შესახებ, რომელიც სავსეა უთანასწორობებითა და სხვადასხვა მიკერძოებით. მაგალითად, არსებობს შეშფოთება, რომ AI-ზე დაფუძნებული სახის ამოცნობის სისტემებმა შეიძლება ზოგჯერ გამოავლინოს რასობრივი და გენდერული დისკრიმინაცია, როგორც წესი, იმის გამო, თუ როგორ განხორციელდა ტექნიკის სწავლება (ML) და ღრმა სწავლის (DL) საშუალებები (იხილეთ ჩემი ანალიზი. ზე ეს ბმული აქ).

შეეცადოს შეაჩერო ან მინიმუმ შეამსუბუქო ჭუჭყიანი სწრაფვა AI ცუდად, რომელიც შედგება ხელოვნური ინტელექტის სისტემებისგან, რომლებიც შეუმჩნევლად ან ზოგჯერ განზრახ ყალიბდება იმისთვის, რომ ცუდად იმოქმედონ, ბოლო დროს აქტუალური გახდა ეთიკის პრინციპების გამოყენება ხელოვნური ინტელექტის განვითარებასა და გამოყენებაში. სერიოზული მიზანია ეთიკური ხელმძღვანელობის მიწოდება AI დეველოპერებისთვის, ასევე ფირმებისთვის, რომლებიც აშენებენ ან ამუშავებენ AI-ს, და მათ, რომლებიც დამოკიდებულნი არიან AI აპლიკაციებზე. როგორც ეთიკური AI პრინციპების შემუშავებისა და მიღების მაგალითი, იხილეთ ჩემი გაშუქება აქ ბმული აქ.

მიეცით რეფლექსიული მომენტი ამ სამი უაღრესად მნიშვნელოვანი საკითხის განხილვისთვის:

  • შეგვიძლია მივიღოთ ხელოვნური ინტელექტის დეველოპერები, რომ აითვისონ ეთიკური AI პრინციპები და გამოიყენონ ეს სახელმძღვანელო პრინციპები რეალურად?
  • შეგვიძლია მივიღოთ ისეთი ფირმები, რომლებიც ამუშავებენ ან დარგის AI-ს?
  • შეგვიძლია მივიღოთ ის, ვინც იყენებს ხელოვნურ ინტელექტს, რომ ანალოგიურად იცოდნენ ეთიკური AI ასპექტები?

ამას უსაფუძვლოდ ვიტყოდი, ეს დიდი ბრძანებაა.

ხელოვნური ინტელექტის შექმნის მღელვარებამ შეიძლება დაამარცხოს ხელოვნური ინტელექტის ეთიკის მიმართ ყურადღების მიქცევა. ისე, არა მხოლოდ მღელვარება, არამედ ფულის შოვნაც ამ განტოლების განუყოფელი ნაწილია. შეიძლება გაგიკვირდეთ, რომ იცოდეთ, რომ ხელოვნური ინტელექტის სფეროში ზოგიერთს შეუძლია თქვას, რომ ეთიკური ხელოვნური ინტელექტის „საკითხებთან“ საქმეს შეუდგებიან მას შემდეგ, რაც თავიანთი ხელოვნური ინტელექტის სისტემებს კარიბჭიდან გამოაქვთ. ეს არის ტიპიური ტექნიკური მანტრა, რათა დარწმუნდეთ, რომ სწრაფად და ხშირად მარცხდებით, სანამ არ მიიღებთ სწორად (იმედია სწორად მიიღებთ).

რა თქმა უნდა, ისინი, ვინც ეთიკურად საეჭვო AI-ს ავრცელებენ ფართო საზოგადოებას, ცხენს უშვებენ ბეღელიდან. მათი გამოცხადებული გავრცელებული იდეა არის ის, რომ AI ცუდად გამოსწორდება ყოველდღიური გამოყენების შემდეგ, რაც საზიანოა დაგვიანებული, რადგან ცხენი უკვე უაზროდ ტრიალებს გარშემო. ზიანის მიყენება შესაძლებელია. ასევე არის გაზრდილი შანსი, რომ არაფერი გამოსწორდეს ან დარეგულირდეს AI გამოყენების დროს. ხშირი საბაბი არის ის, რომ AI-თან შეხებამ ამ ეტაპზე შესაძლოა კიდევ უფრო გააუარესოს ის, რომ უკვე არაეთიკური ალგორითმული გადაწყვეტილებების მიღება (ADM) სრულიად უკუღმაა.

რა შეიძლება გაკეთდეს იმისათვის, რომ მივიღოთ ეთიკური ხელოვნური ინტელექტის მომგებიანობა და სიცოცხლისუნარიანობა, როგორც კაშკაშა ანათებს და წარმმართველ შუქს მათ გონებაში, ვინც აშენებს AI-ს, ამუშავებს AI-ს და იყენებს AI-ს?

პასუხი: თვითშეგნება.

დიახ, მოსაზრება არის ის, რომ თუ ადამიანები უფრო მეტად იყვნენ ინფორმირებულნი იმის შესახებ, თუ როგორ იყენებენ ან ურთიერთობენ AI-სთან, ეს შეიძლება გაზარდოს მათი მიდრეკილება იმისკენ, რომ ეთიკური AI იყოს ნორმა. იგივე შეიძლება ითქვას ხელოვნური ინტელექტის შემქმნელებზე და AI სისტემებთან დაკავშირებულ კომპანიებზე. თუ ისინი უფრო მეტად აცნობიერებდნენ რას აკეთებენ, შესაძლოა, ისინი უფრო მეტად აითვისებდნენ ხელოვნური ინტელექტის ეთიკას.

ლოგიკის ნაწილი, როგორც უკვე გათვალისწინებულია, არის ის, რომ საკუთარი თავის შეცნობა იწვევს ეთიკურად უკეთესი ადამიანობისკენ მიდრეკილებას და ასევე ერიდება ეთიკურად ბოროტ ადამიანად ყოფნას. თუ ჩვენ შეგვიძლია შევინარჩუნოთ ეს წინაპირობა, ეს გულისხმობს, რომ AI დეველოპერები, რომლებიც უფრო მეტად არიან მიდრეკილნი თვითშემეცნებისკენ, მიდრეკილნი იქნებიან ეთიკური ქცევებისკენ და, შესაბამისად, მიდრეკილნი იქნებიან ეთიკურად ჯანსაღი ხელოვნური ინტელექტის წარმოებისკენ.

ეს ხიდი ძალიან შორს არის შენთვის?

ზოგი იტყვის, რომ არაპირდაპირობა ცოტაა. კავშირების გადაჭარბებული ჯაჭვი თვითშემეცნებას, ეთიკურად სათნოებასა და ხელოვნური ინტელექტისადმი ეთიკური პრინციპების გამოყენებას შორის, შესაძლოა, ძნელი გადაყლაპვაა. კონტრარგუმენტი არის ის, რომ მცდელობა არ შეიძლება.

სკეპტიკოსები იტყვიან, რომ ხელოვნური ინტელექტის შემქმნელი შეიძლება იყოს თვითშეგნებული და შესაძლოა იყოს უფრო ეთიკურად მოაზროვნე, მაგრამ ისინი სულაც არ აპირებენ ამ გონებრივი ბანაკის გამოყენებას ეთიკური AI-ის ზნე-ჩვეულებებში. პასუხი ამ ეჭვზე არის ის, რომ თუ ჩვენ შევძლებთ ეთიკური ხელოვნური ინტელექტის საკითხების საჯაროობას და პოპულარიზაციას, სხვაგვარად ერთი შეხედვით სუსტი კავშირი გახდება უფრო აშკარა, მოსალოდნელი და, შესაძლოა, გახდეს სტანდარტული გზა, როდესაც საქმე AI-ს შექმნას ეხება.

ახლა ვაპირებ ამ საგას ირონიის დამატებას. გადახვევამ შესაძლოა თავი დაგიტრიალოთ. გთხოვთ, დარწმუნდით, რომ კარგად იჯდებით და მზად ხართ იმისთვის, რასაც მე ვაპირებ აღვნიშნო.

ზოგიერთი აღნიშნავს, რომ ჩვენ უნდა ვაშენოთ ეთიკური AI პირდაპირ AI-ში.

თქვენ შეიძლება არ დაგაინტერესოთ ეს განცხადება. მოდი გავშალოთ.

პროგრამისტმა შეიძლება შექმნას ხელოვნური ინტელექტის სისტემა და გააკეთოს ეს საკუთარი პროგრამული თვითშეგნებით, რათა თავიდან აიცილოს AI-ს მიკერძოება და უთანასწორობა. იმის მაგივრად, რომ პროგრამირებას აეღოთ, დეველოპერი საკუთარ მხრებზე ადევნებს თვალს, რათა ჰკითხოს, გამოიწვევს თუ არა მათ მიერ განხორციელებულ მიდგომას AI-ში უარყოფითი ელემენტების აუცილებელი არარსებობა.

კარგია, ჩვენ გვყავს ხელოვნური ინტელექტის დეველოპერი, რომელიც, როგორც ჩანს, საკმარისად იცნობს საკუთარ თავს, ცდილობდა შეეგუოს ეთიკურ ქცევებს და დაინახა ნათელი, რომ შეიცავდეს ეთიკურ პრინციპებს, როდესაც ისინი ქმნიან თავიანთ AI სისტემას.

გაიმარჯვეთ ეთიკური AI!

ყველაფერი კარგადაა, თუმცა აქ არის რაღაც, რაც შეიძლება მოგვიანებით მოხდეს. ხელოვნური ინტელექტი გამოდის და გამოიყენება ყოველდღიურ გამოყენებაში. ხელოვნური ინტელექტის ნაწილი მოიცავდა კომპონენტს ფრენის დროს „სწავლის“ შესაძლებლად. ეს ნიშნავს, რომ AI-ს შეუძლია საკუთარი თავის კორექტირება ახალი მონაცემებისა და ორიგინალური პროგრამირების სხვა ასპექტების საფუძველზე. მოკლედ, ეს არ ნიშნავს, რომ AI არის მგრძნობიარე. ჩვენ არ გვაქვს მგრძნობიარე AI. იგნორირება გაუკეთეთ იმ უაზრო სათაურებს, რომლებიც ამბობენ, რომ ჩვენ ამას ვაკეთებთ. ვერავინ იტყვის, გვექნება თუ არა მგრძნობიარე ხელოვნური ინტელექტი და არც ვინმეს შეუძლია საკმარისად წინასწარ განსაზღვროს, როდის მოხდება ეს.

ჩვენს ზღაპარს რომ დავუბრუნდეთ, ხელოვნური ინტელექტი მიზანმიმართულად შეიმუშავეს საკუთარი თავის გასაუმჯობესებლად მიმდინარეობისას. საკმაოდ მოსახერხებელი ცნებაა. იმის ნაცვლად, რომ პროგრამისტებს განუწყვეტლივ გააუმჯობესონ, ისინი აძლევენ AI პროგრამას ამის დამოუკიდებლად გაკეთების საშუალებას (უი, ეს უმუშევარია?).

იმ დროის განმავლობაში, როდესაც AI ინჩ-დიუმზე რეგულირდება, აღმოჩნდება, რომ სხვადასხვა საზიზღარი უთანასწორობა და მიკერძოება შემოიჭრება AI სისტემაში მისივე ცვლილების აქტებით. მიუხედავად იმისა, რომ პროგრამისტმა თავიდან აიცილა ეს დამაბნეველი ასპექტები, ისინი ახლა ფორმულობენ ხელოვნური ინტელექტის მორგების გამო. სამწუხაროდ, ეს შეიძლება მოხდეს ისე დახვეწილი კულისებში, რომ არავინ იყოს უფრო ბრძენი. მათ, ვინც ადრე შესაძლოა აენთო მწვანე შუქი AI-ს თავდაპირველი ამომწურავი ტესტირების შემდეგ, ახლა ბრმად არ იციან, რომ ხელოვნური ინტელექტი დამპალი გზით გაიარა. AI ცუდად.

ამ არასასურველი გაჩენის თავიდან აცილების ან თუნდაც დაჭერის ერთ-ერთი საშუალება იქნება ხელოვნური ინტელექტის ერთგვარი ეთიკური ხელოვნური ინტელექტის ორმაგი შემოწმება. AI-ში შემავალი კომპონენტი დაპროგრამებულია იმისთვის, რომ დააკვირდეს AI-ს ქცევას და აღმოაჩინოს, იწყება თუ არა არაეთიკური ADM წარმოქმნა. თუ ასეა, კომპონენტმა შეიძლება გაუგზავნოს გაფრთხილება ხელოვნური ინტელექტის დეველოპერებს ან გააკეთოს ფირმას, რომელიც ამუშავებს AI სისტემას.

ამ კომპონენტის უფრო მოწინავე ვერსიამ შესაძლოა შეეცადოს AI-ის შეკეთება. ეს იქნება კორექტირების კორექტირება, არაეთიკური წარმოშობის ასპექტების დაბრუნება სათანადო ეთიკურ პარამეტრებში. თქვენ წარმოიდგინეთ, რომ ამ ტიპის პროგრამირება სახიფათოა. არსებობს იმის შანსი, რომ ის ცდება, შესაძლოა არაეთიკური გადაიქცეს ღრმად არაეთიკურად. ასევე არსებობს ცრუ პოზიტივის შესაძლებლობა, რომელიც გამოიწვევს კომპონენტს მოქმედებაში და, შესაძლოა, ყველაფერი გააფუჭოს შესაბამისად.

ყოველ შემთხვევაში, იმის გარეშე, თუ როგორ იმუშავებს ეს ორმაგი შემოწმება, ჩვენ ვაპირებთ გაბედულ განცხადებას ამის შესახებ. თქვენ შეგიძლიათ თქვათ, რომ გარკვეულწილად შეზღუდული გზით, AI-ს აქვს საკუთარი თავის შეცნობა.

დიახ, ეს ბევრისთვის საბრძოლო სიტყვებია.

თითქმის ყველას გაბატონებული რწმენა არის ის, რომ დღევანდელი AI არ არის თვითშეგნებული. წერტილი, წერტილი. სანამ არ მივაღწევთ მგრძნობიარე AI-ს, რომელიც არ ვიცით, მოხდება თუ არა ეს, არ არსებობს რაიმე სახის ხელოვნური ინტელექტი, რომელიც აცნობიერებს საკუთარ თავს. სულ მცირე ადამიანზე ორიენტირებული თვითშემეცნების მნიშვნელობით. არც კი ვარაუდობთ, რომ ეს შეიძლება მოხდეს.

მე ნამდვილად ვეთანხმები, რომ ფრთხილად უნდა ვიყოთ ხელოვნური ინტელექტის ანთროპომორფიზაციის შესახებ. ამ შეშფოთების შესახებ მეტს გეტყვით ცოტა ხანში.

იმავდროულად, თუ დისკუსიის გულისთვის გსურს გამოიყენო ეტაპობრივი „თვითშემეცნება“ ცალსახად, მე მჯერა, რომ ადვილად მიხვდები, რატომ შეიძლება ითქვას, რომ ხელოვნური ინტელექტი ემორჩილება თვითმმართველობის ზოგად ცნებას. ცნობიერება. ჩვენ გვაქვს ხელოვნური ინტელექტის ნაწილი, რომელიც აკონტროლებს დანარჩენ AI-ს და აკვირდება, თუ რას აკეთებს დანარჩენი AI. როდესაც AI-ის დანარჩენი ნაწილი იწყებს ზღვარზე გადასვლას, მონიტორინგის ნაწილი ცდილობს ამის აღმოჩენას. გარდა ამისა, ხელოვნური ინტელექტის მონიტორინგის ნაწილმა ან ორმაგმა შემოწმებამ შესაძლოა AI-ის დანარჩენი ნაწილი სწორ ზოლში გადაიყვანოს.

ეს ცოტათი არ ჰგავს ამ კატების ვიდეოების ყურებას და საკუთარი თავის შეცნობას, რომ ამას აკეთებდი?

მასში ნაცნობი ბეჭედია.

ჩვენ შეგვიძლია ეს კიდევ უფრო გავაგრძელოთ. ხელოვნური ინტელექტის ორმაგი შემოწმების კომპონენტი არა მხოლოდ დაპროგრამებულია დანარჩენი AI-ის ქცევაზე დასაკვირვებლად, არამედ ასევე აღნიშნავს მათ ქცევას, ვინც იყენებს AI-ს. როგორ არიან მომხმარებლები AI-ს გამოყენებისას? დავუშვათ, რომ ზოგიერთი მომხმარებელი გამოხატავს აღშფოთებას იმის გამო, რომ ხელოვნური ინტელექტი, როგორც ჩანს, დისკრიმინაციას ახდენს მათ მიმართ. ხელოვნური ინტელექტის ორმაგი შემმოწმებელმა შეიძლება შეძლოს ამის გარკვევა, გამოიყენოს იგი, როგორც სხვა წითელი დროშა, რომ AI დანარჩენი ცდება.

ეს იწვევს შინაგანი თვითშემეცნების და გარე თვითშემეცნების კატეგორიზაციას.

ხელოვნური ინტელექტის ორმაგი შემოწმება სკანირებს შიგნიდან და გარედან, რათა გაარკვიოს, გადავიდა თუ არა AI-ის დანარჩენი ნაწილი შემაშფოთებელ ზღვებში. აღმოჩენა აღმართავს დროშას ან გამოიწვევს თვითშესწორების ამოქმედებას.

მოდით დავამატოთ კიდევ ერთი გარკვეულწილად დამაფიქრებელი გაფართოება. ჩვენ ვაშენებთ კიდევ ერთ AI ორმაგ შემოწმებას, რომელიც მიზნად ისახავს ორჯერ შეამოწმოს ძირითადი AI ორმაგი შემოწმება. Რატომ ასე? კარგი, დავუშვათ, რომ ხელოვნური ინტელექტის ორმაგი შემოწმება თითქოს ცდება ან ვერ ასრულებს თავის საქმეს. ორმაგი შემოწმების ხელოვნური ინტელექტის შემმოწმებელი შეეცდება გამოავლინოს ეს გაუმართაობა და შესაბამისი ზომები მიიღოს. კეთილი იყოს თქვენი მობრძანება თვითშემეცნების რეკურსიულ ხასიათზე, ზოგიერთმა შეიძლება ამაყად განაცხადოს, როგორც ეს გამოითვლება AI სისტემაში.

მათთვის, ვინც ამ საკითხთან დაკავშირებით უკვე მიღწეულია, ბოლო კომენტარი, ამ დროისთვის, არის ის, რომ ჩვენ შეგვიძლია ვცადოთ შემოთავაზება, რომ თუ ხელოვნური ინტელექტის სისტემებს „თვითცნობიერებას“ აქცევთ, ისინი პოტენციურად მიზიდულნი იქნებიან ეთიკური ქცევისკენ. აკეთებენ თუ არა ამას სენტიმენტალურ საფუძველზე? გადაწყვეტილია, არა. აკეთებენ ამას გამოთვლით საფუძველზე? დიახ, თუმცა ნათლად უნდა ვიყოთ, რომ ის არ არის ისეთივე კალიბრის, როგორც ადამიანის ქცევა.

თუ თავს უხერხულად გრძნობთ, რომ თვითშემეცნების ცნება არასწორად არის დამახინჯებული, რათა ის შეესაბამებოდეს გამოთვლით სქემას, თქვენი ეჭვები ამ საკითხთან დაკავშირებით კარგად არის შესამჩნევი. უნდა შევაჩეროთ თუ არა ხელოვნური ინტელექტის მცდელობა, რომელიც ამ ცნებას იყენებს, ეს კიდევ ერთი ღია კითხვაა. თქვენ შეგიძლიათ დამაჯერებლად ამტკიცებდეთ, რომ ყოველ შემთხვევაში, როგორც ჩანს, ეს მიგვიყვანს უკეთესი შედეგისკენ, რასაც AI სავარაუდოდ გააკეთებს. თუმცა, ჩვენ უნდა გვქონდეს ფართოდ გახელილი თვალები, რადგან ეს ხდება.

გამოიცანით, ჩვენ უნდა ვნახოთ, როგორ განვითარდება ეს ყველაფერი. დაუბრუნდით ამას ხუთ წელიწადში, ათი და ორმოცდაათი წლის შემდეგ და ნახეთ, შეიცვალა თუ არა თქვენი აზროვნება საკამათო საკითხზე.

მე მესმის, რომ ეს იყო თემის გარკვეულწილად თავზარდამცემი განხილვა და თქვენ შესაძლოა მოინდომოთ რამდენიმე ყოველდღიური მაგალითი. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: AI-ზე დაფუძნებული ჭეშმარიტი თვითმართვადი მანქანების გამოჩენა აშუქებს თუ არა რაიმეს იმის შესახებ, რომ ხელოვნური ინტელექტი აქვს „თვითცნობიერების“ მსგავსებას და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

განმარტების თანახმად, ჭეშმარიტი თვითმართვადი მანქანები არის ის, რომ AI მართავს მანქანას მთლიანად თავისით და არ არსებობს არანაირი დახმარება ადამიანის მიერ მართვის ამოცანის დროს.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე -5 დონეზე ჯერ არ არსებობს ჭეშმარიტი თვითმავალი მანქანა, რომლის მიღწევაც ჯერ არ ვიცით და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI, რომლებსაც აქვთ ეგრეთ წოდებული თვითშეგნება

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ჩვენ მზად ვართ ახლა ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკურ AI კითხვებს, რაც გულისხმობს წარბების ამაღლებას AI-ს, თუ გნებავთ, აქვს ერთგვარი თვითშემეცნება.

მოდით გამოვიყენოთ მარტივი მაგალითი. AI-ზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოს ქუჩებში მიდის და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეოკამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. იხილეთ ჩემი ანალიზი ეს ბმული აქ. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს. ერთ დღეს, დავუშვათ, რომ თქვენს ქალაქში ან ქალაქში თვითმართვადი მანქანა უახლოვდება გაჩერების ნიშანს და, როგორც ჩანს, არ ანელებს სიჩქარეს. ღმერთო, როგორც ჩანს, ხელოვნური ინტელექტის მართვის სისტემას ექნება თვითმართვადი მანქანის გუთანი გაჩერების ნიშანთან. წარმოიდგინეთ, ფეხით მოსიარულე ან ველოსიპედის მხედარი რომ იყოს სადმე ახლოს და დაიჭირეს, რომ თვითმართვადი მანქანა არ აპირებს სათანადო გაჩერებას. სამარცხვინო. საშიში!

და უკანონო.

ახლა განვიხილოთ AI კომპონენტი AI მართვის სისტემაში, რომელიც მოქმედებს როგორც თვითშემეცნების ორმაგი შემოწმების სტილი.

ჩვენ ერთ წუთს გამოვყოფთ დეტალებს, თუ რა ხდება AI მართვის სისტემის შიგნით. ირკვევა, რომ ავტონომიურ მანქანაზე დაყენებულმა ვიდეოკამერებმა დააფიქსირეს ის, რაც, როგორც ჩანს, შეიძლება იყოს Stop ნიშანი, თუმცა ამ შემთხვევაში გადაზრდილი ხე უხვად ფარავს Stop ნიშანს. მანქანათმცოდნეობის და ღრმა სწავლის სისტემა, რომელიც თავდაპირველად იყო გაწვრთნილი Stop ნიშნებზე, შემუშავებული იყო ძირითადად სრული გაჩერების ნიშნების ნიმუშებზე, ზოგადად შეუზღუდავი. ვიდეო გამოსახულების გამოთვლითი შესწავლისას, მიენიჭა დაბალი ალბათობა იმისა, რომ Stop ნიშანი არსებობდა ამ კონკრეტულ ადგილზე (როგორც დამატებითი გართულება და შემდგომი ახსნა, ეს იყო ახლად გამოქვეყნებული გაჩერების ნიშანი, რომელიც არ ჩანდა წინასწარ მომზადებულ ციფრულ რუქებზე. AI მართვის სისტემა ეყრდნობოდა).

მთლიანობაში, ხელოვნური ინტელექტის მართვის სისტემა გამოთვლით მიზნად ისახავს წინ წასულიყო, თითქოს გაჩერების ნიშანი ან არარსებული იყო, ან შესაძლოა სხვა სახის ნიშანი, რომელიც, სავარაუდოდ, გაჩერების ნიშანს ჰგავდა (ეს შეიძლება მოხდეს და ხდება გარკვეული სიხშირით).

მაგრამ, საბედნიეროდ, AI თვითშეგნებული ორმაგი შემოწმება აკონტროლებდა AI მართვის სისტემის საქმიანობას. მონაცემების გამოთვლითი გადახედვისას და დანარჩენი AI-ის მიერ შეფასების შემდეგ, ამ კომპონენტმა აირჩია მოქმედების ნორმალური კურსის გადალახვა და ამის ნაცვლად, AI მართვის სისტემას უბრძანა შეეჩერებინა შესაფერისი გაჩერება.

არავინ დაშავებულა და უკანონო ქმედება არ მომხდარა.

შეიძლება ითქვას, რომ ხელოვნური ინტელექტის თვითშეგნების ორმაგი შემოწმება მოქმედებდა ისე, თითქოს ის იყო ჩაშენებული იურიდიული აგენტი, რომელიც ცდილობდა უზრუნველეყო AI მართვის სისტემა კანონის დაცვას (ამ შემთხვევაში, Stop ნიშანი). რა თქმა უნდა, უსაფრთხოებაც მთავარი იყო.

ეს მაგალითი იმედია გვიჩვენებს, თუ როგორ შეიძლება იმუშაოს ჩაფიქრებული AI თვითშეგნებული ორმაგი შემოწმება.

ჩვენ შეგვიძლია მოკლედ განვიხილოთ უფრო თვალსაჩინო ეთიკური ხელოვნური ინტელექტის მაგალითი, რომელიც ასახავს, ​​თუ როგორ შეიძლება AI-ის თვითშეგნების ორმაგი შემოწმება უზრუნველყოს ეთიკის AI-ზე ორიენტირებული ჩაშენებული ფუნქციონირება.

პირველი, როგორც ფონზე, ერთ-ერთი შეშფოთება, რომელიც გამოითქვა ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანების გამოჩენასთან დაკავშირებით, არის ის, რომ ისინი შეიძლება გამოიყენონ გარკვეულწილად უნებლიე დისკრიმინაციული გზით. Აი როგორ. დავუშვათ, რომ ეს თვითმართვადი მანქანები შექმნილია იმისათვის, რომ მაქსიმალურად გაზარდონ თავიანთი შემოსავლის პოტენციალი, რაც აშკარად ლოგიკურია მათთვის, ვინც სარგებლობს მგზავრობის გასაზიარებლად ხელმისაწვდომი თვითმართვადი მანქანების ფლოტით. ფლოტის მფლობელს უნდა ჰქონდეს მომგებიანი ოპერაცია.

შესაძლოა, მოცემულ ქალაქში ან ქალაქში როუმინგული თვითმართვადი მანქანები თანდათან იწყებენ ემსახურება საზოგადოების ზოგიერთ ნაწილს და არა სხვა უბნებს. ისინი ამას აკეთებენ ფულის გამომუშავების მიზნით, რადგან ღარიბი რაიონები შეიძლება არ იყოს ისეთი შემოსავლის მომტანი, როგორც ტერიტორიის უფრო მდიდარი ნაწილები. ეს არ არის ცალსახა მისწრაფება ემსახუროს ზოგიერთ სფეროს და არ ემსახუროს სხვებს. სამაგიეროდ, ორგანულად ჩნდება თვითმართველი მანქანების ხელოვნური ინტელექტი გამოთვლით „გაერკვია“, რომ გეოგრაფიულად მაღალანაზღაურებადი რაიონებზე კონცენტრირებით მეტი ფულის შოვნაა შესაძლებელი. მე განვიხილეთ ეს სოციალური ეთიკური საზრუნავი ჩემს სვეტში, მაგალითად ბმული აქ.

დავუშვათ, რომ ჩვენ დავამატეთ AI თვითშეგნების ორმაგი შემოწმება AI მართვის სისტემებში. გარკვეული პერიოდის შემდეგ, ხელოვნური ინტელექტის კომპონენტი გამოთვლით ამჩნევს, თუ სად მოძრაობენ თვითმართვადი მანქანები. აღსანიშნავია, რომ ზოგიერთ სფეროში, მაგრამ არა. ზოგიერთი ეთიკური ხელოვნური ინტელექტის პრინციპებით კოდირებული AI თვითშეგნებული ორმაგი შემოწმება იწყებს თვითმართვადი მანქანების მითითებას ქალაქის სხვა ნაწილებში, რომლებიც სხვაგვარად იყო უგულებელყოფილი.

ეს ასახავს AI თვითშემეცნებას და ამას აკეთებს ეთიკური AI ელემენტთან ერთად.

კიდევ ერთმა ასეთმა მაგალითმა შეიძლება მოგაწოდოთ იმის გაგება, რომ ეს ეთიკური AI განხილვა შეიძლება იყოს საკმაოდ გამაფრთხილებელი და სიცოცხლისა და სიკვდილის სერიოზული შედეგიც.

განვიხილოთ ახალი ამბების სიუჟეტი ბოლო ავტოავარიის შესახებ. გავრცელებული ინფორმაციით, ადამიანი მძღოლი მიდიოდა დატვირთულ გზაჯვარედინზე და აანთო მწვანე შუქი, რომ პირდაპირ წინ გაეგრძელებინა. კიდევ ერთი მძღოლი წითელ შუქზე ლულით გავიდა და გზაჯვარედინზე შევიდა, როცა ასე არ უნდა გაეკეთებინა. მძღოლი მწვანე შუქით ბოლო მომენტში მიხვდა, რომ ეს მეორე მანქანა სასტიკად შევარდა მის მანქანაში.

ამ საფრთხის ქვეშ მყოფი მძღოლის თქმით, მან გააზრებულად გამოთვალა, რომ ან მეორე მანქანას დაარტყამდა, ან შეეძლო გადატრიალებულიყო, რათა შეეცადოს თავი აეცილებინა ურთიერთსაწინააღმდეგოს. გადახვევის პრობლემა ის იყო, რომ ახლოს იყვნენ ფეხით მოსიარულეები, რომლებსაც საფრთხე შეექმნათ.

რომელ არჩევანს გააკეთებდით?

შეგიძლიათ მოემზადოთ დარტყმისთვის და იმედი გქონდეთ, რომ ზარალი არ მოგკლავს ან დაგიმახინჯებთ. მეორეს მხრივ, თქვენ შეგიძლიათ რადიკალურად აარიდოთ თავი, მაგრამ სერიოზულ საფრთხეს შეუქმნათ და შესაძლოა დააზიანოთ ან მოკლათ ახლომდებარე ფეხით მოსიარულეები. ეს რთული პრობლემაა, რომელიც მოიცავს მორალურ განსჯას და სრულად არის გაჟღენთილი ეთიკური (და სამართლებრივი) შედეგებით.

არსებობს ზოგადი დანიშნულების ეთიკური პრობლემა, რომელიც მოიცავს ამ სახის დილემას, რომელიც ცნობილია ან შესაძლოა სამარცხვინო სახელწოდებით ტროლეის პრობლემა, იხილეთ ჩემი ვრცელი გაშუქება აქ ეს ბმული აქ. ირკვევა, რომ ეს არის ეთიკურად მასტიმულირებელი აზროვნების ექსპერიმენტი, რომელიც 1900-იანი წლების დასაწყისში მოდის. როგორც ასეთი, ეს თემა საკმაოდ დიდი ხანია არსებობს და ბოლო დროს ზოგადად ასოცირდება ხელოვნური ინტელექტისა და თვითმართვადი მანქანების გამოჩენასთან.

შეცვალეთ ადამიანის მძღოლი AI მართვის სისტემით, რომელიც ჩაშენებულია თვითმართველ მანქანაში.

მაშინ წარმოიდგინეთ, რომ ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანა შედის გზაჯვარედინზე და ავტონომიური მანქანის სენსორები მოულოდნელად აღმოაჩენენ ადამიანის მართულ მანქანას, რომელიც სახიფათოდ მოდის პირდაპირ წითელ შუქზე და უმიზნებს უმართავ მანქანას. დავუშვათ, რომ თვითმართველ მანქანას რამდენიმე მგზავრი ჰყავს მანქანაში.

რისი გაკეთება გსურთ AI-მ?

თუ ხელოვნური ინტელექტის მართვის სისტემა აირჩევს წინსვლას და ჩაძირვას (სავარაუდოდ დააზიანოს ან შეიძლება მოკლას მგზავრები მანქანაში), ან გსურთ, რომ ხელოვნური ინტელექტის მართვის სისტემამ გამოიყენოს შანსი და გადაუხვიოს, თუმცა გადახვევის მოქმედება ავტონომიურ მანქანას იღებს სახიფათოა მიმდებარე ფეხით მოსიარულეთა მიმართ და შესაძლოა ზიანი მიაყენოს ან მოკლას ისინი.

ბევრი თვითმართვადი მანქანების ხელოვნური ინტელექტის შემქმნელი ხელმძღვანელობს მიდგომას ამ ეთიკური ხელოვნური ინტელექტის შემზარავი პრობლემების მიმართ. ზოგადად, ხელოვნური ინტელექტი, როგორც ამჟამად დაპროგრამებულია, უბრალოდ წინ მიიწევდა და სხვა მანქანას ძალადობრივად დაეჯახა. ხელოვნური ინტელექტი არ იყო დაპროგრამებული სხვა ავარიული მანევრების მოსაძებნად.

მე არაერთხელ ვიწინასწარმეტყველე, რომ ხელოვნური ინტელექტის თვითმართვადი მანქანების მწარმოებლების ეს პოზიცია-არა-ბოროტი, ისმინე-არა-ბოროტი, საბოლოოდ მოვა და კბენს მათ (ჩემი ანალიზი არის ბმული აქ). თქვენ შეგიძლიათ ველოდოთ სასამართლო პროცესებს, რომლებიც მოიცავს ასეთ ავტოავარიებს, რომლებიც შეეცდებიან გაარკვიონ, რის გაკეთებაზე იყო დაპროგრამებული AI. იყო თუ არა კომპანია ან ხელოვნური ინტელექტის დეველოპერები ან ფლოტის ოპერატორი, რომელმაც შეიმუშავა და გამოავლინა ხელოვნური ინტელექტი უყურადღებო ან პასუხისმგებელი იმისთვის, რაც AI გააკეთა ან არ გააკეთა? თქვენ ასევე შეგიძლიათ ელოდოთ ეთიკური ხელოვნური ინტელექტის შესახებ ცნობიერების ამაღლებას საზოგადოების მასშტაბით, როდესაც ასეთი შემთხვევები მოხდება.

ამ ეთიკური ხელოვნური ინტელექტის დილემაში გადადის ჩვენი აყვავებული AI თვითშეგნებული ორმაგი შემოწმება, რომელიც არის ეთიკაზე ორიენტირებული. შესაძლოა, ეს სპეციალური AI კომპონენტი შეიძლება ჩაერთოს ასეთ გარემოებებში. ნაწილი აკონტროლებს დანარჩენ AI მართვის სისტემას და თვითმართვადი მანქანის სტატუსს. როდესაც ასეთი საშინელი მომენტი დგება, ხელოვნური ინტელექტის კომპონენტი ემსახურება როგორც ტროლეის პრობლემის გადაჭრას და გვთავაზობს რა უნდა გააკეთოს AI მართვის სისტემამ.

არ არის ადვილი კოდირება, გარწმუნებთ.

დასკვნა

მე გაგიზიარებთ ბოლო აზრს ამ თემაზე.

სავარაუდოდ, ეს დამაინტრიგებელია.

იცით ამის შესახებ სარკის ტესტი?

ეს საკმაოდ კარგად არის ცნობილი თვითშემეცნების შესწავლაში. ამ საკითხის სხვა სახელებია სარკის თვითშეცნობის ტესტი, წითელი ლაქების ტესტი, რუჟის ტესტი და შესაბამისი ფრაზები. ტექნიკა და მიდგომა თავდაპირველად შეიქმნა 1970-იანი წლების დასაწყისში ცხოველების თვითშემეცნების შესაფასებლად. ცხოველები, რომლებმაც წარმატებით გაიარეს ტესტი, მოიცავს მაიმუნებს, სპილოების გარკვეულ ტიპებს, დელფინებს, კაჭკაჭებს და სხვა. ცხოველებს, რომლებსაც ტესტირება ჩაუტარდათ და გავრცელებული ინფორმაციით, ტესტი არ ჩააბარეს, მოიცავს გიგანტურ პანდას, ზღვის ლომებს და ა.შ.

აქ არის გარიგება.

როდესაც ცხოველი საკუთარ თავს სარკეში ხედავს, ხვდება თუ არა ცხოველი, რომ ნაჩვენები გამოსახულება საკუთარი თავისაა, თუ ცხოველი ფიქრობს, რომ ეს სხვა ცხოველია?

სავარაუდოდ, ცხოველი ვიზუალურად ცნობს საკუთარ სახეობას, ხედავს სხვა თავის სახეობას, და ამიტომ შეიძლება იფიქროს, რომ სარკეში ნაჩვენები ცხოველი ბიძაშვილია ან შესაძლოა მეომარი კონკურენტი (განსაკუთრებით თუ ცხოველი ღრიალებს სარკისებურ გამოსახულებას. როგორც ჩანს, მობრუნება მათ უბრუნდება). ალბათ გინახავთ, რომ თქვენი სახლის კატა ან საყვარელი შინაური ცხოველი ძაღლი აკეთებს იგივეს, როცა საკუთარ თავს პირველად ხედავს სახლის სარკეში.

ნებისმიერ შემთხვევაში, ჩვენ ვივარაუდებთ, რომ გარეულ ცხოველს არასოდეს უნახავს თავი. ეს სულაც არ შეესაბამება სიმართლეს, რადგან შესაძლოა ცხოველმა შეხედა თავის თავს წყლის მშვიდ აუზში ან მბზინავი კლდის ფორმირების მეშვეობით. მაგრამ ეს ნაკლებად სავარაუდო შანსებად ითვლება.

კარგი, ჩვენ გვინდა როგორმე შევაფასოთ, შეუძლია თუ არა ცხოველს გაარკვიოს, რომ ის სინამდვილეში არის სარკეში ნაჩვენები ცხოველი. დაფიქრდით ამ ერთი შეხედვით მარტივ მოქმედებაზე. ადამიანები პატარა ასაკში ხვდებიან, რომ არსებობენ და მათი არსებობა სარკეში საკუთარი თავის დანახვით ჩანს. ისინი აცნობიერებენ საკუთარ თავს. თეორიულად, შეიძლება ვერ გააცნობიეროთ, რომ თქვენ ხართ, სანამ საკუთარ თავს სარკეში არ დაინახავთ.

შესაძლოა, ცხოველებს არ შეუძლიათ კოგნიტურად გახდნენ თვითშეგნება იმავე გზით. შესაძლოა, ცხოველმა დაინახოს საკუთარი თავი სარკეში და სამუდამოდ დაიჯეროს, რომ ეს სხვა ცხოველია. რამდენჯერაც არ უნდა დაინახოს საკუთარი თავი, მაინც იფიქრებს, რომ ეს სხვა ცხოველია, ვიდრე თვითონ.

ტრიუკის ნაწილი ამ საქმეშია. ცხოველზე ნიშანს ვაკეთებთ. ეს ნიშანი უნდა იყოს მხოლოდ მაშინ, როცა ცხოველი საკუთარ თავს სარკეში ხედავს. თუ ცხოველს შეუძლია მოტრიალდეს ან მოტრიალდეს და დაინახოს კვალი თავის თავზე (პირდაპირ), ეს ანგრევს ექსპერიმენტს. გარდა ამისა, ცხოველს არ შეუძლია იგრძნოს, ყნოსვა ან სხვაგვარად აღმოაჩინოს ნიშანი. კიდევ ერთხელ, თუ ასე მოიქცნენ, ეს ექსპერიმენტს ჩაშლის. ცხოველს არ შეუძლია იცოდეს, რომ ჩვენ მასზე დავაყენეთ ნიშანი, რადგან ეს ურჩხულს მიანიშნებს, რომ რაღაც არის იქ.

ჩვენ გვინდა შევამციროთ საგნები ისე, რომ ნიშნის აღმოჩენის ერთადერთი შესაძლო მიზეზი სარკეში საკუთარი თავის დათვალიერება იყოს.

აჰა, ტესტი მზად არის. ცხოველს სარკის წინ ათავსებენ ან მისკენ იხრება. თუ ცხოველი შეეცდება შემდგომში შეხებას ან გათხრას ნიშანს, ჩვენ გონივრულად დავასკვნათ, რომ ეს ერთადერთი გზა იქნება, თუ ცხოველი მიხვდება, რომ კვალი საკუთარ თავზე იყო. ცხოველთა ძალიან ცოტა სახეობამ შეძლო ამ გამოცდის წარმატებით ჩაბარება.

ტესტთან დაკავშირებით უამრავი კრიტიკა არსებობს. თუ ადამიანი მახლობლად არის გამომცდელი, მათ შეუძლიათ მიაწოდონ ნივთები ნიშანზე დაკვირვებით, რამაც შეიძლება გამოიწვიოს ცხოველის დავარცხნა ან გრძნობა. კიდევ ერთი შესაძლებლობა არის ის, რომ ცხოველს ჯერ კიდევ სჯერა, რომ სარკეში სხვა ცხოველია გამოსახული, მაგრამ ის იგივე ტიპისაა და, ამრიგად, ცხოველს აინტერესებს, აქვს თუ არა მას ისეთი ნიშანი, როგორიც მეორე ცხოველზე.

გრძელდება და გრძელდება.

დარწმუნებული ვარ, რომ მოხარული ხართ, რომ ეს იცით და ამიერიდან მიხვდებით, რატომ არის წერტილი ან რაღაც უცნაური ნიშანი ცხოველზე, რომელსაც სხვაგვარად არ ექნებოდა ასეთი ნიშანი. ვინ იცის, შესაძლოა მან ახლახან დაასრულა სარკის ტესტის ექსპერიმენტი. მიულოცეს ცხოველს, უსაფრთხოდ, რომ იყო გულუხვი მონაწილე.

რა კავშირი აქვს მათგან AI-ზე დაფუძნებულ თვითმართველ მანქანებს?

მოგეწონებათ ეს ნაწილი.

გრძელ გზატკეცილზე თვითმართვადი მანქანა მიდის. AI მართვის სისტემა იყენებს სენსორებს სხვა ტრაფიკის გამოსავლენად. ეს არის ორზოლიანი გზატკეცილი, რომელსაც აქვს მოძრაობა ჩრდილოეთით ერთი ზოლით და სამხრეთით მეორე ზოლით. ხანდახან, მანქანები და სატვირთო მანქანები შეეცდებიან ერთმანეთის გავლას, ამას აკეთებენ მოპირდაპირე ზოლში შესვლით და შემდეგ გადახტომით უკან თავიანთ სამგზავრო ზოლში.

თქვენ ეს ნახეთ, თქვენ ეს უდავოდ გააკეთეთ.

დადებ, რომ ეს შემდეგი ასპექტი თქვენც შეგემთხვათ. თვითმართვადი მანქანის წინ არის ერთ-ერთი იმ დიდი ტანკერი სატვირთო მანქანა. იგი დამზადებულია მბზინავი ლითონისგან. გაპრიალებული და სასტვენივით სუფთა. ასეთი სატვირთო მანქანის უკან დგომისას, თქვენ შეგიძლიათ იხილოთ თქვენი მანქანის სარკის გამოსახულება ტანკერის უკანა ნაწილიდან. თუ ეს გინახავთ, იცით, რამდენად მომხიბვლელი შეიძლება იყოს. აი, თქვენ და თქვენი მანქანა, ასახული ტანკერის სატვირთო მანქანის სარკისებურ ანარეკლში.

დაჯექი გიჟური ირონიასთვის.

ტანკერის უკან დგას თვითმართვადი მანქანა. კამერები აფიქსირებენ მანქანის სურათს, რომელიც სარკისებურ ანარეკლშია ნაჩვენები. უი, AI აფასებს, ეს მანქანაა? მოდის თვითმართვადი მანქანით? რაც უფრო და უფრო უახლოვდება თვითმართვადი მანქანა ტანკერს, მანქანა თითქოს უფრო და უფრო უახლოვდება.

დიახ, AI გამოთვლით შეიძლება გამოთვალოს, რომ ეს არის სახიფათო სიტუაცია და AI-მ უნდა მიიღოს ავარიული ქმედება ამ გიჟური თაღლითური მანქანისგან. ხედავთ, AI არ ცნობდა საკუთარ თავს სარკეში. სარკის ტესტში ჩავარდა.

Რა უნდა ვქნა? შესაძლოა, ხელოვნური ინტელექტის თვითშეგნების ორმაგი შემოწმება ამ საკითხში გადახტება და არწმუნებს AI მართვის სისტემის დანარჩენ წევრებს, რომ ეს მხოლოდ უვნებელი ანარეკლია. საფრთხე თავიდან აიცილა. სამყარო გადარჩენილია. AI Mirror ტესტის წარმატებით ჩაბარება!

ცალსახა დასკვნის საშუალებით შეიძლება ვივარაუდოთ, რომ ხანდახან ხელოვნური ინტელექტი უფრო ჭკვიანია ან სულაც უფრო თვითშეგნებული ვიდრე საშუალო დათვი (თუმცა, დათვების დამსახურებით, ისინი ჩვეულებრივ კარგად ახერხებენ სარკის ტესტს, ხშირად იღებენ გამოიყენება მათი ასახვა წყლის აუზებში).

შესწორება, შესაძლოა, ხელოვნური ინტელექტი უფრო თვითშეგნებული იყოს, ვიდრე გიგანტური პანდები და ზღვის ლომები, მაგრამ ნუ უთხარით ცხოველებს, რომ მათ შეიძლება გაუჩნდეთ ცდუნება დაანგრიონ ან დაარღვიონ AI სისტემები. ჩვენ ეს არ გვინდა, არა?

წყარო: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/