ხელოვნური ინტელექტის ეთიკა, რომელიც ებრძვის ხელოვნური ინტელექტის ალგორითმული მონოკულტურის მზაკვრულ ერთგვაროვან გონებას, მათ შორის ავტონომიური თვითმართვადი მანქანებისთვის

მოდით შევხედოთ ცოტა დამაბნეველ თავსატეხს.

ამბობენ, რომ დიდი გონება ერთნაირად ფიქრობს.

თქვენ უდავოდ არაერთხელ გსმენიათ ეს მოსახერხებელი გამოთქმა. უსაქმური საუბრების დროს, თუ თქვენ და კოლეგა ან მეგობარი ერთსა და იმავე მომენტში ერთსა და იმავე აზრზე ახერხებთ, ერთ-ერთი თქვენგანი აუცილებლად გაიხარებს, რომ დიდი გონება ერთნაირად ფიქრობს. ეს უდავოდ მაამებელი განცხადებაა თქვენზე და თქვენს თანამოძმეზე.

არსებობს ბრძენის სიბრძნის კიდევ ერთი ნაწილი, რომელიც შეგვიძლია დავამატოთ ამ ნარევს.

ამბობენ, რომ სულელები იშვიათად განსხვავდებიან.

მინდა ოდნავ გადავიხადო ეს ანდაზა. ერთი შეხედვით გონივრულად ექვივალენტური გამონათქვამი იქნება, რომ სულელები ერთნაირად ფიქრობენ. მე მესმის, რომ თქვენ შეიძლება გარკვეულწილად იჩხუბოთ ცნობილი სტრიქონის გადაკეთებაზე. მიუხედავად ამისა, შედარებით ზუსტი ჩანს, რომ თუ სულელები იშვიათად განსხვავდებიან, შეგიძლიათ დავასკვნათ, რომ სულელები ძირითადად მიდრეკილნი არიან მსგავსი აზროვნებისკენ. ვიმედოვნებ, რომ ეს არ გამოიწვევს ზედმეტ გულძმარვას ან შეშფოთებას წმინდა სიბრძნის ნაწილის გადახრილ ცვლილებასთან დაკავშირებით.

ჩვენ ახლა ამ დილემის საშიშ მომენტში ვართ.

დავუშვათ, რომ ჩვენ ღიად ვამტკიცებთ მოსაზრებას, რომ დიდი გონები ერთნაირად ფიქრობენ, ზოგადად ჭეშმარიტია, და ჩვენ იმავე ამოსუნთქვით ვამტკიცებთ მტკიცებას, რომ სულელები ერთნაირად ფიქრობენ, ასევე მართალია. როდესაც შეხვდებით ადამიანთა ჯგუფს, რომლებიც ყველა ერთნაირად ფიქრობს, მე უნდა დაგისვათ მარტივი შეკითხვა.

ისინი ყველა დიდი გონებით არიან თუ ყველა სულელები არიან?

უი!

დიდი გონების შესახებ წესის მიხედვით, ისინი, სავარაუდოდ, დიდად მოაზროვნეები არიან. თავის მხრივ, სულელების შესახებ წესის თანახმად, ისინი აშკარად სულელები არიან. როგორც ჩანს, პრობლემა გვაქვს. შეიძლება დარწმუნდეთ, რომ შესაძლოა ეს თანამოაზრე მოაზროვნეები ძალიან მოაზროვნეები და სულელები არიან. შეგიძლიათ ორივე ერთდროულად იყოთ? როგორც ჩანს, თქვენ ცდილობთ კითხვის დასმას.

თქვენ შეიძლება მხურვალედ ამტკიცებდეთ, რომ ერთნაირი აზროვნება არაფერს გადმოსცემს იმის შესახებ, შეკრება დიდად ფიქრობს თუ სულელურად. ჩვენ, ალბათ, უნებლიეთ ლოგიკა თავდაყირა დავაყენეთ. ადამიანების ნებისმიერი ნაკრები, რომელიც ერთნაირად ფიქრობს, უბრალოდ ერთნაირად ფიქრობს. თქვენ არ შეგიძლიათ შეეცადოთ გადაფაროთ მათი აზროვნების მსგავსება იმით, რომ შეაფასოთ როგორც დიდი გონების ერთობლიობა ან სულელური გონება. ისინი შეიძლება იყვნენ დაბნეული გონება. ისინი შეიძლება დაარწმუნონ გონებაში. არსებითად, დახასიათება შეიძლება სულაც არ მოხვდეს გარკვეულწილად ცრუ დიქოტომიაში, იყო მხოლოდ დიდი ან სულელი.

არსებობს ყველა სახის შეხედულება, რომელიც ერთვის პარამეტრებს, რომლებიც მოიცავს მსგავსი გონების მქონე ადამიანებს.

გავრცელებული ინფორმაციით, მაჰათმა განდიმ თქვა, რომ მტკიცე და თანამოაზრე ადამიანების მცირე ჯგუფს შეუძლია შეცვალოს ისტორიის მიმდინარეობა. ეს უდავოდ აჩვენებს მსგავსი გონების არსებობის უზარმაზარ ძალას. პლატონმა გააფრთხილა, რომ როდესაც საქმე ეხება დახურულ აზრებს, რომლებიც შეიძლება ვარაუდობდეთ, რომ შეიძლება იყოს ერთნაირი მოაზროვნე ადამიანების დაუმორჩილებელი ნაკრები, შეგიძლიათ მიიღოთ ეს: „მხოლოდ ამის უნდა გეშინოდეს: დახურული გონების, მძინარე წარმოსახვის, სულის სიკვდილი."

სად მივდივარ მსგავსი გონების ცნობისმოყვარეობის ამ ლიტანობით?

გამოდის, რომ არსებობს შეშფოთება, რომ ხელოვნური ინტელექტი თანდათან გვიბიძგებს გარდაუვალ და არასასურველ გზაზე, რომ გვქონდეს თანამოაზრე AI ალგორითმები, რომლებიც მართავენ ჩვენს ყოველდღიურ საქმიანობას. ამას მოკლედ მოიხსენიებენ, როგორც AI ალგორითმული მონოკულტურა.

ჩვენ მივდივართ იმ გარემოებამდე, როდესაც საზოგადოება ეყრდნობა AI-ის გავრცელებულ სისტემებს, რომლებსაც შეიძლება ჰქონდეთ იგივე ან თითქმის იგივე ფუძემდებლური ალგორითმული შესაძლებლობები. ამ თვალსაზრისით, ჩვენ დაუცველები ვართ ერთნაირი აზროვნების მიმართ მასიური მასშტაბით, რომელიც იარსებებს მთელ მსოფლიოში.

სანამ ამ თემას შევეხები, მსურს დაუყოვნებლივ განვმარტო, რომ მე არ ვგულისხმობ AI-ს, რომელიც მგრძნობიარეა. როგორც ცოტა ხანში აგიხსნით, დღეს ჩვენ არ გვაქვს მგრძნობიარე AI. მიუხედავად იმ ველური და გაფართოებული სათაურებისა, რომლებიც აცხადებენ, რომ ჩვენ გვაქვს მგრძნობიარე ხელოვნური ინტელექტი, ეს აბსოლუტურად ასე არ არის და სრულიად უგულებელყოფილი უნდა იყოს.

ამ მნიშვნელოვანი პუნქტის ხაზგასმის მიზეზი არის ის, რომ როდესაც მე გამოვხატავ AI-ს, როგორც „ერთმოაზროვნე“, არ მინდა, რომ გადახტე დასკვნამდე, რომ დღევანდელი AI არის რაღაცნაირად ადამიანის გონების ექვივალენტი. რათქმაუნდა არაა. გთხოვთ, ნუ გააკეთებთ ასეთ ანთროპომორფულ ასოციაციას. ჩემი ერთგვაროვანი ფრაზების გამოყენება მხოლოდ მიზნად ისახავს ხაზგასმით აღვნიშნო, რომ ხელოვნური ინტელექტის ალგორითმები შეიძლება იყოს შედგენილი ისე, რომ ისინი მუშაობდნენ იმავე გზით. თუმცა, ისინი არ „აზროვნებენ“ რაიმე მსგავსებაზე იმაზე, რასაც ჩვენ განვმარტავთ, როგორც ადამიანის აზროვნების ხარისხს. ამაზე ცოტა ხანში უფრო მეტს ვიტყვი.

ხელოვნური ინტელექტი, რომელიც „ერთნაირი მოაზროვნეა“ ალგორითმული მონოკულტურული კონსტრუქციის არსებობის თვალსაზრისით, არის ის, რაც შეგვიძლია შევაფასოთ, როგორც ერთდროულად ცუდიც და კარგიც. საქმის ცუდი მხარე ის არის, რომ თუ ეს საყოველთაოდ გამოყენებული და გამოყენებული ერთნაირი AI სავსეა მიკერძოებითა და დისკრიმინაციული ჩანართებით, AI სავარაუდოდ მზაკვრულად იქნება გამოყენებული ფართოდ და ყველგან გაავრცელებს ამ არასასიამოვნო პრაქტიკას. საქმის კარგი მხარე ის არის, რომ თუ ხელოვნური ინტელექტი სათანადოდ არის შემუშავებული და კეთდება მიკერძოებისა და დისკრიმინაციული ჩანართების გარეშე, ჩვენ ვიმედოვნებთ, რომ სამართლიანობა ფართოდ გავრცელდება. ამ ყველაფერს აქვს ხელოვნური ხელოვნური ინტელექტის ეთიკა და ეთიკური ხელოვნური ინტელექტის გავლენა. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ.

აქ არის ჩემი მოსახერხებელი შვიდი წესი ხელოვნური ინტელექტის ალგორითმული მონოკულტურის შესახებ:

1) ხელოვნური ინტელექტის ალგორითმული მონოკულტურა შედგება იგივე ან თითქმის იგივე ფუძემდებლური ალგორითმების გამოყენებით, რომლებიც შემდეგ ფართოდ გამოიყენება ადამიანებზე ზემოქმედების მქონე გადაწყვეტილებების მისაღებად.

2) ასეთ AI-ს შეუძლია უზრუნველყოს თანმიმდევრულობა და საიმედოობა, თუმცა ეს არის ორლესიანი ხმალი

3) ერთი მხარე არის ის, რომ ხელოვნური ინტელექტი, რომელიც უარყოფით მიკერძოებას ავრცელებს, ადვილად ვრცელდება და გამოიყენება არაერთხელ არასასურველი გზებით (ეს ცუდია)

4) მეორე მხარე არის ის, რომ ხელოვნური ინტელექტი, რომელიც განასახიერებს სამართლიანობას და სხვა სამართლიანად სასურველ თვისებებს, საბედნიეროდ შეიძლება ფართოდ გავრცელდეს (ეს კარგია)

5) არსებობს გარკვეული სახის სისტემური დაუცველობა ამ კალიბრის ხელოვნური ინტელექტის ჰომოგენურობისას და შეიძლება მნიშვნელოვნად შემცირდეს დამღუპველი დარტყმებით

6) ხელოვნური ინტელექტის ჰეტეროგენულობა შეიძლება ზოგჯერ იყოს უპირატესი, თუმცა ეს იწვევს დიდი შეუსაბამობების შეშფოთებას, რომელიც შეიძლება წარმოიშვას

7) ჩვენ ყველამ უნდა ვიფიქროთ, თვალყური ადევნოთ და ვებრძოლოთ AI ალგორითმულ მონოკულტურას

სანამ ხორცსა და კარტოფილს შევეხებით ველური და მატყლის მოსაზრებებს, რომლებიც ემყარება ხელოვნური ინტელექტის ალგორითმული მონოკულტურას, მოდით დავადგინოთ რამდენიმე დამატებითი საფუძვლები ღრმად ინტეგრალურ თემებზე. ჩვენ მოკლედ უნდა ჩავუღრმავდეთ AI ეთიკას და განსაკუთრებით მანქანური სწავლების (ML) და ღრმა სწავლის (DL) გამოჩენას.

შეიძლება ბუნდოვნად იცოდეთ, რომ ერთ-ერთი ყველაზე ხმამაღალი ხმა ამ დღეებში ხელოვნური ინტელექტის სფეროში და თვით ხელოვნური ინტელექტის სფეროს მიღმაც კი მოიცავს ეთიკური ხელოვნური ინტელექტის უფრო გარეგნობის მოთხოვნას. მოდით გადავხედოთ რას ნიშნავს AI ეთიკასა და ეთიკურ AI-ზე მითითება. ამის გარდა, ჩვენ განვიხილავთ რას ვგულისხმობ, როდესაც ვსაუბრობ მანქანურ სწავლასა და ღრმა სწავლებაზე.

ხელოვნური ინტელექტის ეთიკის ერთი კონკრეტული სეგმენტი ან ნაწილი, რომელიც მედიის დიდ ყურადღებას იპყრობს, შედგება ხელოვნური ინტელექტისგან, რომელიც ავლენს არასასურველ მიკერძოებას და უთანასწორობას. შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

ცოტა ხანში მე გაგიზიარებთ რამდენიმე ყოვლისმომცველ პრინციპს, რომელიც საფუძვლად უდევს AI ეთიკას. უამრავი ასეთი სახის სია ტრიალებს აქეთ-იქით. შეიძლება ითქვას, რომ ჯერ კიდევ არ არსებობს უნივერსალური მიმართვისა და თანხმობის ერთიანი სია. ეს არის სამწუხარო ამბავი. კარგი ამბავი ის არის, რომ სულ მცირე, არსებობს AI ეთიკის სიები და ისინი საკმაოდ მსგავსია. ყოველივე ამის შემდეგ, ეს იმაზე მეტყველებს, რომ რაიმე სახის დასაბუთებული კონვერგენციით ჩვენ ვპოულობთ გზას ზოგადი საერთოობისკენ, რისგან შედგება AI ეთიკა.

პირველ რიგში, მოდი მოკლედ გავაშუქოთ ეთიკური ხელოვნური ინტელექტის ზოგადი პრინციპები იმის საილუსტრაციოდ, თუ რა უნდა იყოს სასიცოცხლოდ მნიშვნელოვანი ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს AI-ს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესებისა და ოპერატიული მეთოდების, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიების, მონაცემთა წყაროების, დიზაინის პროცედურებისა და დოკუმენტაციის შესახებ.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

მოდი ასევე დავრწმუნდეთ, რომ ერთსა და იმავე გვერდზე ვართ დღევანდელი AI-ის ბუნების შესახებ.

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ ვერ იწინასწარმეტყველებს, მივაღწევთ თუ არა მგრძნობიარე ხელოვნურ ინტელექტს, და არც სპონტანურად წარმოიქმნება თუ არა გამოთვლითი შემეცნებითი სუპერნოვას სახით (როგორც წესი, სინგულარობა მოიხსენიება, იხილეთ ჩემი გაშუქება აქ. ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ გვინდოდა ველური სპეკულირება სენტიმენტალური AI, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შესაძლოა გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური AI, როგორც შესაძლებლობის ჩემი შესწავლისთვის, იხ. გაშუქება აქ).

მოდით, ყველაფერი უფრო ახლოს მივიღოთ და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ AI დეველოპერები შეამოწმებენ პოტენციურად დამარხულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი იმისა, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონის შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

მოდით დავუბრუნდეთ ჩვენს ყურადღებას AI ალგორითმულ მონოკულტურაზე.

როგორც ჩანს, ჩვენ ყველანი გვესმის, რომ დღევანდელ ურთიერთდაკავშირებულ ციფრულ სამყაროში, ჩვენ შეგვიძლია დაგვაშავოს თუნდაც მცირეოდენი მცირე მონაცემების არსებობა, რომლებიც განთავსებულია მონაცემთა ბაზაში და თითქოს მიდის სადაც არ უნდა წავიდეთ. მაგალითად, დავუშვათ, რომ არსებობს მონაცემთა ბაზა, რომელიც შეიცავს მონაცემებს, რომელიც შეიცავს ინდიკატორს, რომ თქვენ არ ხართ კრედიტუნარიანი. ეს შეიძლება იყოს ჭეშმარიტი თქვენს შესახებ ან შეიძლება იყოს სრულიად მცდარი. თქვენ შეიძლება იცოდეთ, რომ მონაცემთა ბაზა შეიცავს ამ ინფორმაციას ან შეიძლება საერთოდ არ იცოდეთ ამის შესახებ. ეს არის მონაცემებით დატვირთული სამყაროს ერთი დიდი აურზაური, რომელშიც ჩვენ ყველანი ვართ ჩაძირული.

მონაცემთა ბაზა, რომელიც შეიცავს ამ ინდიკატორს, ადვილად შეძლებს თქვენს შესახებ ამ სასიცოცხლო ასპექტის გაზიარებას სხვა მონაცემთა ბაზებთან. თვალის დახამხამებაში, ელექტრონულად დაკავშირებულ მონაცემთა ბაზებს მთელ მსოფლიოში შეიძლება ჰქონდეს ახლა გადაცემული დროშა, რომ თქვენ არ ხართ კრედიტუნარიანი. თუ სესხზე განაცხადის მიღებას აირჩევთ, სავარაუდოა, რომ სესხის დამტკიცების აპი მიაღწევს ერთ-ერთ ამ მონაცემთა ბაზას და მოიძიებს დროშას, რომელიც ამბობს, რომ თქვენ უნდა მოგეპაროთ. შეიძლება სცადოთ სესხის აღება მსოფლიოს ერთ-ერთ კუთხეში ყოფნისას და უარი თქვათ. სხვა რაიონში მოგზაურობამ შეიძლება ცოტა კარგი იყოს. მონაცემთა ბაზების ურთიერთდაკავშირება შეგაწუხებთ, რაც არ უნდა შორს იმოგზაუროთ.

საბედნიეროდ, არსებობს სხვადასხვა კანონი მონაცემთა და კონფიდენციალურობის შესახებ, რომლებიც თანდათან ამოქმედდა. კანონები მკვეთრად განსხვავდება ქვეყნიდან ქვეყანაში. ისინი ასევე შეიძლება განსხვავდებოდეს სახელმწიფოდან სახელმწიფოში. მაგრამ მაინც არის გაცნობიერებული საფრთხის შესახებ, რომელიც დაკავშირებულია მონაცემთა ბაზებში მონაცემების არსებობასთან, რომლებსაც შეუძლიათ სწრაფად გაავრცელონ ინფორმაცია თქვენს შესახებ. იმედი გვაქვს, რომ გექნებათ იურიდიული საშუალება, რათა სცადოთ და თავიდან აიცილოთ ყალბი ინფორმაცია ან თუნდაც იცოდეთ, რომ ის თქვენს შესახებ არსებობს. იხილეთ ჩემი გაშუქება აქ ბმული აქ კონფიდენციალურობის შეჭრაზე და AI-ზე.

ვფიქრობ, შეგიძლიათ თქვათ, რომ მონაცემები თქვენს შესახებ არის ანდაზური ტიპის თამაში „ტეგი, შენ ხარ“ (რომელშიც ჩვენ ხანდახან გვსურს ვიყოთ მონიშნული ადამიანი, ზოგჯერ კი გვსურს ასე არ ვიყოთ მონიშნული).

Ღრმად ჩაისუნთქე.

დავუშვათ, ჩვენ ვატრიალებთ ჯადოსნურ ჯოხს და შეგვიძლია სასწაულებრივად დავრწმუნდეთ, რომ თქვენს შესახებ მონაცემთა ერთგვაროვნება არ მოხდება. ჩვენ შეგვიძლია მთელი საზოგადოება გავაერთიანოთ და შევაჩეროთ მსგავსი ქმედებები. თქვენ შეიძლება ჩათვალოთ, რომ აღარ ხართ ასეთი შეშფოთების საფრთხის წინაშე.

უკაცრავად, თქვენ გამოტოვებთ AI ალგორითმული მონოკულტურის მიერ დაწესებულ საფრთხეებს.

აი რატომ.

ჩვენ დავუბრუნდებით სესხის აღების მცდელობის მაგალითს. წარმოიდგინეთ, რომ მიდიხართ გამსესხებელთან და ისინი იყენებენ AI სისტემას, რომელსაც აქვს კონკრეტული ალგორითმი, რომელსაც ჩვენ ვუწოდებთ ალგორითმს Y. თქვენს შემთხვევაში, როდესაც მიმართავთ და მიუთითებთ თქვენს დეტალებს, Y ალგორითმი იწერება ისე, რომ ის მათემატიკურად განსაზღვრავს, უარი თქვან თუ არა სესხზე. არსებითად, ამ ალგორითმს შეუძლია „გადაწყვიტოს“, რომ თქვენ არ ხართ კრედიტის ღირსი.

ყურადღება მიაქციეთ, რომ ამ შემთხვევაში ჩვენ ვამტკიცებთ, რომ AI არ მიუწვდებოდა მონაცემთა ბაზას თქვენი საკრედიტო ღირსების დაგროვების მიზნით. ამრიგად, არ არსებობს შანსი, რომ AI-მ შეცვალა გარკვეული მონაცემების საფუძველზე, რომლებიც იჯდა მონაცემთა ბაზაში აქ ან იქ. მთელი არჩევანი გაკეთდა Y ალგორითმის მეშვეობით ჩართულ გამოთვლებთან დაკავშირებით.

AI მიუთითებს, რომ თქვენ უარი თქვით სესხზე. დარწმუნებული ვარ, რომ იმედგაცრუებული დარჩებით ამ შედეგით. შესაძლოა, მხრები აიჩეჩოთ და სხვა კრედიტორთან წასვლა გადაწყვიტეთ. კიდევ ერთხელ, თქვენ ზუსტად იცით, რომ არ არსებობს მონაცემთა ბაზა, რომელიც გამოგყავთ კამათიდან. თქვენი აზრით, ყველაფერი რაც თქვენ უნდა გააკეთოთ არის განაგრძოთ მცდელობა სხვადასხვა კრედიტორებთან და საბოლოოდ მიიღებთ მწვანე შუქს.

სხვა კრედიტორთან წასვლის შემდეგ, თქვენ კიდევ ერთხელ მიიღებთ უარყოფას. ეს შემაშფოთებელია. თქვენ ცდილობთ სხვა კრედიტორს, მაგრამ თქვენ სწრაფად უარს იტყვით. ერთმანეთის მიყოლებით, ყოველი მცდელობა იწვევს იმავე შემაძრწუნებელ შედეგს. გაბრაზებული ხარ. უსასრულოდ გაბრაზებული ხარ.

რა ჯანდაბა ხდება?

ყველა ამ გამსესხებელმა ფარულად მოაწყო შეთქმულება, რომ დარწმუნდეთ, რომ არ მიიღებთ სესხს?

მოკლე პასუხი არის „არა“ და ჩვენ ვაპირებთ ვთქვათ, რომ მათ თავისთავად არ შეთქმულებია. სამაგიეროდ, ყველამ გამოიყენა ალგორითმი Y. ისინი არ „შეთქმულები“ ​​იმ გაგებით, რომ შეკრებილიყვნენ უკანა ოთახში და დათანხმდნენ გამოიყენონ ალგორითმი Y თავიანთ AI-ში. არ ყოფილა მაფიოზური შეკრება, რომელიც ეთქვა, რომ ისინი ყველა გამოიყენებდნენ ალგორითმს Y. როგორც გვერდითი შენიშვნა, შეიძლება ვივარაუდოთ, რომ ეს მართლაც შეიძლება მოხდეს, მაგრამ განხილვის მიზნით ჩვენ ვაპირებთ ამ ალტერნატივების მხარეს გადავდოთ. .

არსებობს სრულიად საღად მოაზროვნე მიზეზი იმისა, რომ ალგორითმი Y შეიძლება გამოიყენოს ყველა ამ ცალკეულმა და ცალკეულმა კრედიტორმა. შესაძლოა, Y ალგორითმი ხელმისაწვდომი იყოს ღია წყაროს სახით. ხელოვნური ინტელექტის შემქმნელებმა თითოეულ ამ განსხვავებულ გამსესხებელში, შესაძლოა, თითოეულ შემთხვევაში მხოლოდ ღია წყაროს ბიბლიოთეკას მიუწვდებოდნენ და კოდის ეს ნაწილი დააკოპირეს თავიანთ AI სისტემაში.

ეს იყო ალბათ ყველაზე მარტივი და სწრაფი საშუალება სამუშაოს შესასრულებლად. არ არის საჭირო ნულიდან სცადოთ ამ ალგორითმის შექმნა Y. ონლაინ წვდომის რამდენიმე წუთში კოდირება უკვე დასრულებულია თქვენთვის და პირდაპირ მზად არის გამოსაყენებლად. დააკოპირეთ და ჩასვით. გარდა ამისა, თქვენ შეგიძლიათ თავიდან აიცილოთ კოდის ნებისმიერი გამართვა. თქვენი ვარაუდი შეიძლება იყოს, რომ კოდი უკვე კარგად არის გამოცდილი და არ არის საჭირო ბორბლის ხელახლა გამოგონება.

კარგი, ასე რომ, გამსესხებელი კრედიტორს ყველა უდანაშაულოდ ირჩევს გამოიყენოს ალგორითმი Y. არსებობს დიდი შანსი, რომ ალგორითმი Y გახდეს ცნობილი როგორც „ოქროს სტანდარტი“, რომელიც გამოყენებული იქნება საკრედიტო ღირებულების დასადგენად. და ეს ამ კონკრეტული ალგორითმის მიღებას კიდევ უფრო პოპულარულს გახდის. ხელოვნური ინტელექტის დეველოპერები არ ზოგავენ დროს მხოლოდ მისი გამოყენებით, ისინი ასევე უსაფრთხოდ თამაშობენ. ყველა დანარჩენი იფიცებს, რომ ალგორითმი გამოსაყენებლად გამოსადეგია. რატომ უნდა ებრძოლო ბრბოს სიბრძნეს? უგუნური ჩანდა ამის გაკეთება.

კეთილი იყოს თქვენი მობრძანება AI ალგორითმული მონოკულტურის ეპოქაში.

ჩვენ აქ ამ მაგალითის საშუალებით აღმოვაჩინეთ, რომ ერთი და იგივე ალგორითმი შეიძლება ადვილად იქნას გამოყენებული უამრავ AI სისტემაში. ამაზე განსაკუთრებული შეთქმულება არ არის. არავითარი სუპერ-დუპერ მოფიქრებული ბოროტი შეთქმულება ხელთ არ არის. ამ მავნე სქემების ნაცვლად, კონკრეტული ალგორითმი ხდება დომინანტური იმის გამო, რაც შეიძლება იყოს სათნო და სასარგებლო მიზეზების გამო.

გასულ წლებში არსებობდა იგივე ალგორითმების ფართო გამოყენების შესაძლებლობა, თუმცა მეტი დაბრკოლების გადალახვა იყო საჭირო. დღეს, ალგორითმის შესანახი ჰაბების გამოყენება თითქმის ძალისხმევის გარეშეა ხელმისაწვდომი. ღია წყარო უფრო მიღებულია, ვიდრე ეს იყო წინა თაობებში. Და ასე შემდეგ.

კრედიტორის ერთი მაგალითით, რომელსაც ჩვენ ვიკვლევდით, შეიძლება მივიღოთ ორი გამსესხებელი, ოცი გამსესხებელი, ორასი გამსესხებელი, ორი ათასი კრედიტორი, ან შესაძლოა ასობით ათასი კრედიტორი, რომლებიც ყველა ირჩევენ გამოიყენონ იგივე ალგორითმი Y თავიანთ საქმიანობაში. AI. ალგორითმი AI არის დარწმუნებული. ის ირჩევა და ჩანერგილია AI-ში მთელს მსოფლიოში.

წითელ დროშებს არავინ აღმართავს. ამის გაკეთების აშკარა მიზეზი არ არსებობს. თუ რამეა, წითელი დროშა შეიძლება აღიმართოს, როდესაც ზოგიერთი კრედიტორი აირჩევს არ გამოიყენოს ალგორითმი Y. ჰეი, შეიძლება დაისვას შეკითხვა, თქვენ არ იყენებთ Y ალგორითმს. რას იძლევა? მიზანმიმართულად ცდილობთ რაიმე გაუგებარი ან ბინძური გააკეთოთ? შეასრულეთ თქვენი მოქმედება და შეეგუეთ ყველა დანარჩენს.

გააფართოვეთ ეს იგივე კონცეპტუალური მონოკულტურა ყველა სახის ხელოვნური ინტელექტის სისტემებზე და ყველა სახის ალგორითმზე.

კვლევითმა კვლევამ ფენომენები ასე აღწერა: „საზოგადოებრივი არჩევანის ფორმირებისთვის გამოყენებული ალგორითმების ზრდას თან ახლდა შეშფოთება მონოკულტურაზე - მოსაზრება, რომ არჩევანი და პრეფერენციები ერთგვაროვანი გახდება ალგორითმული კურაციის პირობებში“ (ჯონ კლაინბერგა და მანიშ რაღავანა, "ალგორითმული მონოკულტურა და სოციალური კეთილდღეობა" PNAS 2021). ისინი ასევე აღნიშნავენ: „მაშინაც კი, თუ ალგორითმები უფრო ზუსტია თითოეული შემთხვევის საფუძველზე, სამყარო, რომელშიც ყველა ერთსა და იმავე ალგორითმს იყენებს, მიდრეკილია კორელაციური წარუმატებლობისთვის, როდესაც ალგორითმი აღმოჩნდება არახელსაყრელ პირობებში“.

ახლა ჩვენ შეგვიძლია სასარგებლოდ გადავხედოთ ჩემს ადრეულ შვიდ წესს AI ალგორითმული მონოკულტურის შესახებ:

1) ხელოვნური ინტელექტის ალგორითმული მონოკულტურა შედგება იგივე ან თითქმის იგივე ფუძემდებლური ალგორითმების გამოყენებით, რომლებიც შემდეგ ფართოდ გამოიყენება ადამიანებზე ზემოქმედების მქონე გადაწყვეტილებების მისაღებად.

2) ასეთ AI-ს შეუძლია უზრუნველყოს თანმიმდევრულობა და საიმედოობა, თუმცა ეს არის ორლესიანი ხმალი

3) ერთი მხარე არის ის, რომ ხელოვნური ინტელექტი, რომელიც უარყოფით მიკერძოებას ავრცელებს, ადვილად ვრცელდება და გამოიყენება არაერთხელ არასასურველი გზებით (ეს ცუდია)

4) მეორე მხარე არის ის, რომ ხელოვნური ინტელექტი, რომელიც განასახიერებს სამართლიანობას და სხვა სამართლიანად სასურველ თვისებებს, საბედნიეროდ შეიძლება ფართოდ გავრცელდეს (ეს კარგია)

5) არსებობს გარკვეული სახის სისტემური დაუცველობა ამ კალიბრის ხელოვნური ინტელექტის ჰომოგენურობისას და შეიძლება მნიშვნელოვნად შემცირდეს დამღუპველი დარტყმებით

6) ხელოვნური ინტელექტის ჰეტეროგენულობა შეიძლება ზოგჯერ იყოს უპირატესი, თუმცა ეს იწვევს დიდი შეუსაბამობების შეშფოთებას, რომელიც შეიძლება წარმოიშვას

7) ჩვენ ყველამ უნდა ვიფიქროთ, თვალყური ადევნოთ და ვებრძოლოთ AI ალგორითმულ მონოკულტურას

როგორც აღინიშნა ჩემს წესში #2, არსებობს აშკარად ორლესიანი ხმალი ხელოვნური ინტელექტის ალგორითმული მონოკულტურის შესახებ.

ჩემი წესის # 3-ის მიხედვით, თქვენ შეიძლება მოხვდეთ ჯოხის მოკლე ბოლოზე. თუ თქვენ უარყოფთ კრედიტორს კრედიტორის შემდეგ, სადაც არ უნდა წახვიდეთ, და თუ ალგორითმი Y ამას აკეთებს მიკერძოებულობის ან სხვა შეუსაბამო საფუძველზე, თქვენ სამწუხაროდ დაწყევლილი ხართ. თქვენ ბევრად უფრო გაგიჭირდებათ ამის გადატრიალების მცდელობა. მონაცემთა ბაზაში თქვენს შესახებ მონაცემების შემთხვევაში, თქვენ გექნებათ გარკვეული სამართლებრივი რესურსი და ასევე ზოგადი აღიარება იმისა, თუ რისი გაკეთება შეუძლია ცუდ მონაცემებს. ცოტას თუ გაიგებს, რომ ცუდი ალგორითმი მიგყვება დედამიწის კიდეებამდე.

ჩემი წესით #4, არსებობს AI ალგორითმული მონოკულტურის პოტენციალი. დავუშვათ, რომ ალგორითმი Y სამართლიანად გიშლით ხელს სესხის აღებაში. თქვენ შეიძლება ცდილობდით მოტყუებით და საზიანოდ მოატყუოთ რაღაცეები საყიდლებზე. იმის გამო, რომ იგივე ალგორითმი Y ფართოდ გამოიყენება, თქვენი შოპინგი ნაკლებად სავარაუდოა, რომ ოქროს დარტყმა მოახდინოს. თუმცა შეიძლება არ მოგვწონდეს ალგორითმის სამართლიანობის მუდმივი და არაჩვეულებრივი შესაძლებლობის იდეა (თუ არსებობს ასეთი რამ, იხილეთ ჩემი ანალიზი აქ ბმული აქ), ჩვენ შეგვიძლია გავიხაროთ, როდესაც კარგი რამ ფართოდ ვრცელდება.

მოდით შემდეგ ვისაუბროთ შოკებზე.

ჩემს წესში #5, მე აღვნიშნავ, რომ არსებობს ძირითადი ეჭვები, რომ ხელოვნური ინტელექტის ალგორითმული მონოკულტურა შეიძლება დაექვემდებაროს მასიურ დარღვევას. ეს მარტივად აიხსნება. წარმოიდგინეთ, რომ Y ალგორითმში არის პროგრამული ხარვეზი. ეს ვერავინ შენიშნა. საუკუნეების განმავლობაში ის იმალებოდა იქ აშკარად. იმ შემთხვევაში, თუ ეჭვი გეპარებათ, რომ ეს ოდესმე შეიძლება მოხდეს, კერძოდ, რომ შეცდომა იქნება ღია კოდის კოდით და ჯერ კიდევ ადრე არ არის ნაპოვნი, იხილეთ ჩემი გაშუქება: ბმული აქ ასეთი შემთხვევების.

შეცდომა ჩნდება და იწვევს, რომ Y ალგორითმი აღარ იქნება კოდის განდიდებული ნაწილი, რომელიც ყველას ეგონა. გააცნობიერე, რომ ეს ხარვეზი ზის იმ ათასობით და ათასობით AI სისტემაში. მოკლედ, შეცდომა შეიძლება შეგვხვდეს მთელს პლანეტაზე და ჩვენ სწრაფად აღმოვჩნდებით საშინელი არეულობის წინაშე. მას შემდეგ, რაც ყველამ თავისი კვერცხები ერთ კალათაში მოათავსა, და რადგან კალათა ახლა სრულიად დაზიანებულია, იგივე ხდება მთელ მსოფლიოში.

ეპიკური მასშტაბის კატასტროფა.

თეორიულად, ეს არ მოხდებოდა, თუ გამსესხებლები თითოეულს შექმნიდნენ საკუთარ ალგორითმს. დიდი შანსია, რომ თუ ერთ მათგანს აქვს შეცდომა, სხვებს არ ექნებათ. იმ შემთხვევაში, თუ ყველა მათგანი იყენებს ერთსა და იმავე საბაზისო კოდს, ყველა მათგანს აქვს იგივე შეცდომა.

ჯანდაბა, თუ არა, ჯანდაბა, თუ არა.

დარწმუნებული ვარ, რომ ზოგიერთი თქვენგანი ყვიროდა, რომ კარგი ამბავი მონოკულტურულ გარემოში არსებული ხარვეზის შესახებ არის ის, რომ თუ გამოსასწორებელია ხელმისაწვდომი, ყველას შეუძლია იგივე გამოსწორება. ეს, როგორც ჩანს, ნათელი და მზიანი გზაა ამ საკითხზე. დიახ, ეს შეიძლება იმუშაოს. თუმცა, არსი აქ არის ის, რომ არსებობს გაზრდილი შანსი ბორტზე დარღვევის. მაშინაც კი, თუ რეზოლუცია შეიძლება უფრო ადვილად გაუმკლავდეს, თქვენ მაინც აწყდებით მასიური შეფერხების წინაშე მონოკულტურული ასპექტების გამო.

გარდა შეცდომის შემთხვევისა, რომელმაც შეიძლება გამოიწვიოს შოკი, ჩვენ უხვად შეგვიძლია გამოვიყენოთ მრავალი სხვა შემაშფოთებელი სცენარი. ერთი იქნება კიბერ თაღლითი, რომელიც შეიმუშავებს ბოროტ გზას პოპულარული ალგორითმის უზურპაციისთვის. ბოროტმოქმედს შეეძლო ბონაზა ჰქონოდა ხელში. მათ შეუძლიათ AI-დან AI-ზე გადასვლა, აიძულონ ხელოვნური ინტელექტი რაღაც საზიზღრად გააკეთოს. ყველაფერი იმიტომ, რომ ერთი და იგივე ალგორითმი გამოიყენებოდა არაერთხელ. მასიური მასშტაბი შეიძლება გამოყენებულ იქნას სიკეთისთვის და, სამწუხაროდ, შეიძლება პოტენციურად იქნას გამოყენებული ბოროტებისთვის.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურთ რამდენიმე საილუსტრაციო მაგალითი, რომელიც შეიძლება აჩვენოს ეს თემა. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა რაიმე ხელოვნურ ინტელექტის ალგორითმულ მონოკულტურაზე და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და AI ალგორითმული მონოკულტურა

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

ვიმედოვნებ, რომ ეს უზრუნველყოფს საკმარის უამრავ სიფრთხილეს, რომ ემყარებოდეს იმას, რასაც მე ვაპირებ.

ჩვენ დავიწყებთ რამდენიმე მნიშვნელოვანი საფუძვლის ჩამოყალიბებით. ხელოვნური ინტელექტის მართვის სისტემების შემუშავება მიმდინარეობს, რათა სცადონ და უსაფრთხოდ მართონ თვითმართვადი მანქანები. ზოგიერთი ავტომწარმოებელი და თვითმართვადი ტექნიკური ფირმა ახორციელებს კოდირებას საკუთრების გზით. სხვები ეყრდნობიან ღია კოდის კოდს.

წარმოიდგინეთ, რომ ზოგიერთი ალგორითმი Z ხელმისაწვდომია ღია კოდის საცავებში და მოსახერხებელია AI მართვის სისტემებში გამოსაყენებლად. ავტომწარმოებელი ან თვითმართვადი ტექნიკური ფირმა აერთიანებს Z ალგორითმს თავიანთ AI მართვის სისტემაში. ეს ინტეგრალურად იქნება ჩაქსოვილი მათ AI მართვის სისტემაში.

თუ ისინი გზებზე ათეულობით თვითმართვამდე მანქანას დააყენებენ, ყველა ეს ავტონომიური მანქანა შეიცავს Z ალგორითმს, როგორც ხელოვნური ინტელექტის მართვის სისტემის საბორტო პროგრამული უზრუნველყოფის ნაწილს. თანდათანობით, თუ ვივარაუდებთ, რომ თვითმართვადი მანქანები უსაფრთხოდ მართავენ, ფლოტი ზომით იზრდება გზებზე ოცამდე თვითმართვამდე მანქანამდე. მიღებულია გადაწყვეტილება შემდგომი გაზრდის შესახებ. მალე ამ ფლოტის ორი ათასი თვითმართვადი მანქანა ახლა ქუჩებსა და მაგისტრალებზეა. Და ასე შემდეგ.

სხვა ავტომწარმოებელი ასევე იყენებს Z ალგორითმს თავის მამოძრავებელ სისტემაში. ისინი ასევე განათავსებენ თავიანთ თვითმართველ მანქანებს. მათი ფლოტი ზომით გაიზარდა. მალე მათ ათასობით თვითმართვადი მანქანა ტრიალებს აქეთ-იქეთ.

მე მჯერა, რომ თქვენ ხედავთ, სად მიდის ეს.

ჩვენ შეგვიძლია აღმოვჩნდეთ ხელოვნური ინტელექტის ალგორითმულ მონოკულტურაში AI-ზე დაფუძნებული თვითმართვადი მანქანების გაჩენის ფონზე. ავტონომიური მანქანების მრავალ ბრენდსა და მოდელს შეიძლება ჰქონდეს კონკრეტული ალგორითმი, რომელიც გამოიყენება სადღაც მათი AI მართვის სისტემაში. ამაზე არანაირი შეთქმულება არ ყოფილა. არანაირი გრანდიოზული შეთქმულება არ არის.

იმის მხრივ, თუ რამდენი თვითმართვადი მანქანა შეიძლება გვყავდეს ოდესმე ჩვენს გზებზე, ამ თემაზე მწვავე დებატები მიმდინარეობს. ჩვენ ვიცით, რომ მხოლოდ შეერთებულ შტატებში დღეს არის დაახლოებით 250 მილიონი ადამიანი, რომელსაც მართავს მანქანა. ზოგიერთი ვარაუდობს, რომ ჩვენ დაგვჭირდება დაახლოებით 250 მილიონი თვითმართვადი მანქანა, თუ ვივარაუდებთ, რომ ჩვენ საბოლოოდ მოვხსნით ადამიანთა მართულ მანქანებს ან რომ ისინი ბუნებრივად იშლება და ჩანაცვლდება თვითმართვადი მანქანებით.

არც ისე სწრაფად, ზოგიერთი შეგონება. ადამიანებით მართული მანქანები დროის დაახლოებით 90%-ს ან მეტს ხარჯავენ გამოუყენებლად. ზოგადად, ადამიანების მიერ მოძრავი მანქანები გაჩერებულები სხედან და ელოდებათ მძღოლს, რომ მართოს ისინი. ხელოვნური ინტელექტის საფუძველზე დაფუძნებული თვითმართვადი მანქანები შეიძლება მართონ მუდმივად, დაახლოებით. შესაძლოა გქონდეთ ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანა, რომელიც 24×7 სიჩქარით მოძრაობს, გარდა ტექნიკური სამუშაოების ან სხვა საჭირო დროისა.

ამ შემთხვევაში, თქვენ არ დაგჭირდებათ 250 მილიონი თვითმართვადი მანქანა, რომ შეცვალოთ 250 მილიონი ადამიანის მიერ მართული მანქანები ერთი ერთზე. ალბათ 200 მილიონი თვითმართვადი მანქანა საკმარისი იქნება. შეიძლება 100 მილიონი. დანამდვილებით ვერავინ იტყვის. ამ საკითხის ჩემი შეფასებისთვის იხ ბმული აქ.

ამ მომენტისთვის მინდა აღვნიშნო, რომ ჩვენ შეიძლება გვყავდეს მილიონობით მილიონობით თვითმართვადი მანქანა, რომელიც საბოლოოდ ტრიალებს ჩვენს გზატკეცილებსა და გზებზე. რამდენი მათგანი გვექნება საბოლოოდ გზებზე, ეს არ არის გადამწყვეტი საზრუნავი ამ დისკურსის გულისთვის. უდავოდ ბევრი მილიონი იქნება. ზოგადად, ეს ზომა მნიშვნელოვანია ხელოვნური ინტელექტის ალგორითმული მონოკულტურისა და უპირატესობებისა და უარყოფითი მხარეების მასიური მასშტაბის შეხვედრის ძირითადი თვისების გამო.

აი ირონია.

საშინლად საშინელი მუნჯი იღბლით არის სერიოზული პრობლემა Z ალგორითმში, რომელიც მანამდე ვერავინ შეამჩნია. არის ხარვეზი, რომელიც გამოიწვევს AI მართვის სისტემის დანარჩენ ნაწილს.

Ცუდი ამბავი.

მათთვის, ვინც ხელოვნური ინტელექტის მართვის სისტემების შემუშავების პროცესში ხართ, მე მესმის, რომ ჩვეულებრივ არ მოგწონთ ასეთი უარესი სცენარი და თუმცა შანსი მცირეა, მაგრამ მაინც ღირს მათი განხილვა. ჩვენ არ შეგვიძლია თავი ქვიშაში შევინახოთ. სჯობს თვალები გქონდეთ ფართოდ გახელილი და შეეცადოთ თავიდან აიცილოთ ან მინიმუმ შეამსუბუქოთ ამ ტიპის უბედურებები.

თეორიულად, ხელოვნური ინტელექტის მქონე თვითმართვადი მანქანა, რომელიც შეიცავს ამ შეცდომას, შესაძლოა სცადოს შეეჯახოს და დაეჯახოს თითქმის ყველაფერს და ყველაფერს, რაც მის ხელთ არის ამისათვის. ხელოვნური ინტელექტი უბრალოდ აკეთებს ისე, როგორც ეს იყო "შემუშავებული" ამ პარამეტრში. ეს დამღუპველი იქნებოდა.

ზოგიერთი თქვენგანი შეიძლება ფიქრობდეს, რომ მხოლოდ იმის გამო, რომ AI თვითმართვადი მანქანა ხვდება, შეცდომა თავისთავად დიდ პრობლემას არ წარმოადგენს. მე ამას ვამბობ იმიტომ, რომ როგორც კი ხელოვნური ინტელექტის თვითმართვადი მანქანა დაეჯახა რაღაცას, როგორიცაა სატვირთო მანქანა ან სხვა, თავად მანქანა სავარაუდოდ ისე დაზიანდება, რომ ხელოვნური ინტელექტის მიერ მას აღარ შეუძლია აქტიური ხელმძღვანელობა შემდგომი ქაოსისა და განადგურების განსახორციელებლად. წყალში მკვდარია, ასე ვთქვათ.

კარგად, განიხილეთ ჩართული მასშტაბის ფაქტორი.

თუ არსებობს მილიონობით და მილიონობით თვითმართვადი მანქანა და ისინი ყველა ეყრდნობიან იმავე ჩაშენებულ ალგორითმს Z, მათ შესაძლოა სასტიკად შეასრულონ იგივე შეცდომა.

მე ვიცი და ვაღიარებ, რომ ეს ხარვეზი შეიძლება გამოსწორდეს ან დაძლიოს ელექტრონულად განაწილებული პროგრამული უზრუნველყოფის განახლების OTA (Over-The-Air) გამოყენებით. როგორც სწრაფი ფონზე, ბევრმა გაიგო OTA-ს გამოყენების უპირატესობები. როდესაც საჭიროა პროგრამული უზრუნველყოფის განახლება, თქვენ არ მოგიწევთ ხელოვნური ინტელექტის თვითმართვადი მანქანის გადაყვანა მანქანის სარემონტო მაღაზიაში ან დილერში. OTA შეიძლება გაკეთდეს ყველგან, სადაც არ უნდა იყოს თვითმართვადი მანქანა (შეზღუდვების ფარგლებში).

იმავდროულად, სანამ არ გავარკვევთ შეცდომის და გამოსწორების შესახებ, და სანამ მას OTA-ის საშუალებით გამოვგზავნით, გზებზე თვითმართვადი მანქანები კვლავ საეჭვო პოზაში იქნებიან. ზოგიერთი შეექმნა შეცდომას და წავიდა awk. სხვები ამის ზღვარზე არიან.

ჩვენ შეიძლება ვირჩევთ დაჟინებით მოვითხოვოთ, რომ ყველა თვითმართვადი ავტომობილი ამ მომენტისთვის უნდა გაჩერდეს ადგილზე და არ იქნას გამოყენებული მანამ, სანამ OTA დაფიქსირება არ გადაიცემა AI მართვის სისტემებში. წარმოიდგინეთ შეფერხება. დავუშვათ, რომ ძალიან ცოტა ადამიანი გვაქვს დარჩენილი მანქანები. შანსებიც არის, რომ თვითმართვადი მანქანები არ იქნება აღჭურვილი ადამიანის მართვის კონტროლით. არსებითად, თქვენ შეიძლება დაასრულოთ 200 მილიონი (ან ნებისმიერი რაოდენობის) თვითმართვადი მანქანების დამიწება, სანამ ჩვენ გამოვასწორებთ ხარვეზს.

თუ საზოგადოება გახდა დამოკიდებული თვითმართველ მანქანებზე, თქვენ თითქმის დახურეთ საზოგადოება მობილურობის თვალსაზრისით, ყოველ შემთხვევაში, სანამ შეცდომების გამოსწორება არ მოხდება.

ახლა ეს სისტემისთვის საზიანო და შოკისმომგვრელი შოკი იქნებოდა.

მე ეჭვი მაქვს, რომ ჩასაფრებული ბუზის იდეა, რომელიც ახორციელებს აბსურდულ მოქმედებებს, თითქმის შეუძლებელი იქნება წარმოსადგენად, თუმცა ამავდროულად ჩვენ არ შეგვიძლია გამოვრიცხოთ შესაძლებლობა მთლიანად. არსებობს სხვა შესაძლებლობები, როგორიცაა კიბერ კრიმინალური დაუცველობა, რომელიც შეიძლება არსებობდეს. მე განვიხილეთ, მაგალითად, თუ როგორ შეიძლება თაღლითურმა ერ-სახელმწიფომ შეეცადოს საზიზღარი აქტის განხორციელება ხელოვნური ინტელექტის მართვის სისტემის სისუსტის გამოყენებით, იხილეთ ჩემი განხილვა აქ ბმული აქ. გარდა ამისა, ჩემი დეტალებისთვის იმის შესახებ, თუ როგორ შეიძლება განხორციელდეს ხელოვნური ინტელექტის თვითმართვადი მანქანების მავნე ჩაბარება, იხილეთ ჩემი გაშუქება: ბმული აქ.

დასკვნა

თანამოაზრეობა არის კურთხევაც და წყევლაც.

ჩვენ ადრე აღვნიშნეთ, რომ განდიმ თქვა, რომ თანამოაზრეებს შეუძლიათ მიაღწიონ დიდ წარმატებას. ხელოვნური ინტელექტი, რომელიც „ერთნაირი მოაზროვნეა“ პოტენციურად შეუძლია დიდ წარმატებას მიაღწიოს. პლატონმა გაგვაფრთხილა, რომ დახურული გონება შეიძლება იყოს სერიოზული საფრთხე. თუ ჩვენ გვაქვს ერთნაირი მოაზროვნე სისტემები ჩვენს ირგვლივ, ჩვენ პოტენციურად აღმოვჩნდებით უნებლიე (ან განზრახ) დამანგრეველი ელემენტების დამალული საფრთხის წინაშე, რამაც შეიძლება ზიანი მიაყენოს ზოგიერთ ჩვენგანს ან შესაძლოა ყველა ჩვენგანს.

ჩვენ უნდა გვქონდეს ღია გონება ხელოვნური ინტელექტის ალგორითმული მონოკულტურის შესახებ. თუ საქმეს სწორად ვაკეთებთ, შეიძლება შევძლოთ სიკეთის აღკაზმულობა და ბოროტების თავიდან აცილება.

ოღონდ მხოლოდ იმ შემთხვევაში, თუ ამ ყველაფერში მართალი ვართ ჩვენს გონებაში.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-inidious-one-like-mind-of-ai-algorithmic-monoculture-including-for- ავტონომიური თვითმართვადი მანქანები/