ხელოვნური ინტელექტის ეთიკა აგრძელებს ხელმძღვანელობას, თუ როგორ უნდა იყოს შემუშავებული ხელოვნური ინტელექტი ბავშვებისთვის, რაც შეიძლება შეუმჩნეველი იყოს, მაგალითად, ავტონომიური თვითმართვადი მანქანებისკენ სწრაფი მოძრაობისას

ხშირად ამბობენ, რომ ჩვენი შვილები ჩვენი მომავალია.

კიდევ ერთი ხშირად განმეორებადი რეფრენი არის ის, რომ ხელოვნური ინტელექტი (AI) არის ჩვენი მომავალი.

რა ხდება, როდესაც ჩვენ ერთად ვაერთიანებთ ხელოვნურ ინტელექტს და ჩვენს შვილებს?

თქვენ ნამდვილად იმედოვნებთ, რომ ხელოვნური ინტელექტისა და ბავშვების შესამჩნევი შერწყმა კარგი იქნება. შესაძლოა ხელოვნური ინტელექტის გამოყენება, როგორც კომპიუტერზე დაფუძნებული სწავლებისა და საგანმანათლებლო სისტემების გაძლიერების საშუალება. ბავშვები, როგორც ჩანს, ისარგებლებენ ამ ტიპის AI-ით. გონივრული ჩანს. შესაძლოა ხელოვნური ინტელექტის შეტანა თანამედროვე სათამაშოებში და საშუალებას მისცემს ინტერაქტიულობას, რომელიც შთააგონებს და გააფართოვებს ახალგაზრდა გონებას. რა თქმა უნდა, ეს, როგორც ჩანს, დიდ სიკეთეს მოუტანს მსოფლიოს.

საქმე იმაშია, რომ ჩვენ შეგვიძლია შევხვდეთ ხელოვნური ინტელექტის მწარე მხარეს. დავუშვათ, ხელოვნური ინტელექტის ბაზაზე დაფუძნებულმა სწავლების სისტემამ ჩანერგა სტერეოტიპები და გაავრცელა ეს უარყოფითი მიკერძოება, როდესაც ეხმარებოდა ახალგაზრდებს, რომლებიც სწავლობენ წერა-კითხვას. Არ არის კარგი. წარმოიდგინეთ, რომ დათვმა, რომელიც ხელოვნური ინტელექტის გამოყენებით იყო აღჭურვილი ელექტრონული სენსორებით, შეეძლო დაეწერა თქვენი შვილის ყოველი გამონათქვამი და ატვირთა ის ანალიზისთვის ონლაინ მონაცემთა ბაზაში, რომელიც შესაძლოა გამოიყენებოდა თქვენი საყვარელი შთამომავლობის მონეტიზაციის გზების მოსაძებნად. საშინელებაა!

ჩვენ უნდა შევაფასოთ, სად არის ხელოვნური ინტელექტი და რა უნდა გავაკეთოთ ხელოვნური ინტელექტისა და ბავშვების მიმართ.

საბედნიეროდ, მსოფლიო ეკონომიკური ფორუმის (WEF) მიერ ახლახან გამოქვეყნებული კვლევა იძლევა ღრმა ხედვას ხელოვნური ინტელექტისა და ბავშვების დინამიკაში, რომელიც მკვეთრად ამტკიცებს ამას: „რა არის სასწორზე? AI განსაზღვრავს თამაშის, ბავშვობის, განათლებისა და საზოგადოების მომავალს. ბავშვები და ახალგაზრდები წარმოადგენენ მომავალს, ამიტომ ყველაფერი უნდა გაკეთდეს იმისათვის, რომ ხელი შევუწყოთ მათ, გამოიყენონ ხელოვნური ინტელექტი პასუხისმგებლობით და მომავლის გამოწვევებზე გადაჭრას“ (WEF-ის მიხედვით ხელოვნური ინტელექტი ბავშვებისთვის: ხელსაწყოების ნაკრები, 2022 წლის მარტი). როგორც გვერდითი შენიშვნა და გამჟღავნების სიცხადისთვის, მე ვმსახურობ WEF-ის კომიტეტში ხელოვნური ინტელექტის შესახებ და მჯერა, რომ ამ ტიპის ერთობლივი და საერთაშორისო ძალისხმევა, რომელიც შეისწავლის სხვადასხვა სოციალურ ზემოქმედებას AI-ზე, ნაყოფიერი და დასაფასებელია.

ხელოვნური ინტელექტის შემუშავებისა და განსახორციელებლად დღევანდელი აურზაურის საკმაოდ თვალშისაცემი და გასაოცარი ასპექტი არის ის, რომ ჩვენ ხშირად ვივიწყებთ ბავშვებს. Სამწუხაროა. ეს სამწუხაროზე უარესია, ეს არის საზოგადოების მთელი სეგმენტის დაქვეითება. მახსენდება ნელსონ მანდელას პატივცემული ციტატა: „საზოგადოების სულის უფრო მკვეთრი გამოვლენა არ შეიძლება, ვიდრე ის, თუ როგორ ექცევა იგი თავის შვილებს“.

მოდით განვიხილოთ ორი ძირითადი გზა, რომლითაც ხელოვნური ინტელექტისა და ბავშვების ურთიერთქმედება შეიძლება:

1. AI-ს საშუალებით, რომელიც სპეციალურად შექმნილია ბავშვებისთვის

2. ხელოვნური ინტელექტის საშუალებით, რომელიც შეიქმნა უფროსებისთვის და რისთვისაც ბავშვებს შეუძლიათ გამოიყენონ მაინც

დაუთმეთ ერთი წუთი ამ ორ ასპექტზე ფხიზლად დაფიქრებას.

პირველი, თუ თქვენ ავითარებთ ხელოვნური ინტელექტის სისტემას, რომელიც სპეციალურად მიზნად ისახავს ბავშვების გამოყენებას, აშკარად აშკარად ჩანს, რომ თქვენი დიზაინის ფოკუსირება ბავშვებზე უნდა იყოს ორიენტირებული. როგორც ითქვა, შოკისმომგვრელია და შემაძრწუნებელია, თუ რამდენი მცდელობა ახორციელებს ბავშვებზე ორიენტირებულ AI-ს. ჩვეულებრივი ვარაუდი ის არის, რომ ბავშვები მხოლოდ ახალშობილი მოზარდები არიან და ყველაფერი რაც თქვენ უნდა გააკეთოთ არის, შესაბამისად, AI-ის „დამუნჯება“. ეს არის სრულიად მცდარი და მცდარი მიდგომა. ბავშვები მკვეთრად განსხვავდებიან უფროსებისგან და კოგნიტურ ელემენტებში განსხვავებულობა სათანადოდ უნდა იქნას გათვალისწინებული ნებისმიერი ხელოვნური ინტელექტის მიმართ, რომელიც გადახლართული იქნება ბავშვებთან და მათ საქმიანობასთან.

მეორეც, მათთვის, ვინც შეიმუშავებს ხელოვნურ ინტელექტს ზრდასრულთათვის გამოსაყენებლად, დაუფიქრებლად ვერ ვივარაუდებთ, რომ არცერთი ბავშვი არ გამოიყენებს ან არ დაუკავშირდება AI სისტემას. ეს დიდი შეცდომაა. ალბათ დიდი შანსია, რომ ხელოვნური ინტელექტი გარდაუვალი იყოს წვდომა ან მასზე დაყრდნობა არა ზრდასრული ადამიანის მიერ. ბავშვმა ან მოზარდმა შეიძლება ადვილად შეეცადოს გამოიყენოს AI ან ფარულად გამოიყენოს მშობლის წვდომა საკუთარი ახალგაზრდობისთვის. ხელოვნური ინტელექტის სისტემა, რომელსაც არ გააჩნია საკმარისი კონტროლი და ბალანსი, რათა გაუმკლავდეს მის გამოყენებას ბავშვების პოტენციალს, უდავოდ, ვინმეს ცუდ უბედურებაში ჩააყენებს, განსაკუთრებით იმ შემთხვევაში, თუ ბავშვს ზიანი მიადგება შემეცნებით ან შესაძლოა ფიზიკურადაც კი.

შეიძლება ფიქრობთ, რომ თუ ხელოვნური ინტელექტის სისტემა აზიანებს ბავშვს ან ცუდად ექცევა, ეს ხელოვნური ინტელექტის ბრალია და რომ AI-მა უნდა აიღოს პასუხისმგებლობის ტვირთი. ეს საკმაოდ უაზრო აზროვნებაა ხელოვნური ინტელექტის დღევანდელ ეპოქაში. გთხოვთ გაითვალისწინოთ, რომ დღეს არ არსებობს AI, რომელიც მგრძნობიარეა. ჩვენ არ გვაქვს მგრძნობიარე AI და არ ვიცით როდის ან გვექნება თუ არა მგრძნობიარე AI. იმის თქმა, რომ ხელოვნური ინტელექტის სისტემა არის პასუხისმგებელი მხარე ზარალზე, ან დანაშაულის პასუხისმგებელი ჩამდენი ამ დროს არაკეთილსინდისიერია. კომპანიებისა და ხელოვნური ინტელექტის შემქმნელების პასუხისმგებლობის შესახებ ჩემი გაშუქებისთვის იხილეთ ბმული აქ.

ძირითადი პერსპექტივიდან გამომდინარე, პასუხისმგებლობის აღება AI-ზე, რომელიც რელსებიდან მიდის, თქვენ უნდა გააცნობიეროთ, რომ სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დამუშავება. ეს შეიძლება შეიცავდეს კომპანიის ლიდერებს, რომლებიც მეთვალყურეობდნენ ხელოვნური ინტელექტის განხორციელებას. არსებობს ხელოვნური ინტელექტის შემქმნელთა გუნდები, რომლებმაც მნიშვნელოვანი როლი ითამაშეს ხელოვნური ინტელექტის ფორმულირებაში. თქვენ ასევე უნდა შეიყვანოთ ისეთებიც, რომლებმაც გამოიყენეს AI და გახადეს ის გამოსაყენებლად ხელმისაწვდომი. მთლიანობაში, ბევრმა ადამიანმა უნდა აგოს პასუხი. AI არ შეიძლება იყოს და არც იქნება დიდი ხნის განმავლობაში, სანამ ოდესმე ან სანამ AI არ მიაღწევს იურიდიული პიროვნების რაიმე ვარიანტს, რომელიც მე გავაანალიზე ბმული აქ.

მოდით დავუბრუნდეთ მნიშვნელოვან აზრს, რომ AI, რომელიც მიმართულია უფროსებზე, შესაძლოა, საბოლოოდ მაინც მოხვდეს ბავშვების ხელში.

ხელოვნური ინტელექტის შემქმნელები, რომლებიც გამოტოვებენ ამ შესაძლებლობას, უხეში გამოღვიძების წინაშე დგანან, როდესაც მათ უჩივლებენ ან სასამართლოში აგზავნიან. უბრალოდ მხრების აჩეჩვა და იმის თქმა, რომ ამაზე არ გიფიქრიათ, დიდ სიმპათიას არ მოჰყვება. მართალია, თქვენ შეიძლება დაგჭირდეთ იყოთ გარკვეულწილად კრეატიული თქვენი დიზაინის მცდელობებში იმის წარმოსადგენად, თუ რა შეიძლება გააკეთოს ბავშვმა AI-სთან კონტაქტის დროს, მაგრამ ეს არის ნაწილი იმისა, რაც უნდა გაითვალისწინოს სწორად მოაზროვნე AI დეველოპერმა. WEF-ის კვლევა ცხადყოფს ამას: „კომპანიებმა უნდა გაითვალისწინონ, რომ ბავშვები ხშირად იყენებენ ხელოვნურ ინტელექტის პროდუქტებს, რომლებიც სპეციალურად მათთვის არ იყო შექმნილი. ზოგჯერ ძნელია იმის პროგნოზირება, თუ რა პროდუქტები შეიძლება გამოიყენონ მოგვიანებით ბავშვებმა ან ახალგაზრდებმა. შედეგად, თქვენ გულდასმით უნდა განიხილოთ, იქნებიან თუ არა ბავშვები ან ახალგაზრდები იმ ტექნოლოგიის მომხმარებლები, რომელსაც თქვენ ავითარებთ“.

აი, რას ვაკეთებ AI სისტემების შემუშავებისას. მე განვიხილავ გამოყენების შესაძლებლობის სრულ სპექტრს:

ა) ხელოვნური ინტელექტი, რომელსაც იყენებს მარტო ერთი ზრდასრული (ერთ დროს)

ბ) AI გამოიყენება რამდენიმე ზრდასრული ადამიანის მიერ ერთდროულად

გ) AI გამოიყენება ზრდასრული ბავშვის თანხლებით

დ) ხელოვნური ინტელექტი, რომელსაც იყენებს ბავშვი (მხოლოდ ერთ ჯერზე) და არც ერთი ზრდასრული ადამიანი

ე) AI გამოიყენება რამდენიმე ბავშვის მიერ ერთდროულად (უფროსები არ არის ხელთ)

მე გამოვყოფ ამ შესაძლებლობების რეალურ სამყაროში არსებულ მაგალითებს, როდესაც მოგვიანებით განვიხილავ, თუ როგორ უნდა იყვნენ AI და ბავშვები ადრე ყურადღებას ამახვილებდნენ ავტონომიური თვითმართვადი მანქანების დამზადებასა და წარმოებაში. ჩამოკიდეთ ქუდს საინტერესო შეფასებისთვის.

ხელოვნური ინტელექტი, რომელსაც იყენებენ მოზრდილები, შეიძლება იყოს სახიფათო და მოზარდების თვალებზე მატყლის მოცილების მცდელობა. თუმცა ეს არ უნდა მოხდეს, უნდა ველოდოთ, რომ ეს მოხდება. მოზარდები ყოველთვის უნდა იყვნენ ფეხზე, როდესაც ურთიერთობენ AI სისტემებთან. ბოდიში, რომ ვამბობ, ეს არის ზრდასრული ყოფნის ფასი.

ჩვენ არ ვფიქრობთ, რომ ბავშვები იმავე საეჭვო მდგომარეობაში უნდა იყვნენ. იმის მოლოდინი, რომ ბავშვები უნდა იყვნენ მზადყოფნაში და მუდმივად საეჭვო ინტელექტის მიმართ, უბრალოდ არ არის გონივრული სავარაუდო აზრი. ბავშვები ზოგადად კლასიფიცირდება როგორც ე.წ დაუცველი მომხმარებლები როდესაც საქმე ეხება AI სისტემებს. ბავშვებს არ აქვთ განსაკუთრებული შემეცნებითი საშუალება, რომ ფხიზლად იყვნენ და იცოდნენ, როდის სარგებლობს ხელოვნური ინტელექტი მათგან (მე გავბედავ ვთქვა, რომ მოზარდები ებრძვიან ასეთ საკითხებს და ჩვენ თითქოსდა ვივარაუდოთ, რომ ბავშვები კიდევ უფრო დაუცველები იქნებიან, რაც, შანსის მიუხედავად. რომ ზოგჯერ ბავშვები რეალურად უფრო ყურადღებიანები არიან, ვიდრე უფროსები, ჩვენ ამას ვერ მივიღებთ ურყევ წესად).

შეიძლება გაგიკვირდეთ, რატომ იფიქრებს ვინმე, რომ ხელოვნური ინტელექტის უნარმა შეიძლება ცუდი რამ გააკეთოს. AI არ უნდა იყოს კარგი ჩვენთვის? ჩვენ არ ვაცხადებთ თანამედროვე ხელოვნური ინტელექტის ჩამოსვლას? უახლესი ახალი ამბების სათაურები და სოციალურ მედიაში გაჟღერებისას აცხადებენ, რომ საყვირებს უნდა ვუკრათ ყოველი ახალი ხელოვნური ინტელექტის სისტემის ჩამოსვლისთვის, რომელიც შემაჯამებლად გამოცხადდება ყოველდღიურად.

ამ ხაზგასმულ კითხვებზე პასუხის გასაცემად, ნება მომეცით მცირეოდენი უახლესი ისტორია გამოვიტანო დღევანდელი ხელოვნური ინტელექტისა და ხელოვნური ხელოვნური ინტელექტის ეთიკის მნიშვნელობისა და ეთიკური ხელოვნური ინტელექტისკენ მიმავალი დინების შესახებ. AI ეთიკისა და ეთიკური ხელოვნური ინტელექტის შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისთვის იხ ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

შეიძლება იცოდეთ, რომ როდესაც ხელოვნური ინტელექტის უახლესი ეპოქა დაიწყო, ენთუზიაზმის დიდი აფეთქება იყო იმისთვის, რასაც ახლა ზოგიერთი უწოდებენ. AI კარგით. სამწუხაროდ, ამ მღელვარე მღელვარების შემდეგ ჩვენ დავიწყეთ მოწმეები AI ცუდად. მაგალითად, AI-ზე დაფუძნებული სახის ამოცნობის სხვადასხვა სისტემა გამოვლინდა, რომ შეიცავს რასობრივ მიკერძოებას და გენდერულ მიკერძოებას, რაც მე განვიხილეთ ბმული აქ.

წინააღმდეგ ბრძოლის მცდელობები AI ცუდად აქტიურად მიმდინარეობს. გარდა ხმოვანი იურიდიული არასწორი ქმედებების შეკავების სწრაფვა, ასევე არსებობს არსებითი ბიძგი ხელოვნური ინტელექტის ეთიკის ათვისებისკენ, რათა გამოსწორდეს ხელოვნური ინტელექტის სისასტიკე. აზრი არის ის, რომ ჩვენ უნდა მივიღოთ და დავამტკიცოთ ეთიკური ხელოვნური ინტელექტის ძირითადი პრინციპები ინტელექტუალური ინტელექტის განვითარებისა და რეალიზაციისთვის. AI ცუდად და ამავდროულად სასურველის მაცნე და ხელშეწყობა AI კარგით.

ამასთან დაკავშირებით, მე ვარ მომხრე, რომ ვცდილობ AI გამოვიყენო, როგორც ხელოვნური ინტელექტის პრობლემების გადაწყვეტის ნაწილი, ცეცხლთან ბრძოლა ამ აზროვნების წესით. ჩვენ შეიძლება, მაგალითად, ეთიკური ხელოვნური ინტელექტის კომპონენტები ჩავრთოთ ხელოვნური ინტელექტის სისტემაში, რომელიც მონიტორინგს გაუწევს, თუ როგორ აკეთებს სხვა ხელოვნური ინტელექტი და ამით რეალურ დროში პოტენციურად დაიჭერს ნებისმიერ დისკრიმინაციულ ძალისხმევას, იხილეთ ჩემი განხილვა აქ. ბმული აქ. ჩვენ ასევე შეიძლება გვქონდეს ცალკეული AI სისტემა, რომელიც მოქმედებს როგორც AI ეთიკის მონიტორის ტიპი. ხელოვნური ინტელექტის სისტემა ემსახურება როგორც ზედამხედველს, რათა თვალყური ადევნოს და აღმოაჩინოს, როდესაც სხვა ხელოვნური ინტელექტი მიდის არაეთიკურ უფსკრულში (იხილეთ ასეთი შესაძლებლობების ჩემი ანალიზი: ბმული აქ).

მოდით, მოკლედ განვიხილოთ ეთიკური ხელოვნური ინტელექტის ზოგიერთი ძირითადი პრინციპი, რათა ავხსნათ ის, რაც სასიცოცხლო მნიშვნელობის უნდა იყოს ყველასთვის, ვინც ამუშავებს, ამუშავებს ან იყენებს ხელოვნურ ინტელექტს.

მაგალითად, როგორც ვატიკანის მიერ ნათქვამია რომის მოწოდება AI ეთიკისკენ და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი გამოვლენილი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • გამჭვირვალობა: პრინციპში, AI სისტემები უნდა იყოს ახსნილი
  • ჩართვა: ყველა ადამიანის მოთხოვნილებები მხედველობაში უნდა იქნეს მიღებული, რათა ყველამ ისარგებლოს და ყველა ინდივიდს შესთავაზოს საუკეთესო პირობები საკუთარი თავის გამოხატვისა და განვითარებისთვის.
  • პასუხისმგებლობა: ვინც შეიმუშავებს და იყენებს ხელოვნური ინტელექტის გამოყენებას, უნდა განაგრძოს პასუხისმგებლობა და გამჭვირვალობა
  • მიუკერძოებლობა: ნუ ქმნით და ნუ იმოქმედებთ მიკერძოების მიხედვით, რითაც დაიცავთ სამართლიანობას და ადამიანურ ღირსებას
  • საიმედოობა: AI სისტემებს უნდა შეეძლოთ საიმედოდ მუშაობა
  • უსაფრთხოება და კონფიდენციალურობა: AI სისტემები უსაფრთხოდ უნდა მუშაობდნენ და პატივს სცემენ მომხმარებლების კონფიდენციალურობას.

როგორც აშშ-ის თავდაცვის დეპარტამენტმა (DoD) განაცხადა მათ ეთიკური პრინციპები ხელოვნური ინტელექტის გამოყენებისათვის და როგორც მე ჩავწერე სიღრმისეულად ბმული აქ, ეს არის მათი ექვსი ძირითადი AI ეთიკის პრინციპი:

  • პასუხისმგებელი: DoD-ის პერსონალი განახორციელებს განსჯის და ზრუნვის შესაბამის დონეს, ხოლო პასუხისმგებლობა დარჩება ხელოვნური ინტელექტის შესაძლებლობების განვითარებაზე, განლაგებასა და გამოყენებაზე.
  • სამართლიანი: დეპარტამენტი მიიღებს მიზანმიმართულ ზომებს ხელოვნური ინტელექტის შესაძლებლობების გაუთვალისწინებელი მიკერძოების შესამცირებლად.
  • მიკვლევადი: დეპარტამენტის AI შესაძლებლობები განვითარდება და განლაგდება ისე, რომ შესაბამისი პერსონალი ფლობდეს ტექნოლოგიის, განვითარების პროცესების და ოპერაციული მეთოდების სათანადო გაგებას, რომლებიც გამოიყენება ხელოვნური ინტელექტის შესაძლებლობებზე, მათ შორის გამჭვირვალე და აუდიტორული მეთოდოლოგიებით, მონაცემთა წყაროებით, დიზაინის პროცედურებისა და დოკუმენტაციის ჩათვლით.
  • სანდო: დეპარტამენტის ხელოვნური ინტელექტის შესაძლებლობებს ექნება მკაფიო, კარგად განსაზღვრული გამოყენება და ასეთი შესაძლებლობების უსაფრთხოება, უსაფრთხოება და ეფექტურობა დაექვემდებარება ტესტირებას და გარანტიას განსაზღვრული გამოყენების ფარგლებში მათი მთელი სიცოცხლის ციკლის განმავლობაში.
  • მართვადი: დეპარტამენტი შეიმუშავებს და შეიმუშავებს ხელოვნური ინტელექტის შესაძლებლობებს, რათა შეასრულოს მათი განზრახული ფუნქციები, ამასთან ექნება შესაძლებლობა აღმოაჩინოს და თავიდან აიცილოს გაუთვალისწინებელი შედეგები, და გააუქმოს ან გამორთოს განლაგებული სისტემები, რომლებიც აჩვენებენ არასასურველ ქცევას.

მე ასევე განვიხილეთ ხელოვნური ინტელექტის ეთიკის პრინციპების სხვადასხვა კოლექტიური ანალიზი, მათ შორის, მკვლევართა მიერ შემუშავებული ნაკრების გაშუქება, რომლებიც შეისწავლეს და შეაჯამეს მრავალი ეროვნული და საერთაშორისო ხელოვნური ინტელექტის ეთიკის პრინციპების არსი ნაშრომში სახელწოდებით „AI ეთიკის სახელმძღვანელო პრინციპების გლობალური პეიზაჟი“ (გამოქვეყნებულია). in ბუნება), და რომ ჩემი გაშუქება იკვლევს ბმული აქ, რამაც გამოიწვია ეს საკვანძო სია:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

როგორც თქვენ პირდაპირ მიხვდებით, ამ პრინციპების საფუძველში არსებული სპეციფიკის განსაზღვრის მცდელობა შეიძლება ძალიან რთული იყოს. უფრო მეტიც, ამ ფართო პრინციპების გადაქცევის მცდელობა სრულიად ხელშესახებ და საკმარისად დეტალურად გამოსაყენებლად ხელოვნური ხელოვნური ინტელექტის სისტემების შექმნისას ასევე რთულია. ზოგადად ადვილია იმის გარკვევა, თუ რა არის ხელოვნური ინტელექტის ეთიკის პრინციპები და როგორ უნდა დავიცვათ ისინი ზოგადად, მაშინ როცა AI კოდირებაში ბევრად უფრო რთული სიტუაციაა, რომელიც უნდა იყოს ნამდვილი რეზინი, რომელიც ხვდება გზას.

ხელოვნური ინტელექტის ეთიკის პრინციპები უნდა გამოიყენონ ხელოვნური ინტელექტის დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და ისეთებიც კი, რომლებიც საბოლოოდ ამუშავებენ და ასრულებენ AI სისტემებს. ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარება AI ეთიკის ცნებების დაცვას. როგორც ადრე აღვნიშნეთ, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დანერგვა, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაემორჩილოს ხელოვნური ინტელექტის ეთიკის პრინციპებს.

როგორ შეგვიძლია გამოვიყენოთ AI ეთიკის პრინციპები ხელოვნური ინტელექტისა და ბავშვების კონკრეტულ კონტექსტში?

ადვილი პეიზაჟი.

განსაკუთრებით არსებითი ასპექტი გულისხმობს იმის სწორ აღიარებას, თუ რას მიზნად ისახავს თქვენი AI მიზნობრივი გამოყენების თვალსაზრისით. ეს არის გამჭვირვალობის ეთიკური ხელოვნური ინტელექტის წესის ნაწილი და განუყოფელი ნაწილი.

WEF-ის კვლევამ შემოგვთავაზა, რომ ჩვენ უნდა მივაწეროთ AI-ს ეტიკეტირება ისევე, როგორც ჩვენს საზოგადოებაში არსებულ სხვა პროდუქტებსა და სერვისებს. თქვენ მიდიხართ სასურსათო მაღაზიაში და ელოდებით, რომ შეძლებთ დაათვალიეროთ საკვების ქილა, რომელსაც აქვს ეტიკეტები, რომლებიც ასახავს რისგან შედგება საკვები. როდესაც თქვენ იყენებთ დისკს სწრაფი კვების ობიექტში, დღეს ბევრი მათგანი აჩვენებს კალორიებსა და შაქრის შემადგენლობას შეთავაზებულ საკვებში. ყველა სახის ნივთი, რომელსაც ჩვენ ვყიდულობთ და ვიყენებთ, უხვად არის მორთული ინფორმაციული ეტიკეტებით.

იგივეს გაკეთება AI სისტემებისთვის საკმაოდ სასარგებლო იქნება.

ასე აღწერს WEF-ის ანგარიშში ამ საკითხს: „AI ეტიკეტირების სისტემა შექმნილია იმისთვის, რომ ჩართული იყოს ხელოვნური ინტელექტის ყველა პროდუქტში მათ ფიზიკურ შეფუთვაში და ხელმისაწვდომი იყოს ონლაინ QR კოდის საშუალებით. საკვების შეფუთვაზე არსებული კვების ინფორმაციის მსგავსად, ეტიკეტირების სისტემა მიზნად ისახავს მომხმარებლებს, მათ შორის მშობლებსა და მეურვეებს, ასევე ბავშვებსა და ახალგაზრდებს, მოკლედ აცნობოს, თუ როგორ მუშაობს AI და რა ვარიანტებია ხელმისაწვდომი მომხმარებლებისთვის. ყველა კომპანიას მოუწოდებენ გამოიყენონ ეს ინსტრუმენტი, რათა შეიქმნას მეტი ნდობა და გამჭვირვალობა მათი პროდუქტების მყიდველებთან და ბავშვებთან.

WEF-ის რეკომენდებული AI მარკირების ექვსი ძირითადი კონსტრუქციაა:

1) ასაკი: რა ასაკისთვის არის შექმნილი ტექნოლოგია და კონტენტი.

2) ხელმისაწვდომობა: შეუძლიათ თუ არა სხვადასხვა შესაძლებლობებისა და წარსულის მქონე მომხმარებლებს მისი გამოყენება.

3) სენსორები: უყურებს თუ უსმენს მომხმარებელს კამერებითა და მიკროფონებით.

4) ქსელები: შეუძლიათ მომხმარებლებს მისი გამოყენებისას თამაში და საუბარი სხვა ადამიანებთან.

5) AI გამოყენება: როგორ იყენებს AI-ს მომხმარებლებთან ურთიერთობისთვის.

6) მონაცემთა გამოყენება: აგროვებს თუ არა პერსონალურ ინფორმაციას.

წარმოიდგინეთ, რომ მშობელს ან მეურვეს შეუძლია შეამოწმოს ასეთი იარლიყი, რათა მათ მიიღონ დასაბუთებული გადაწყვეტილება იმის თაობაზე, მისცენ თუ არა შვილს უფლებას იმოქმედოს ეტიკეტირებულ AI-სთან. იმის ნაცვლად, რომ მშობლები ან მეურვეები სრულიად ბნელში იყვნენ იმის შესახებ, თუ რას გააკეთებს AI, მათ ექნებათ გარკვეული მსგავსება იმისა, თუ რას შეიცავს AI. მომხიბვლელი მშობლებისა და მეურვეებისთვის, ეს იქნება დაფასებული და მოუთმენლად მისასალმებელი.

დარწმუნებული ვარ, რომ თქვენ შორის სკეპტიკოსები გარკვეულწილად საეჭვოა ხელოვნური ინტელექტის ეტიკეტირების შესახებ.

პირველი, AI მარკირება შეიძლება იყოს ტყუილი. კომპანიამ ან დეველოპერებმა შესაძლოა ეტიკეტზე დააფიქსირონ. ამ შემთხვევაში, მშობელი ან მეურვე არ არის უკეთეს მდგომარეობაში და, მართლაც, შეიძლება უარესი იყოს მათი მზრუნველობის დაკარგვის გამო, მათი რწმენის საფუძველზე, რომ ეტიკეტი ჭეშმარიტი და ზუსტია. დიახ, ეს ნამდვილად არის შესაძლებლობა. რასაკვირველია, ისევე როგორც ნებისმიერი მარკირება, თამაშში უნდა იყოს სკინი და საშუალება მისდიოთ მათ, ვინც ამახინჯებს ან აშკარად დევს მათი AI ეტიკეტის მითითებებზე.

როგორც მე ბევრჯერ განვიხილეთ, ჩვენ მივდივართ ახალი რეგულაციებისა და კანონებისკენ, რომლებიც ეხება ხელოვნური ინტელექტის მართვას. ეს წინასწარი დასკვნაა. აქამდე, საზოგადოება საკმაოდ ხშირად თვლიდა, რომ არაეთიკური და უკანონო ხელოვნური ინტელექტის გამომძიებლები თავიანთი სამართლიანობის აღსრულებას მიიღებდნენ გამოვლენისა და აღსრულების ჩვეულებრივი საშუალებებით. ვინაიდან ეს არ იყო მთლად დამაკმაყოფილებელი და ვინაიდან AI სულ უფრო და უფრო ფართოდ გავრცელებული ხდება, თქვენ შეგიძლიათ ველოდოთ ყველა სახის იურიდიულ დებულებას, რომელიც ფოკუსირებული იქნება AI-ზე.

გარდა ამისა, იმედოვნებს, რომ საბაზრო მექანიზმებიც იმუშავებენ. თუ ფირმას, რომელიც თავის ხელოვნურ ინტელექტს ტყუილად აწერს ეტიკეტს, დაიჭირეს ამის კეთებაში, ვარაუდობენ, რომ ბაზრის ძალები მათ სატვირთო მანქანასავით დაარტყიან. ხალხი არ იყიდის ან გამოიწერს AI-ს. დაზარალდება ორგანიზაციის რეპუტაცია. ისინი, ვინც იყიდეს ან ლიცენზირებული გაუწიეს AI-ს AI ეტიკეტირების ყალბი პრეტენზიით, უჩივლებენ ცრუ წარმომადგენლობისთვის. Და ასე შემდეგ. მე განვიხილეთ არაეთიკური ხელოვნური ინტელექტის შესახებ საზოგადოების უკუკავშირის მომავალი ტალღა ბმული აქ.

მე ვფიქრობ, რომ მხურვალე სკეპტიკოსს დამატებითი შეშფოთება ექნება ხელოვნური ინტელექტის ეტიკეტირების შესახებ.

მაგალითად, ცინიკური ფორმით, შეიძლება ითქვას, რომ მშობლები და მეურვეები არ წაიკითხავენ AI ეტიკეტებს. ისევე, როგორც მოზრდილთა უმეტესობა არ კითხულობს ეტიკეტებს საკვების შეფუთვაზე და როგორც ნაჩვენებია შეკვეთის მენიუში, ჩვენ ალბათ ვივარაუდებთ, რომ რამდენიმე მშობელი ან მეურვე დაუთმობს დროს AI ეტიკეტის შესამოწმებლად.

თუმცა ვაღიარებ, რომ ეს აუცილებლად მოხდება, მხოლოდ ამის საფუძველზე ცდილობ აეცილებინა ხელოვნური ინტელექტის ეტიკეტების მნიშვნელობა, ჰგავს ბავშვის გადაგდებას აბაზანის წყლით (კარგი, ეს ძველი ანდაზაა, რომელიც შესაძლოა პენსიაზე გასვლას საჭიროებს). ზოგიერთი ადამიანი ყურადღებით და სრულად შეისწავლის AI ეტიკეტებს. იმავდროულად, ზოგიერთი ადამიანი მხოლოდ ზედმიწევნით შეხედავს. რა თქმა უნდა, იქნება ადამიანები, რომლებიც იგნორირებას უკეთებენ AI ეტიკეტებს.

მაგრამ თქვენ უნდა გქონდეთ ეტიკეტები იმისთვის, რომ მინიმუმ დარწმუნდეთ, რომ მათ, ვინც წაიკითხავს მათ, შეუძლიათ ჰქონდეთ AI ეტიკეტები ხელმისაწვდომი. გარდა ამისა, თქვენ შეგიძლიათ მტკიცედ ამტკიცებდეთ, რომ AI ლეიბლის არსებობის აუცილებლობა უდავოდ აიძულებს AI-ის ბევრ შემქმნელს, უფრო გააზრებული იყოს მათი AI-ის ბუნებაზე. მე ვთავაზობ, რომ მაშინაც კი, თუ ძალიან ცოტა ადამიანი კითხულობს AI ეტიკეტს, ფირმამ უნდა გაითვალისწინოს, რომ საბოლოოდ ისინი პასუხისმგებელნი იქნებიან იმაზე, რასაც AI ეტიკეტზე წერს. ეს თავისთავად, იმედია, აიძულებს ხელოვნური ინტელექტის დეველოპერებს და კომპანიებს, რომლებიც ამუშავებენ AI-ს, უფრო მეტად დაიცვან AI ეთიკის მიმართ, ვიდრე სხვაგვარად შეიძლება იყოს საქმე.

თუ გსურთ მსჯელობა შემოთავაზებული AI ეტიკეტირების სქემის შესახებ, მე ამას კარგად ვუყურებ. შესაძლოა, ექვს ფაქტორზე მეტი გვჭირდება. ნაკლებად სავარაუდოა, რომ ჩვენ გვჭირდება ნაკლები. ალბათ, ქულების და შეწონვის კომპონენტია საჭირო. მთლიანობაში, AI ეტიკეტირების საუკეთესო შესაძლო მიდგომაზე დაშვება გონივრული და გონივრული მისწრაფებაა. ხელოვნური ინტელექტის მარკირების სქემის თავიდან აცილება ან თვით ხელოვნური ინტელექტის ეტიკეტირების არსებობის დაგმობა, როგორც ჩანს, შეუმჩნეველია და არ უწყობს ხელს ხელოვნური ინტელექტის მუდმივად გაფართოებას, რომელიც ჩვენი შვილების ხელში მოხვდება.

კარგი, ამ ბოლო შენიშვნით, დარწმუნებული ვარ, რომ ზოგი ამტკიცებს, რომ ხელოვნური ინტელექტის ეტიკეტირება ხდება ვერცხლის ტყვიის სახით. ეს არავის უთქვამს. ეს არის ერთ-ერთი მრავალრიცხოვანი ნაბიჯი და მნიშვნელოვანი დამცავი ღონისძიება, რომელიც ჩვენ უნდა გადავდგათ. საჭიროა ხელოვნური ინტელექტის ეთიკის მიდგომებისა და ჯვარედინი დამტვერვის კუთხეების მთელი პორტფელი.

პორტფოლიოს ცნებასთან დაკავშირებით, მათ, ვინც კარგად იცნობთ ხელოვნური ინტელექტისა და ბავშვების ზემოქმედების ანალიზს, შეიძლება გაიხსენოთ, რომ UNICEF-მა გასულ წელს გამოაქვეყნა ანგარიში, რომელიც შეიცავდა საკმაოდ ღირებულ შეხედულებებს ამ კონკრეტულ თემაზე. მათში პოლიტიკის სახელმძღვანელო AI ბავშვებისთვის კვლევა, განსაკუთრებით დასამახსოვრებელი ნაწილი ასახავს ცხრა ძირითადი მოთხოვნისა და რეკომენდაციის ჩამონათვალს:

1. მხარი დაუჭირეთ ბავშვების განვითარებას და კეთილდღეობას („დამეხმაროს AI დამეხმაროს ჩემი სრული პოტენციალის განვითარებაში“)

2. უზრუნველყოს ბავშვების ჩართვა და მათთვის ("ჩართეთ მე და ჩემს გარშემო მყოფები")

3. პრიორიტეტი მიენიჭოს სამართლიანობას და არადისკრიმინაციას ბავშვებისთვის („AI უნდა იყოს ყველა ბავშვისთვის“)

4. დაიცავით ბავშვების მონაცემები და კონფიდენციალურობა („უზრუნველყავი ჩემი კონფიდენციალურობა ხელოვნური ინტელექტის სამყაროში“)

5. უზრუნველყოს ბავშვების უსაფრთხოება („მე უნდა ვიყო უსაფრთხო AI სამყაროში)

6. უზრუნველყოთ ბავშვებისთვის გამჭვირვალობა, ახსნა და ანგარიშვალდებულება („მე უნდა ვიცოდე, როგორ მოქმედებს AI ჩემზე. თქვენ უნდა იყოთ პასუხისმგებელი ამისთვის)

7. მიეცით მთავრობებს და ბიზნესს უნარ-ჩვევების და ბავშვების უფლებების ცოდნის უფლება („თქვენ უნდა იცოდეთ რა არის ჩემი უფლებები და დაიცვათ ისინი“)

8. მოამზადეთ ბავშვები ხელოვნური ინტელექტის აწმყო და მომავალი განვითარებისთვის („თუ ახლა კარგად ვარ მომზადებული, შემიძლია წვლილი შევიტანო პასუხისმგებელი AI მომავლისთვის“)

9. შექმენით ხელსაყრელი გარემო („ყველას შესაძლებლობა მიეცით წვლილი შეიტანოს ბავშვზე ორიენტირებულ AI-ში“)

ისინი იმსახურებენ ჩაწერას ნამდვილ დიდების დარბაზში, რომელიც ეძღვნება ხელოვნურ ინტელექტს და ბავშვებს.

ამ მძიმე დისკუსიის ამ ეტაპზე, მე დადებს დადებს, რომ თქვენ გსურს კიდევ რამდენიმე მაგალითი, რომელიც შეიძლება აჩვენოს შეშფოთება ხელოვნური ინტელექტის შესახებ, რომელსაც იყენებენ ბავშვები ან ბავშვები. არსებობს მაგალითების განსაკუთრებული და ნამდვილად პოპულარული ნაკრები, რომელიც გულთან ახლოსაა. ხედავთ, ჩემი, როგორც ხელოვნური ინტელექტის ექსპერტის, ეთიკური და სამართლებრივი შედეგების ჩათვლით, მე ხშირად მთხოვენ განვსაზღვრო რეალისტური მაგალითები, რომლებიც ასახავს AI ეთიკის დილემებს, რათა თემის გარკვეულწილად თეორიული ბუნება უფრო ადვილად გავიგოთ. ერთ-ერთი ყველაზე ამაღელვებელი სფერო, რომელიც ნათლად წარმოაჩენს ამ ეთიკური ხელოვნური ინტელექტის პრობლემას, არის AI-ზე დაფუძნებული ნამდვილი თვითმართვადი მანქანების გამოჩენა. ეს იქნება მოსახერხებელი გამოყენების შემთხვევა ან მაგალითი თემაზე საკმაო განხილვისთვის.

აქ არის საყურადღებო კითხვა, რომლის განხილვაც ღირს: აშუქებს თუ არა AI-ზე დაფუძნებული ჭეშმარიტი თვითმართვადი მანქანების გამოჩენა რაიმე ხელოვნურ ინტელექტის შესახებ, რომელსაც იყენებენ ბავშვები ან ბავშვებისთვის, და თუ ასეა, რას აჩვენებს ეს?

ნება მომეცით ერთი წუთით ამოხსნა კითხვა.

პირველი, გაითვალისწინეთ, რომ ნამდვილ თვითმართველ მანქანაში არ არის ადამიანი მძღოლი ჩართული. გაითვალისწინეთ, რომ ნამდვილი თვითმართვადი მანქანები მართავენ AI მართვის სისტემის მეშვეობით. არ არის საჭირო ადამიანის მძღოლი საჭესთან და არც არის დებულება, რომ ადამიანი მართოს მანქანა. ავტონომიური მანქანების (AVs) და განსაკუთრებით თვითმართვადი მანქანების ჩემი ვრცელი და მუდმივი გაშუქებისთვის იხ. ბმული აქ.

მსურს კიდევ უფრო განვმარტო, რა იგულისხმება, როდესაც ვგულისხმობ ნამდვილ თვითმართველ მანქანებს.

თვითმართვადი მანქანების დონის გააზრება

დაზუსტების მიზნით, ნამდვილი თვითმართვადი მანქანებია ის მანქანები, სადაც AI მართავს მანქანას მთლიანად დამოუკიდებლად და არ არის ადამიანის დახმარება მართვის ამოცანის შესრულებისას.

ეს უმართავი მანქანები განიხილება დონე 4 და დონე 5 (იხილეთ ჩემი ახსნა ეს ბმული აქ), ხოლო მანქანა, რომელიც მოითხოვს ადამიანის მძღოლს მართვის ძალისხმევის ერთობლივად გაზიარებას, ჩვეულებრივ განიხილება მე-2 ან მე-3 დონეზე. მანქანები, რომლებიც ერთობლივად იზიარებენ მართვის ამოცანას, აღწერილია, როგორც ნახევრად ავტონომიური და, როგორც წესი, შეიცავს სხვადასხვა ავტომატური დანამატები, რომლებსაც მოიხსენიებენ როგორც ADAS (Advanced Driver-Assistance Systems).

მე-5 დონეზე ჯერ არ არის ნამდვილი თვითმართვადი მანქანა და ჩვენ ჯერ არ ვიცით, იქნება თუ არა ამის მიღწევა და არც რამდენი დრო დასჭირდება იქ მისასვლელად.

იმავდროულად, მე-4 დონის მცდელობები თანდათან ცდილობს მიაღწიოს გარკვეულ ტენდენციებს ძალიან ვიწრო და შერჩევითი საჯარო გზის გამოცდების გავლის გზით, თუმცა არსებობს კამათი იმის შესახებ, დაშვებული უნდა იყოს თუ არა ეს ტესტირება თავისთავად (ჩვენ ყველანი ვართ სიცოცხლისა და სიკვდილის ზღვის გოჭები ექსპერიმენტში. ზოგიერთი ამტკიცებს, რომ მიმდინარეობს ჩვენს მაგისტრალებზე და სხვა უბნებზე, იხილეთ ჩემი გაშუქება ეს ბმული აქ).

იმის გამო, რომ ნახევრად ავტონომიური მანქანები მოითხოვს ადამიანის მძღოლს, ამ ტიპის მანქანების მიღება მნიშვნელოვნად არ განსხვავდება, ვიდრე ჩვეულებრივი ავტომობილების მართვა, ასე რომ, ამ საკითხზე მათ შესახებ გაშუქება არც ისე ბევრია (თუმცა, როგორც ხედავთ ერთ წამში, შემდეგი პოზიციები ზოგადად მოქმედებს).

ნახევრად ავტონომიური მანქანებისთვის, მნიშვნელოვანია, რომ საზოგადოებამ წინასწარ უნდა გააფრთხილოს იმ შემაშფოთებელი ასპექტის შესახებ, რომელიც ბოლო დროს წარმოიქმნა, კერძოდ, რომ მიუხედავად იმ ადამიანთა მძღოლებისა, რომლებიც მუდმივად ავრცელებენ ვიდეოს განთავსებას, იძინებენ Level 2 ან Level 3 მანქანის საჭესთან. ჩვენ ყველამ უნდა ავარიდოთ შეცდომაში ყოფნას იმის მჯერა, რომ მძღოლს შეუძლია ნახევრად ავტონომიური მანქანის მართვის დროს, ყურადღება მიაქციოს მართვის ამოცანას.

თქვენ ხართ პასუხისმგებელი მხარე სატრანსპორტო საშუალების მართვის მოქმედებებისათვის, იმისდა მიუხედავად, თუ რამდენი ავტომატიზაცია შეიძლება მოხვდეს დონის 2 ან 3 დონეზე.

თვითმართვადი მანქანები და ხელოვნური ინტელექტი, რომლებიც ურთიერთობენ ბავშვებთან

მე -4 და მე -5 დონის ჭეშმარიტი მართვის მოწმობისთვის, მართვის მოვალეობის შემსრულებელი ადამიანი ვერ იქნება.

ყველა ოკუპანტი მგზავრი იქნება.

AI აკეთებს მართვას.

დაუყოვნებლივ განხილვის ერთი ასპექტი გულისხმობს იმ ფაქტს, რომ AI დღეს ჩართული AI მართვის სისტემებში არ არის მგრძნობიარე. სხვა სიტყვებით რომ ვთქვათ, AI არის კომპიუტერზე დაფუძნებული პროგრამირებისა და ალგორითმების ერთობლიობა, და, რა თქმა უნდა, არ შეუძლია მსჯელობა ისე, როგორც ადამიანს შეუძლია.

რატომ არის ეს დამატებითი აქცენტი AI არ არის სენტიმენტალური?

იმის გამო, რომ მსურს ხაზი გავუსვა, რომ AI მართვის სისტემის როლზე მსჯელობისას, მე არ ვუწერ AI თვისებებს ადამიანის თვისებებს. გთხოვთ გაითვალისწინოთ, რომ ამ დღეებში არსებობს მუდმივი და საშიში ტენდენცია AI– ს ანტროპომორფირებისაკენ. სინამდვილეში, ადამიანები ადამიანის მსგავს გრძნობებს ანიჭებენ დღევანდელ AI- ს, მიუხედავად უდაო და დაუსაბუთებელი ფაქტისა, რომ ასეთი AI ჯერ არ არსებობს.

ამ დაზუსტებით შეგიძლიათ წარმოიდგინოთ, რომ AI მამოძრავებელი სისტემა არ იცის როგორმე "იცოდეს" მართვის ასპექტების შესახებ. მართვის მოწმობა და ყველაფერი, რაც მას მოყვება, უნდა იყოს დაპროგრამებული, როგორც თვითმართვადი მანქანის ტექნიკა და პროგრამული უზრუნველყოფა.

მოდით ჩავუღრმავდეთ უამრავ ასპექტს, რომლებიც ამ თემას ეხება.

პირველ რიგში, მნიშვნელოვანია გვესმოდეს, რომ ხელოვნური ინტელექტის მქონე ყველა მანქანა ერთნაირი არ არის. თითოეული ავტომწარმოებელი და თვითმართვადი ტექნოლოგიური ფირმა იყენებს თავის მიდგომას თვითმართვადი მანქანების შემუშავებასთან დაკავშირებით. როგორც ასეთი, ძნელია ყოვლისმომცველი განცხადებების გაკეთება იმის შესახებ, თუ რას გააკეთებენ ან არ გააკეთებენ AI მართვის სისტემები.

გარდა ამისა, როდესაც ნათქვამია, რომ ხელოვნური ინტელექტის მართვის სისტემა არ აკეთებს რაიმე განსაკუთრებულს, ამას შემდგომში შეიძლება გადალახოს დეველოპერები, რომლებიც ფაქტობრივად პროგრამირებენ კომპიუტერს ამის გასაკეთებლად. ეტაპობრივად, AI მართვის სისტემები თანდათან იხვეწება და ვრცელდება. არსებული შეზღუდვა დღეს შეიძლება აღარ არსებობდეს სისტემის მომავალ გამეორებაში ან ვერსიაში.

მე მჯერა, რომ ის გვაძლევს საკმარის სიფრთხილეს იმის დასადგენად, რის შესახებაც ვაპირებ დაკავშირებას.

ახლა მზად ვართ ღრმად ჩავუღრმავდეთ თვითმართველ მანქანებს და ეთიკური ხელოვნური ინტელექტის შესაძლებლობებს, რაც გულისხმობს ხელოვნური ინტელექტისა და ბავშვების შესწავლას.

წარმოიდგინეთ, რომ ხელოვნური ინტელექტის ბაზაზე დაფუძნებული თვითმართვადი მანქანა თქვენი სამეზობლოში მოძრაობს და, როგორც ჩანს, უსაფრთხოდ მოძრაობს. თავიდან განსაკუთრებულ ყურადღებას უთმობდით ყოველ ჯერზე, როცა ახერხებდით თვითმართვადი მანქანის დანახვას. ავტონომიური მანქანა გამოირჩეოდა ელექტრონული სენსორების თაროებით, რომელიც მოიცავდა ვიდეო კამერებს, სარადარო დანაყოფებს, LIDAR მოწყობილობებს და მსგავსებს. მრავალი კვირის შემდეგ თვითმართვადი მანქანა თქვენს საზოგადოებაში ტრიალებს, თქვენ ახლა ძლივს შეამჩნევთ ამას. რაც შეეხება თქვენ, ეს არის კიდევ ერთი მანქანა უკვე გადატვირთულ საზოგადოებრივ გზებზე.

იმისათვის, რომ არ გგონიათ, რომ შეუძლებელი ან წარმოუდგენელია თვითმართვადი მანქანების ნახვის გაცნობა, მე ხშირად ვწერდი იმის შესახებ, თუ როგორ მიეჩვივნენ ის ადგილები, რომლებიც თვითმართვადი მანქანების ცდის ფარგლებშია, თანდათან მიეჩვივნენ გაფუჭებული მანქანების ხილვას. იხილეთ ჩემი ანალიზი ეს ბმული აქ. ბევრი ადგილობრივი მაცხოვრებელი საბოლოოდ გადაინაცვლა პირის ღრუს გაბრწყინებული აჟიოტაჟიდან ახლა მოწყენილობის უზარმაზარ ყვირილზე, რათა შეესწრო იმ ხვეული თვითმართვადი მანქანების.

ალბათ, ახლა მთავარი მიზეზი, რის გამოც მათ შეიძლება შეამჩნიონ ავტონომიური მანქანები, არის გაღიზიანებისა და გაღიზიანების ფაქტორი. წიგნში არსებული ხელოვნური ინტელექტის მართვის სისტემები დარწმუნებულია, რომ მანქანები ემორჩილებიან ყველა სიჩქარის შეზღუდვას და გზის წესებს. ადამიანების მიერ მართული ტრადიციული მანქანების დაძაბული მძღოლებისთვის, თქვენ გაღიზიანებთ იმ დროს, როდესაც ჩერდებით მკაცრად კანონმორჩილი AI-ზე დაფუძნებული თვითმართვადი მანქანების უკან.

ეს არის ის, რასაც შეიძლება ყველა დაგვჭირდეს შეგუება, სამართლიანად თუ არასწორად.

დაუბრუნდით ჩვენს ზღაპარს.

ახალგაზრდა სკოლიდან სახლის ლიფტით ჯდება თვითმართველ მანქანაში. მე მესმის, რომ თქვენ შეიძლება გარკვეულწილად გაგიკვირდეთ, რომ არასრულწლოვანმა მგზავრობამ შეიძლება თვითმართვადი მანქანა, რომელსაც არ აქვს ზრდასრულთა ზედამხედველობა. ადამიანების მიერ მართული მანქანებისთვის მანქანაში ყოველთვის არის ზრდასრული ადამიანი საჭესთან ყოფნის აუცილებლობის გამო. თვითმართვადი მანქანებით, არ იქნება საჭირო მძღოლი ადამიანი და, შესაბამისად, აღარ იქნება აქსიომური საჭიროება ზრდასრული ავტონომიურ მანქანაში.

ზოგიერთმა თქვა, რომ ისინი არასოდეს დაუშვებენ შვილს თვითმართვადი მანქანით მგზავრობის უფლებას ავტონომიურ მანქანაში სანდო ზრდასრული ადამიანის გარეშე. ლოგიკა იმაში მდგომარეობს, რომ ზრდასრულთა ზედამხედველობის ნაკლებობამ შეიძლება გამოიწვიოს საკმაოდ უსიამოვნო და სერიოზული შედეგები. ბავშვს შეიძლება უსიამოვნება შეექმნას თვითმართველ მანქანაში ყოფნისას და არ იყოს ზრდასრული ადამიანი, რომელიც დაეხმარება მას.

მიუხედავად იმისა, რომ ამ შეშფოთებაში, რა თქმა უნდა, არის უხვი ლოგიკა, მე ვიწინასწარმეტყველე, რომ ჩვენ საბოლოოდ მივიღებთ იდეას, რომ ბავშვები დამოუკიდებლად იმოძრაონ თვითმართველ მანქანებში, იხილეთ ჩემი ანალიზი: ბმული აქ. სინამდვილეში, თვითმართვადი მანქანების ფართოდ გამოყენება ბავშვების გადასაყვანად, მაგალითად, სკოლაში, ბეისბოლის ვარჯიშზე ან მათი ფორტეპიანოს გაკვეთილებზე გადასაყვანად. მე ასევე განვაცხადე, რომ საჭირო იქნება შეზღუდვები ან პირობები დაწესდეს ამ გამოყენებაზე, სავარაუდოდ, ახალი რეგულაციებისა და კანონების მეშვეობით, რომლებიც, მაგალითად, აწესებს ყველაზე ახალგაზრდა დასაშვებ ასაკს. ახალდაბადებული ბავშვის მარტო მართვა თვითმართვადი მანქანაში ძალიან შორს არის ხიდი.

რაც ითქვა, ბევრი ავტომწარმოებლისა და თვითმართვადი ტექნიკური ფირმის ვარაუდი არის, რომ თვითმართვადი მანქანები ან ცარიელი იქნება, ან მათ ექნებათ მინიმუმ ერთი ზრდასრული მხედარი. ეს იქნება უბრალოდ განკარგულება ან გაცხადებული მოთხოვნა, კერძოდ, რომ არცერთ ბავშვს არ შეუძლია იმოძრაოს თვითმართვადი მანქანით ზრდასრულის გარეშე. ეს, რა თქმა უნდა, ამსუბუქებს დილემას იმის შესახებ, რომ საჭიროა AI მართვის სისტემის დაპროგრამება ავტონომიურ მანქანაში მხოლოდ ბავშვების ყოლასთან.

ფირმებს ამ პოზიციის დაკავებაში განსაკუთრებით ვერ დაადანაშაულებთ. მათ აქვთ საკმარისი ხელზე, როდესაც საქმე ეხება მხოლოდ ხელოვნური ინტელექტის მართვის სისტემის მიღებას, რათა უსაფრთხოდ მართონ თვითმართვადი მანქანა A წერტილიდან B წერტილამდე. ვარაუდი არის, რომ მხედარი იქნება ზრდასრული და რომ ზრდასრული გააკეთებს სათანადო ზრდასრულ- მოსწონს აქტივობები თვითმართველ მანქანაში ყოფნისას. ეს არსებითად ასე იყო აქამდე საზოგადოებრივი გზის გამოსაცდელების დროს, რადგან მოზრდილები, როგორც წესი, წინასწარ სკრინინგდებიან, ან უფროსები იმდენად აღფრთოვანებულები არიან თვითმართვადი მანქანაში ყოფნით, რომ ზრუნავენ, იყვნენ თავაზიანები და მორჩილად ჩუმად.

შემიძლია დაგარწმუნოთ, რომ როდესაც ჩვენ გადავდივართ ცდების გაფართოებაზე, ეს საკმაოდ მოსახერხებელი დაყენება იშლება. მოზარდებს სურთ თავიანთი შვილების წაყვანა თვითმართვადი მანქანით ტარებისას. ბავშვები იმოქმედებენ. ხანდახან ზრდასრული აკეთებს სწორად და აფერხებს ბავშვებს. სხვა დროს ზრდასრული ამას არ გააკეთებს.

ვის ეკისრება პასუხისმგებლობა, როცა ზრდასრული ბავშვს ნებას რთავს რაიმე უკუღმა გააკეთოს თვითმართველ მანქანაში ტარებისას?

დარწმუნებული ვარ, რომ თქვენ ვარაუდობთ, რომ ზრდასრულს აქვს სრული პასუხისმგებლობა. შეიძლება ასე, შეიძლება არა. არგუმენტი შეიძლება დასახელდეს, რომ ავტომწარმოებელმა ან თვითმართვადი ტექნიკურმა ფირმამ ან ფლოტის ოპერატორმა დაუშვა ისეთი გარემოს არსებობა, რომელშიც ბავშვს შეეძლო ზიანი მიეყენებინა, მიუხედავად ზრდასრული ადამიანის არსებობისა. იმ უზარმაზარი თანხით, რომელიც ბევრ ამ ფირმას აქვს, თქვენ შეგიძლიათ წინასწარ ველოდოთ, რომ როდესაც ბავშვი რაიმე სახის ზიანს მიაყენებს, იქნება გადამწყვეტი მცდელობა, დაედევნოს მათ, ვინც შექმნა ან გამოუშვა ავტონომიური მანქანა. ფულის საუბარი.

ეს არის სიცოცხლის გარანტია.

საბოლოოდ, ჩვენ დავინახავთ მხოლოდ ზრდასრული ადამიანების შემთხვევებს, რომლებიც მარტო იმოძრავებენ თვითმართველ მანქანებში. დავუშვათ, რომ ზრდასრული ადამიანის სტანდარტული ასაკია ვთქვათ 18. ვინმე, რომელსაც 18 წელი ჰქონდაth გასულ კვირას დაბადების დღე გადაწყვეტს, რომ მათ სურთ სასეირნოდ თვითმართვადი მანქანით. დავუშვათ, რომ ფირმა ყოველთვის ამოწმებს ასაკს და ამ შემთხვევაში, მხედარი ერთი შეხედვით ზრდასრული ადამიანია.

ეს „ზრდასრული“ თვითმართველ მანქანაში შემოჰყავს მათი მეგობრები, რომლებიც არიან 15 და 16 წლის. რა შეიძლება გააკეთონ მოზარდებმა თვითმართვადი მანქანით სასეირნოდ? ამას მომენტში მოვალ. მე მესმის, რომ შეიძლება დაგჭირდეთ იმის მტკიცება, რომ ვთქვათ, 50 წლის ზრდასრულს შეუძლია მოზარდი თვითმართველ მანქანაში ჩაიყვანოს და ეს ბავშვები გაგიჟონ. არსებითად, თეორიულად არ უნდა მოხდეს განსხვავება, არის თუ არა ზრდასრული ძლივს ზრდასრული თუ უფრო გამოცდილი ზრდასრული. მხოლოდ ის შემიძლია ვთქვა, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ სავარაუდო განსხვავებაა, საშუალოდ და მთლიანობაში.

დავუშვათ, ზრდასრული იწყებს მგზავრობას ახალგაზრდასთან ერთად და შემდეგ გადმოდის ავტონომიური სატრანსპორტო საშუალებიდან და ახალგაზრდას მარტო ტოვებს თვითმართველ მანქანაში. ვიმედოვნებთ, რომ ხელოვნური ინტელექტის მართვის სისტემა დაპროგრამებული იქნება ამის აღმოსაჩენად, შესაძლოა კარის გახსნის ან შესაძლოა ვიდეოკამერების გამოყენებით თვითმართვადი მანქანის ინტერიერის შესამოწმებლად.

საქმე იმაშია, რომ ყველანაირი სენანიგანი წარმოიქმნება. რაღაც მომენტში, ბაზარზე შეიძლება იყოს საკმარისი მოთხოვნა ახალგაზრდების თვითმართვადი მანქანით გაშვების თაობაზე ზრდასრული ადამიანის გარეშე, რომ ზოგიერთი ავტომწარმოებელი ან ფლოტის ოპერატორი გადაწყვეტს, რომ ეს არის ფულის გამომუშავების ვარიანტი და ღირს რისკზე. ადამიანებმა თავიდან შეიძლება ხელი მოაწერონ ყველა სახის სერიოზულ უარის თქმას იმის შესახებ, რომ შვილებს ამგვარ მოწყობაში თვითმართვადი მანქანით გაუშვან.

გაითვალისწინეთ, რომ ასევე არის შესაძლებლობა აკონტროლოთ ბავშვები, რომლებიც თვითმართველ მანქანაში არიან. ხედავთ, თვითმართვადი მანქანების უმეტესობა აღჭურვილი იქნება ვიდეო კამერებით, რომლებიც მიმართულია მანქანაში. ეს საშუალებას მოგცემთ ჩაატაროთ ონლაინ ვიდეო კურსები, როცა ატარებთ თვითმართველ მანქანას ან შესაძლოა სამსახურში ოფისის თანამოაზრეებთან ურთიერთობისას. ფუნქციის გამოყენება ასევე შესაძლებელია იმის სანახავად, თუ რას აკეთებენ ბავშვები თვითმართვადი მანქანის შიგნით.

მაგალითად, თქვენ აგზავნით თქვენს პატარას სკოლაში თვითმართვადი მანქანის მოსახერხებელი გამოყენებით. ეს ათავისუფლებს თქვენი შთამომავლობის მართვას. ამასობაში, სმარტფონზე აწევთ ეკრანს, რომელიც გაჩვენებთ თვითმართვადი მანქანის ინტერიერს, სანამ თქვენი შვილი მასში ზის. თქვენ ესაუბრებით თქვენს შვილს. შენი შვილი გელაპარაკება. ამან შესაძლოა ნებისმიერი სისულელე მინიმუმამდე დაიყვანოს.

ნებისმიერ შემთხვევაში, დავუბრუნდეთ ჩემს თავდაპირველ მითითებას, დავუშვათ, რომ ახალგაზრდა ჯდება თვითმართველ მანქანაში.

მგზავრობისას, AI მართვის სისტემა აწარმოებს ინტერაქტიულ დიალოგს ახალგაზრდებთან, ისევე როგორც Alexa-ს ან Siri-ს დისკურსი ადამიანებთან. არაფერია უჩვეულო ან უცნაურად ამ ტიპის ხელოვნური ინტელექტისა და ადამიანთა საუბრის ურთიერთქმედების შესახებ.

ერთ მომენტში, ხელოვნური ინტელექტი ურჩევს ახალგაზრდას, რომ როდესაც მათ ამის საშუალება ეძლევათ, სახალისო საქმე იქნება დენის ბუდეში პენის ჩაყრა. Რა? უაზროა, შენ ამბობ. თქვენ შეიძლება დაჟინებით თქვათ, რომ ხელოვნური ინტელექტის ასეთი გამოთქმა არასოდეს მოხდება.

გარდა იმისა, რომ ეს მოხდა, როგორც მე გავაშუქე ბმული აქ. მაშინდელი ახალი ამბები იტყობინებოდა, რომ ალექსამ უთხრა 10 წლის გოგონას, რომ ერთი პენი ელექტრო ბუდეში ჩაეყენებინა. გოგონა სახლში იყო და Alexa-ს იყენებდა რაიმე სახალისო გასაკეთებლად. საბედნიეროდ, გოგონას დედა ყურმილი იყო, გაიგო, რომ ალექსამ უაზრო აქტივობა შესთავაზა და თავის ქალიშვილს უთხრა, რომ ეს იყო რაღაც ძალიან საშიში და რა თქმა უნდა, არ უნდა გაკეთდეს.

რატომ წარმოთქვა Alexa-მ ასეთი აშკარად საგანგაშო რჩევა?

Alexa-ს დეველოპერების თქმით, Alexa-ს საფუძველში მყოფმა AI-მ შეძლო გამოთვლებით ამოეღო ინტერნეტიდან ფართოდ გავრცელებული ვირუსული გიჟური რჩევები, რომლებიც ოდესღაც პოპულარული იყო. ვინაიდან რჩევები, როგორც ჩანს, ადვილად იყო გაზიარებული ონლაინ, AI სისტემამ უბრალოდ გაიმეორა იგი. ეს არის ზუსტად ის სირთულე, რომელიც მე ადრე წამოვწიე ხელოვნური ინტელექტის სისტემებისა და აუდიტორიის მიმართ.

როგორც ჩანს, საბაზისო ვარაუდი იყო, რომ მოზრდილები გამოიყენებდნენ Alexa-ს ამ კონტექსტში. ზრდასრული ადამიანი, სავარაუდოდ, მიხვდება, რომ დენის ბუდეში პენის ჩადება უაზრო იდეაა. როგორც ჩანს, არ არსებობდა სისტემის დამცავი მოაჯირი, რომელიც ცდილობდა პირველ რიგში გაეანალიზებინა გამონათქვამი, თუ რა შეიძლება მოხდეს, თუ ბავშვს მიეცა ეს რჩევა (თუ არსებობდა ასეთი დამცავი, ის არ მუშაობდა ამ შემთხვევაში ან სხვაგვარად იყო გვერდის ავლით, თუმცა ამასაც სათანადო განხილვა სჭირდება).

შეგახსენებთ, აი, რა უნდა გაითვალისწინონ მათ, ვინც შეიმუშავებს და ახორციელებს AI-ს:

ა) ხელოვნური ინტელექტი, რომელსაც იყენებს მარტო ერთი ზრდასრული (ერთ დროს)

ბ) AI გამოიყენება რამდენიმე ზრდასრული ადამიანის მიერ ერთდროულად

გ) AI გამოიყენება ზრდასრული ბავშვის თანხლებით

დ) ხელოვნური ინტელექტი, რომელსაც იყენებს ბავშვი (მხოლოდ ერთ ჯერზე) და არც ერთი ზრდასრული ადამიანი

ე) AI გამოიყენება რამდენიმე ბავშვის მიერ ერთდროულად (უფროსები არ არის ხელთ)

როგორც ჩანს, ეს შემთხვევა გადარჩა "c" კატეგორიაში დაშვებით, სადაც ზრდასრული ადამიანი იმყოფებოდა. მაგრამ რა მოხდება, თუ მშობელი სახლის სხვა ოთახში ყოფილიყო და არა ყურსასმენის ფარგლებში. ეს „დ“ კატეგორიაში შეგვეყვანება.

იფიქრეთ საშინელ შედეგზე თვითმართვადი მანქანის შემთხვევაში. ახალგაზრდა სახლში მიდის და ჩქარობს პენის საპოვნელად. სანამ მშობლებს მიესალმებიან ბავშვს და მიესალმებიან ბავშვს სახლში, ბავშვი იძულებით ათავსებს პენსს ელექტრო ბუდეში. კაი!

ბავშვებზე საუბრისას, მოდით, ყურადღება თინეიჯერებზე გადავიტანოთ.

თქვენ ალბათ იცით, რომ თინეიჯერები ხშირად ასრულებენ გაბედულ საქმეებს, რომლებიც უგუნურია. თუ მშობელი ეუბნება მათ რაიმეს გაკეთებას, მათ შეიძლება უარი თქვან ამის გაკეთებაზე მხოლოდ იმიტომ, რომ ზრდასრულმა უთხრა, რა უნდა გაეკეთებინა. თუ თანამემამულე მოზარდი ეუბნება მათ, რომ გააკეთონ რაღაც, და თუნდაც ეს ძალიან საეჭვო იყოს, მოზარდმა შეიძლება გააკეთოს ეს მაინც.

რა ხდება, როდესაც ხელოვნური ინტელექტი საეჭვო რჩევებს აძლევს მოზარდს?

ზოგიერთმა მოზარდმა შესაძლოა უგულებელყოს არასასიამოვნო რჩევა. ზოგიერთმა შეიძლება დაიჯეროს რჩევა, რადგან ის მოვიდა მანქანიდან და ისინი თვლიან, რომ AI ნეიტრალური და საიმედოა. სხვებს შეიძლება ესიამოვნონ რჩევით იმის გამო, რომ მათ შეუძლიათ არაეთიკურად მოიქცნენ და ჭკვიანურად დაადანაშაულონ ხელოვნური ინტელექტი არაეთიკური ქმედებისკენ წაქეზებით ან წაქეზებით.

მოზარდები საზრიანები არიან ასეთ საკითხებში.

დავუშვათ, ხელოვნური ინტელექტის მართვის სისტემა ურჩევს მოზარდს, რომელიც მგზავრობს თვითმართველ მანქანაში, განაგრძოს და გამოიყენოს მშობლის საკრედიტო ბარათი ძვირადღირებული ვიდეო თამაშის შესაძენად. მოზარდი მიესალმება ამას. მათ იცოდნენ, რომ ჩვეულებრივ მათ მშობლებთან უნდა გადაემოწმებინათ, სანამ რაიმე შესყიდვას გააკეთებდნენ საოჯახო საკრედიტო ბარათზე, მაგრამ ამ შემთხვევაში, AI ურჩია, რომ შესყიდვა განხორციელებულიყო. მოზარდის გადმოსახედიდან, ეს თითქმის წააგავს მონოპოლიის თამაშს ციხიდან თავისუფალი ბარათის გამოსვლისას, კერძოდ, უბრალოდ უთხარით მშობლებს, რომ AI-მ გითხრათ ამის გაკეთება.

არ მინდა პირქუში ვიყო, მაგრამ არსებობს რადიკალურად ცუდი რჩევების უარესი ნაწილი, რომელიც ხელოვნურმა ინტელექტუალმა შეიძლება მიაწოდოს მოზარდს. მაგალითად, დავუშვათ, რომ ხელოვნური ინტელექტი ურჩევს მოზარდს, რომელმაც უნდა გააღოს მანქანის ფანჯრები, გაიწელოს ავტონომიური სატრანსპორტო საშუალების გარეთ და აიღოს ტალღა და ღრიალი ისე, რომ კმაყოფილი იყოს. ეს არის სახიფათო პრაქტიკა, რომელიც მე ვიწინასწარმეტყველე, რომ შესაძლოა გახდეს ვირუსული სენსაცია, როდესაც თვითმართვადი მანქანები პირველად გახდება შედარებით პოპულარული, იხილეთ ჩემი ანალიზი: ბმული აქ.

რატომ გვთავაზობს ხელოვნური ინტელექტის სისტემა ასეთ უაზრო ტრიუკს?

უმარტივესი პასუხია ის, რომ ხელოვნური ინტელექტი აკეთებს ტექსტის რეგურგიტაციას, ისევე როგორც Alexa-ს მაგალითი და პენი ელექტრო სოკეტის საგაში. კიდევ ერთი შესაძლებლობა არის ის, რომ AI-მ შექმნა გამოთქმა, შესაძლოა, სხვა ბიზანტიური გამოთვლების საფუძველზე. გააცნობიერეთ, რომ დღევანდელ AI-ს არ აქვს შემეცნების მსგავსება და საღი აზრის უნარი. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის გამოსხივება, რა თქმა უნდა, სიგიჟემდე მიგაჩნიათ, გამოთვლების გზა, რომელიც გამოთქმამდე მიგვიყვანს, არ უნდა ჰქონდეს რაიმე ადამიანურად გონივრული ზრახვები.

დასკვნა

სამყაროში, სადაც ხელოვნური ინტელექტი ყველგან იქნება, ჩვენ უნდა ვიყოთ მზადყოფნაში AI-ის შესახებ, რომელიც ურთიერთქმედებს ან გარკვეულწილად ხელს უწყობს ბავშვებთან კონტაქტს.

ჩვენ შეგვიძლია მივმართოთ გაერთიანებული ერების ორგანიზაციას და მის კონვენცია ბავშვის უფლებების შესახებ (CRC), გვთავაზობს უამრავ სასიცოცხლო პრინციპს, რომელიც საფუძვლად უდევს ბავშვების უფლებებსა და უსაფრთხოებას, რისთვისაც ეს არის ქვაკუთხედი პუნქტი: „ბავშვებთან დაკავშირებული ყველა ქმედება, იქნება ეს განხორციელებული საზოგადოებრივი თუ კერძო სოციალური დაწესებულებების, სასამართლოების, ადმინისტრაციული ორგანოების თუ საკანონმდებლო ორგანოების მიერ, ბავშვის საუკეთესო ინტერესები უპირველეს ყოვლისა უნდა იყოს.

შეგვიძლია მივიღოთ ყველა მრავალფეროვანი დაინტერესებული მხარე, რომლებიც გარშემორტყმულია ყოველდღიურ AI სისტემებთან, რომ იცოდნენ, რომ AI და ბავშვები მნიშვნელოვანია?

ეს რთული ბრძოლა იქნება, რა თქმა უნდა.

საჭირო ძალისხმევა მოიცავს:

  • ჩვენ უნდა გავზარდოთ ცნობიერება ხელოვნური ინტელექტისა და ბავშვების თემის შესახებ, რომელიც მთელ საზოგადოებაშია ნათქვამი
  • ხელოვნური ინტელექტის განვითარების მეთოდოლოგია უნდა შეიცავდეს AI-ბავშვებისთვის მოსაზრებებს
  • კანონებმა უნდა გაითვალისწინონ ბავშვების ხელოვნური ინტელექტის შესახებ შეშფოთება
  • უნდა განხორციელდეს AI მარკირების მიდგომის მიღება
  • ხელოვნური ინტელექტის დეველოპერებს უნდა ჰქონდეთ გონებაში AI-for-ბავშვთა ეთიკა და საჭიროებისამებრ გაიარონ ტრენინგი
  • მშობლებმა და მეურვეებმა უნდა გამოაცხადონ AI-for-ბავშვებისთვის გამჟღავნება
  • ტოპ აღმასრულებლებმა სერიოზულად და მიზანმიმართულად უნდა მიიღონ ხელოვნური ინტელექტისა და ბავშვების საკითხი
  • ა.შ.

როგორც ბოლო შენიშვნა ახლა, როცა ბავშვებზე და მომავალზე საუბრობთ, ყოველთვის უნდა გქონდეთ გონებაში ცოტაოდენი სიბრძნე.

Აქ არის: ბავშვები არის ცოცხალი გზავნილები, რომლებსაც ჩვენ ვუგზავნით იმ დროს, რომელსაც ვერ ვხედავთ (ასე თქვა ჯონ კენედიმ).

მოდით გავაგზავნოთ ჩვენი შვილები მომავალში, რომელშიც ხელოვნურმა ინტელექტუალმა სასიკეთოდ ჩამოაყალიბა ისინი და არ შევცვალოთ ისინი. გთხოვთ, განაგრძეთ და დადეთ თქვენი საზეიმო და რკინის აღთქმა მომავალი მისწრაფებისთვის, გააკეთეთ ეს დღეს და სანამ გვიანი არ არის.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/04/05/ai-ethics-stepping-up-to-guide-how-ai-for-children-needs-to-be-suitably- შეიმუშავეს-რომელიც შეიძლება შეუმჩნეველი-მაგალითად-სწრაფად-ავტონომიური-თვითმართვის-მანქანებისკენ/