ხელოვნური ინტელექტის ეთიკა და ხელოვნური ინტელექტის კანონზომიერება, რომელიც აწონ-დაწონს იმ ძირითად გზებს, რომ განხორციელდეს ახლახან გამოქვეყნებული ხელოვნური ინტელექტის უფლება

ეჭვგარეშეა, რომ ჩვენ გვჭირდება გეგმები ჩვენს ყოველდღიურ ცხოვრებაში.

თუ თქვენ აპირებთ თქვენი დიდი ხნის ნანატრი საოცნებო სახლის აშენებას, გონივრული იქნება პირველ რიგში შეადგინოთ გამოსაყენებელი გეგმა.

გეგმა ასახავს ხელშესახებ და დოკუმენტირებულ გზას, რასაც გაფართოებული თვალისმომჭრელი პერსპექტივა შეიძლება ჩაკეტილი იყოს თქვენს ნოგინში. ისინი, ვინც მოწვეულნი იქნებიან თქვენი საყვარელი საკარმიდამო ნაკვეთის ასაშენებლად, შეძლებენ მიმართონ გეგმას და დააფიქსირონ დეტალები, თუ როგორ უნდა დაასრულონ სამუშაო. გეგმები მოსახერხებელია. გეგმის არარსებობა აუცილებლად პრობლემურია ნებისმიერი სახის რთული სამუშაოს ან პროექტის მოსაგვარებლად.

მოდით გადავიტანოთ ეს გარკვეულწილად სენტიმენტალური, მაგრამ ნამდვილი ხარკი გეგმებზე ხელოვნური ინტელექტის (AI) სფეროში.

მათ, ვინც არსებითად ფლობს AI-ს, შეიძლება ბუნდოვნად იცოდეს, რომ მნიშვნელოვანი პოლიტიკაზეა ორიენტირებული გეგმა ახლახან გამოვიდა აშშ-ში, რომელიც აშკარად ეხება ხელოვნური ინტელექტის მომავალს. არაფორმალურად ცნობილია როგორც AI უფლებების ბილი, გამოცხადებული თეთრი ფურცლის ოფიციალური სათაურია “Blueprint for a AI Bill of Rights: Making Automated Systems Work for the American People” და ხელმისაწვდომია ონლაინ რეჟიმში.

დოკუმენტი არის მეცნიერებისა და ტექნოლოგიების პოლიტიკის ოფისის (OSTP) ერთწლიანი ძალისხმევისა და შესწავლის შედეგი. OSTP არის ფედერალური ერთეული, რომელიც შეიქმნა 1970-იანი წლების შუა ხანებში და ემსახურება ამერიკის პრეზიდენტსა და აშშ-ს აღმასრულებელ ოფისს რჩევებს ეროვნული მნიშვნელობის სხვადასხვა ტექნოლოგიურ, სამეცნიერო და საინჟინრო ასპექტებზე. ამ თვალსაზრისით, შეგიძლიათ თქვათ, რომ AI უფლებების შესახებ ეს არის დოკუმენტი, რომელიც დამტკიცებულია და დამტკიცებულია აშშ-ს არსებული თეთრი სახლის მიერ.

AI უფლებების ბილეთი ასახავს ადამიანის უფლებები რაც კაცობრიობას უნდა ჰქონდეს ჩვენს ყოველდღიურ ცხოვრებაში ხელოვნური ინტელექტის გამოჩენასთან დაკავშირებით. მე ხაზს ვუსვამ ამ მნიშვნელოვან საკითხს, რადგან ზოგიერთ ადამიანს თავიდან აწუხებდა, რომ შესაძლოა ეს იყო ერთგვარი აღიარება AI-ს იურიდიული პიროვნების არსებობის შესახებ და რომ ეს იყო უფლებათა მთელი რიგი მგრძნობიარე ხელოვნური ინტელექტისა და ჰუმანოიდური რობოტებისთვის. არა, ჯერ იქ არ ვართ. როგორც ერთ მომენტში ნახავთ, ჩვენ ახლოს არ ვართ მგრძნობიარე AI-სთან, მიუხედავად ბანერის სათაურებისა, რომლებიც თითქოს სხვაგვარად გვეუბნებიან.

კარგი, გვჭირდება თუ არა გეგმა, რომელიც ასახავს ადამიანის უფლებებს ხელოვნური ინტელექტის ეპოქაში?

დიახ, ჩვენ ნამდვილად ვაკეთებთ.

თქვენ თითქმის დაგჭირდებათ გამოქვაბულში ჩაკეტვა და ინტერნეტთან წვდომის არარსებობა, რომ არ იცოდეთ, რომ ხელოვნური ინტელექტი უკვე და უფრო მეტად არღვევს ჩვენს უფლებებს. ხელოვნური ინტელექტის ბოლო ერა თავდაპირველად განიხილებოდა, როგორც AI კარგით, რაც იმას ნიშნავს, რომ ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტი კაცობრიობის გასაუმჯობესებლად. ქუსლებზე AI კარგით მივხვდი, რომ ჩვენც ჩაძირულები ვართ AI ცუდად. ეს მოიცავს ხელოვნურ ინტელექტს, რომელიც შემუშავებულია ან თვითშეცვლილია დისკრიმინაციულად და აკეთებს გამოთვლით არჩევანს, რომელიც ავსებს უადგილო მიკერძოებას. ზოგჯერ ხელოვნური ინტელექტი აგებულია ამ გზით, ხოლო სხვა შემთხვევებში ის გადადის იმ არასასურველ ტერიტორიაზე.

ხელოვნური ხელოვნური ინტელექტის კანონის, ხელოვნური ინტელექტის ეთიკის და სხვა საკვანძო ხელოვნური ინტელექტის ტექნოლოგიური და სოციალური ტენდენციების შესახებ ჩემი მიმდინარე და ვრცელი გაშუქებისა და ანალიზისთვის, იხ. ბმული აქ მდე ბმული აქ, უბრალოდ ასახელებს რამდენიმე.

AI უფლებების შესახებ კანონპროექტის გახსნა

მე ადრე განვიხილეთ AI უფლებების შესახებ კანონი და გავაკეთებ სწრაფ მიმოხილვას აქ.

გარდა ამისა, თუ გსურთ იცოდეთ ჩემი სიღრმისეული დადებითი და უარყოფითი მხარეები ახლახან გამოქვეყნებული AI უფლებების შესახებ, მე დეტალურად განვიხილეთ ჩემი ანალიზი სტატიაში. იურისტიიხილეთ ბმული აქ. იურისტი არის ცნობილი იურიდიული ახალი ამბებისა და კომენტარების ონლაინ საიტი, რომელიც ფართოდ არის ცნობილი, როგორც ჯილდოს მფლობელი იურიდიული ახალი ამბების სერვისი, რომელსაც აქვს იურიდიული სტუდენტების რეპორტიორების, რედაქტორების, კომენტატორების, კორესპონდენტებისა და კონტენტის შემქმნელების გლობალური გუნდი და მისი სათაო ოფისი მდებარეობს პიტსბურგის უნივერსიტეტის სკოლაში. კანონი პიტსბურგში, სადაც იგი დაიწყო 25 წელზე მეტი ხნის წინ. შეძახილი გამოჩენილ და შრომისმოყვარე გუნდს იურისტი.

ხელოვნური ინტელექტის უფლებათა ბილში არის ხუთი ძირითადი კატეგორია:

  • უსაფრთხო და ეფექტური სისტემები
  • ალგორითმული დისკრიმინაციის დაცვა
  • მონაცემთა კონფიდენციალურობა
  • შენიშვნა და ახსნა
  • ადამიანური ალტერნატივები, განხილვა და უკან დაბრუნება

გაითვალისწინეთ, რომ მე არ დავთვალე ისინი ერთიდან ხუთამდე, რადგან ამის გაკეთება შეიძლება გულისხმობდეს, რომ ისინი კონკრეტულ თანმიმდევრობაში არიან ან რომ ერთი უფლება ერთი შეხედვით უფრო მნიშვნელოვანია, ვიდრე მეორე. ჩვენ ვივარაუდებთ, რომ ისინი თითოეული საკუთარი დამსახურებაა. ისინი ყველა ერთნაირად დამსახურებულები არიან.

როგორც მოკლე მითითება იმისა, თუ რისგან შედგება თითოეული მათგანი, აქ არის ნაწყვეტი ოფიციალური თეთრი ფურცლიდან:

  • უსაფრთხო და ეფექტური სისტემები: „თქვენ უნდა იყოთ დაცული სახიფათო ან არაეფექტური სისტემებისგან. ავტომატური სისტემები უნდა განვითარდეს სხვადასხვა თემის, დაინტერესებული მხარეების და დომენის ექსპერტების კონსულტაციით, რათა დადგინდეს სისტემის პრობლემები, რისკები და პოტენციური ზემოქმედება.
  • ალგორითმული დისკრიმინაციის დაცვა: „არ უნდა შეექმნათ დისკრიმინაცია ალგორითმებით და სისტემები უნდა იყოს გამოყენებული და შემუშავებული სამართლიანად. ალგორითმული დისკრიმინაცია ხდება მაშინ, როდესაც ავტომატური სისტემები ხელს უწყობენ გაუმართლებელ განსხვავებულ მოპყრობას ან ზეგავლენას ადამიანებზე, რომლებიც უარყოფითად აისახება მათი რასის, ფერის, ეროვნების, სქესის (მათ შორის ორსულობა, მშობიარობა და მასთან დაკავშირებული სამედიცინო პირობები, გენდერული იდენტობა, ინტერსქესობრივი სტატუსი და სექსუალური ორიენტაცია), რელიგია, ასაკი. , ეროვნული წარმომავლობა, ინვალიდობა, ვეტერანის სტატუსი, გენეტიკური ინფორმაცია ან კანონით დაცული ნებისმიერი სხვა კლასიფიკაცია“.
  • მონაცემთა კონფიდენციალურობა: „თქვენ დაცული უნდა იყოთ მონაცემთა შეურაცხმყოფელი პრაქტიკისგან ჩაშენებული დაცვის საშუალებით და უნდა გქონდეთ სააგენტო, თუ როგორ გამოიყენება თქვენს შესახებ მონაცემები. თქვენ დაცული უნდა იყოთ კონფიდენციალურობის დარღვევისგან დიზაინის არჩევანის საშუალებით, რომელიც უზრუნველყოფს ასეთი დაცვის ნაგულისხმევ ჩართვას, მათ შორის იმის უზრუნველსაყოფად, რომ მონაცემთა შეგროვება შეესაბამება გონივრულ მოლოდინებს და რომ შეგროვდება მხოლოდ კონკრეტული კონტექსტისთვის მკაცრად აუცილებელი მონაცემები.”
  • შენიშვნა და ახსნა: „თქვენ უნდა იცოდეთ, რომ ავტომატიზირებული სისტემა გამოიყენება და გესმოდეთ, როგორ და რატომ უწყობს ხელს ის შედეგებს, რომლებიც გავლენას ახდენენ თქვენზე. ავტომატიზირებული სისტემების დიზაინერებმა, დეველოპერებმა და დეველოპერებმა უნდა წარმოადგინონ ზოგადად ხელმისაწვდომ მარტივ ენაზე არსებული დოკუმენტაცია, მათ შორის სისტემის მთლიანი ფუნქციონირებისა და ავტომატიზაციის როლის მკაფიო აღწერა, შენიშვნა, რომ ასეთი სისტემები გამოიყენება, სისტემაზე პასუხისმგებელი პიროვნება ან ორგანიზაცია და ახსნა-განმარტებები. მკაფიო, დროული და ხელმისაწვდომი შედეგები.
  • ადამიანის ალტერნატივები, განხილვა და უკან დაბრუნება: „უნდა გქონდეთ უარის თქმა, საჭიროების შემთხვევაში, და გქონდეთ წვდომა იმ ადამიანთან, რომელსაც შეუძლია სწრაფად განიხილოს და მოაგვაროს ის პრობლემები, რომლებიც თქვენ წააწყდებით. თქვენ უნდა შეგეძლოთ უარი თქვათ ავტომატიზირებულ სისტემებზე ადამიანური ალტერნატივის სასარგებლოდ, საჭიროების შემთხვევაში.”

ზოგადად, ეს არის კაცობრიობის უფლებების ასპექტები, რომლებიც საკმაოდ დიდი ხნის განმავლობაში იყო მიჯაჭვული ხელოვნური ინტელექტის ეთიკისა და ხელოვნური ინტელექტის კანონის კონტექსტში, იხილეთ ჩემი გაშუქება, როგორიცაა: ბმული აქ. თეთრი ქაღალდი, როგორც ჩანს, ჯადოსნურად არ ამოიღებს კურდღელს ქუდიდან, როგორც ახლად აღმოჩენილ ან აღმოჩენილ უფლებას, რომელიც აქამდე არ იყო ახსნილი ხელოვნური ინტელექტის ეპოქის კონტექსტში.

Არაუშავს.

თქვენ შეგიძლიათ ამტკიცებდეთ, რომ მათი შედგენა ერთ ლამაზად შეფუთულ და ფორმალიზებულ კოლექციაში სასიცოცხლო მნიშვნელობის მომსახურებას იძლევა. გარდა ამისა, აღიარებულად ცხებულებით AI უფლებების ბილი, ეს კიდევ უფრო ღიად და ოსტატურად აყენებს მთელ საკითხს საჯარო სფეროს ცნობიერებაში. იგი აერთიანებს სხვადასხვა დისკუსიების არსებულ სიმრავლეს სინგულარულ კომპლექტში, რომელიც ახლა შეიძლება იყოს საყვირი და გადაეცეს ყველა დაინტერესებულ მხარეში.

ნება მომეცით შემოგთავაზოთ ხელსაყრელი რეაქციების ეს სია გამოცხადებულ AI უფლებების შესახებ:

  • გთავაზობთ ძირითადი პრინციპების არსებით კომპილაციას
  • ემსახურება როგორც გეგმას ან საფუძველს, რომლის საფუძველზეც უნდა ავაშენოთ
  • მოქმედებს როგორც ხმოვანი მოწოდება მოქმედებისკენ
  • იწვევს ინტერესს და აჩვენებს, რომ ეს სერიოზული მოსაზრებებია
  • აერთიანებს უამრავ განსხვავებულ დისკუსიას
  • ანათებს და ხელს უწყობს ეთიკური AI მიღების მცდელობებს
  • უდავოდ იკვებება AI კანონების დამკვიდრებაში
  • სხვა

ჩვენ ასევე უნდა გავითვალისწინოთ ნაკლებად ხელსაყრელი რეაქციები, იმის გათვალისწინებით, რომ კიდევ ბევრი სამუშაოა გასაკეთებელი და რომ ეს მხოლოდ დასაწყისია გრძელი მოგზაურობის რთულ გზაზე ხელოვნური ინტელექტის მართვის რთულ გზაზე.

როგორც ასეთი, გარკვეულწილად მკაცრი ან ვთქვათ კონსტრუქციული კრიტიკა ხელოვნური ინტელექტის უფლებების შესახებ კანონპროექტის მიმართ მოიცავს:

  • არ არის იურიდიულად აღსასრულებელი და სრულიად არასავალდებულო
  • მხოლოდ საკონსულტაციო და არ განიხილება სამთავრობო პოლიტიკა
  • ნაკლებად ყოვლისმომცველია სხვა გამოქვეყნებულ ნაშრომებთან შედარებით
  • ძირითადად შედგება ფართო კონცეფციებისგან და მოკლებულია განხორციელების დეტალებს
  • ფაქტობრივად სიცოცხლისუნარიან პრაქტიკულ კანონებად გადაქცევა რთული იქნება
  • როგორც ჩანს, დუმს ზოგიერთ კონტექსტში ხელოვნური ინტელექტის შესაძლო აკრძალვის მოსალოდნელ საკითხზე
  • მარგინალურად აღიარებს AI-ის გამოყენების უპირატესობებს, რომელიც კარგად არის შემუშავებული
  • სხვა

შესაძლოა, ყველაზე თვალსაჩინო მძაფრი კომენტარი ეძღვნებოდა იმ ფაქტს, რომ ეს AI უფლებების შესახებ კანონი არ არის კანონიერად აღსრულებული და, შესაბამისად, არ აქვს ძალა, როდესაც საქმე ეხება მკაფიო მიზნების დადგენას. ზოგიერთმა თქვა, რომ მართალია თეთრი ქაღალდი სასარგებლო და გამამხნევებელია, მაგრამ მას ნამდვილად აკლია კბილები. ისინი სვამენ კითხვას, თუ რა შეიძლება გამოვიდეს ჭკვიანური მცნებების ნათქვამ ღრუ კბილის ნაკრებიდან.

იმ მტკივნეულ შენიშვნებს ცოტა ხანში მივმართავ.

იმავდროულად, თეთრი ქაღალდი უხვად ასახელებს შეზღუდვებს, თუ რას გულისხმობს ეს AI უფლებების ბილეთი:

  • „AI უფლებების შესახებ კანონის გეგმა არ არის სავალდებულო და არ წარმოადგენს აშშ-ს მთავრობის პოლიტიკას. ის არ ცვლის, არ ცვლის ან ხელმძღვანელობს რაიმე არსებული წესდების, რეგულაციების, პოლიტიკის ან საერთაშორისო დოკუმენტის ინტერპრეტაციას. ის არ წარმოადგენს სავალდებულო მითითებებს საჯარო ან ფედერალური სააგენტოებისთვის და, შესაბამისად, არ საჭიროებს აქ აღწერილი პრინციპების დაცვას. ასევე არ არის გადამწყვეტი, როგორი იქნება აშშ-ს მთავრობის პოზიცია რომელიმე საერთაშორისო მოლაპარაკებაზე. ამ პრინციპების მიღება შეიძლება არ აკმაყოფილებდეს არსებული წესდების, რეგულაციების, პოლიტიკის ან საერთაშორისო ინსტრუმენტების მოთხოვნებს, ან ფედერალური სააგენტოების მოთხოვნებს, რომლებიც ახორციელებენ მათ. ეს პრინციპები არ არის გამიზნული და არ კრძალავს ან ზღუდავს სამთავრობო უწყების რაიმე კანონიერ საქმიანობას, მათ შორის სამართალდამცავ, ეროვნული უსაფრთხოების ან დაზვერვის საქმიანობას“ (თეთრი ქაღალდის მიხედვით).

მათთვის, ვინც სწრაფად დაამტკიცა ხელოვნური ინტელექტის უფლებათა ბილი, როგორც იურიდიულად არასავალდებულო, მოდით ჩავატაროთ ცოტა სააზროვნო ექსპერიმენტი ამ მტკივნეულ ბრალდებაზე. დავუშვათ, თეთრი ფურცელი გამოვიდა და კანონის სრული ძალა ჰქონდა. შემიძლია ვთქვა, რომ შედეგი გარკვეულწილად კატასტროფული იქნება, ყოველ შემთხვევაში, პროკლამაციაზე როგორც სამართლებრივი, ასევე სოციალური რეაგირების ხარისხით.

კანონმდებლები დარწმუნდნენ, რომ მცდელობამ არ გაატარა ნორმატიული პროცესები და სამართლებრივი პროცედურები მსგავსი კანონების შედგენისას. ბიზნესი სამართლიანად განრისხდება, რომ ახალი კანონები გამოვიდეს საკმარისად გაფრთხილებისა და ცნობიერების გარეშე, რა არის ეს კანონები. ყოველგვარი აღშფოთება და აღშფოთება მოჰყვებოდა.

არ არის კარგი გზა მიზიდულობისკენ კაცობრიობის უფლებების გამყარებისკენ AI ეპოქაში.

გავიხსენოთ, რომ ადრე დავიწყე ეს დისკუსია გეგმების ღირებულებისა და სიცოცხლისუნარიანობის მოყვანით.

წარმოიდგინეთ, რომ ვიღაცამ გამოტოვა ნახატების დამზადების ეტაპი და მაშინვე გადახტა თქვენი ოცნების სახლის აშენებაში. როგორ ფიქრობთ, როგორი იქნებოდა სახლი? როგორც ჩანს, სამართლიანი ფსონია, რომ სახლი განსაკუთრებით არ შეესაბამებოდა იმას, რაც შენს გონებაში გქონდა. შედეგად საკარმიდამო ნაკვეთი შეიძლება იყოს სრული არეულობა.

არსი ის არის, რომ ჩვენ ნამდვილად გვჭირდება გეგმები და ახლა გვაქვს ერთი იმისთვის, რომ წინ წავიწიოთ გონივრული ხელოვნური ინტელექტის კანონების გარკვევისა და ეთიკური ხელოვნური ინტელექტის მიღების უფლებამოსილების გასაძლიერებლად.

აქედან გამომდინარე, მსურს მივმართო იმ გზებს, რომლითაც ეს ხელოვნური ინტელექტის უფლებათა კანონპროექტი შეიძლება იქცეს სახლად. როგორ გამოვიყენოთ გეგმა? რა არის შესაფერისი შემდეგი ნაბიჯები? შეიძლება ეს სქემა საკმარისი იყოს, თუ მას მეტი ხორცი სჭირდება ძვლებზე?

სანამ ამ მძიმე საკითხებს გადავიდოდეთ, პირველ რიგში მინდა დავრწმუნდე, რომ ჩვენ ყველანი ერთსა და იმავე გვერდზე ვართ ხელოვნური ინტელექტის ბუნებისა და დღევანდელი სტატუსის შესახებ.

ჩანაწერის პირდაპირ დაყენება დღევანდელი AI-ის შესახებ

ძალიან ხაზგასმული განცხადება მინდა გავაკეთო.

მზად ხართ?

დღეს არ არსებობს AI, რომელიც მგრძნობიარეა.

ჩვენ არ გვაქვს ეს. ჩვენ არ ვიცით შესაძლებელი იქნება თუ არა მგრძნობიარე AI. ვერავინ შეძლებს სწორად იწინასწარმეტყველოს, მივაღწევთ თუ არა სენტიმენტალურ AI-ს და არც იქნება თუ არა გონიერი ხელოვნური ინტელექტი როგორმე სასწაულებრივად სპონტანურად წარმოიქმნება გამოთვლითი შემეცნებითი სუპერნოვას სახით (ჩვეულებრივ უწოდებენ სინგულარობას, იხილეთ ჩემი გაშუქება აქ ბმული აქ).

ხელოვნური ინტელექტის ტიპი, რომელზეც მე ვამახვილებ ყურადღებას, შედგება არა მგრძნობიარე AI-სგან, რომელიც დღეს გვაქვს. თუ ჩვენ გვინდოდა სასტიკი სპეკულირება მგრძნობიარე ხელოვნური ინტელექტის შესახებ, ეს დისკუსია შეიძლება რადიკალურად განსხვავებული მიმართულებით წავიდეს. მგრძნობიარე AI სავარაუდოდ ადამიანის ხარისხის იქნებოდა. თქვენ უნდა გაითვალისწინოთ, რომ მგრძნობიარე AI არის ადამიანის კოგნიტური ეკვივალენტი. უფრო მეტიც, რადგან ზოგიერთი ვარაუდობს, რომ შეიძლება გვქონდეს სუპერ ინტელექტუალური AI, საფიქრებელია, რომ ასეთი AI შეიძლება ადამიანებზე ჭკვიანი იყოს (სუპერ ინტელექტუალური ხელოვნური ინტელექტის შესასწავლად, როგორც შესაძლებლობა, იხ. გაშუქება აქ).

მე კატეგორიულად გირჩევთ, შევინარჩუნოთ ყველაფერი დედამიწაზე და განვიხილოთ დღევანდელი გამოთვლითი არა მგრძნობიარე AI.

გააცნობიერეთ, რომ დღევანდელ AI-ს არ შეუძლია „აზროვნება“ ადამიანის აზროვნების ტოლფასად. როდესაც თქვენ ურთიერთობთ Alexa-სთან ან Siri-თან, საუბრის შესაძლებლობები შეიძლება ადამიანური შესაძლებლობების მსგავსი ჩანდეს, მაგრამ რეალობა ის არის, რომ ის არის გამოთვლითი და მოკლებულია ადამიანის შემეცნებას. ხელოვნური ინტელექტის უახლესმა ეპოქამ ფართოდ გამოიყენა მანქანათმცოდნეობა (ML) და ღრმა სწავლება (DL), რომლებიც იყენებენ გამოთვლითი შაბლონების შესაბამისობას. ამან გამოიწვია ხელოვნური ინტელექტის სისტემები, რომლებსაც აქვთ ადამიანის მსგავსი მიდრეკილებების გარეგნობა. იმავდროულად, დღეს არ არსებობს ხელოვნური ინტელექტი, რომელსაც აქვს საღი აზრი და არც ადამიანური აზროვნების ძლიერი შემეცნებითი საოცრება.

იყავით ძალიან ფრთხილად დღევანდელი ხელოვნური ინტელექტის ანთროპომორფიზაციასთან დაკავშირებით.

ML/DL არის გამოთვლითი ნიმუშის შესატყვისის ფორმა. ჩვეულებრივი მიდგომა არის ის, რომ თქვენ აგროვებთ მონაცემებს გადაწყვეტილების მიღების ამოცანის შესახებ. თქვენ აწვდით მონაცემებს ML/DL კომპიუტერულ მოდელებში. ეს მოდელები ეძებენ მათემატიკური ნიმუშების პოვნას. ასეთი შაბლონების პოვნის შემდეგ, თუ ეს ნაპოვნია, ხელოვნური ინტელექტის სისტემა გამოიყენებს ამ შაბლონებს ახალ მონაცემებთან შეხვედრისას. ახალი მონაცემების წარდგენისას, „ძველ“ ან ისტორიულ მონაცემებზე დაფუძნებული შაბლონები გამოიყენება მიმდინარე გადაწყვეტილების მისაღებად.

ვფიქრობ, შეგიძლიათ გამოიცნოთ საით მიდის ეს. თუ ადამიანები, რომლებიც იღებდნენ გადაწყვეტილებებს, ატარებდნენ არასასურველ მიკერძოებებს, დიდი ალბათობაა, რომ მონაცემები ასახავს ამას დახვეწილი, მაგრამ მნიშვნელოვანი გზებით. მანქანათმცოდნეობის ან ღრმა სწავლების გამოთვლითი ნიმუშის შესატყვისი უბრალოდ შეეცდება მათემატიკურად მიბაძოს მონაცემების შესაბამისად. თავისთავად არ არსებობს საღი აზრის ან ხელოვნური ინტელექტის შემუშავებული მოდელირების სხვა მგრძნობიარე ასპექტები.

გარდა ამისა, ხელოვნური ინტელექტის შემქმნელებმა შესაძლოა ვერც გააცნობიერონ რა ხდება. საიდუმლო მათემატიკა ML/DL-ში შესაძლოა გაართულოს ახლა ფარული მიკერძოებების ამოცნობა. თქვენ სამართლიანად იმედოვნებთ და ელოდებით, რომ ხელოვნური ინტელექტის დეველოპერები შეამოწმებენ პოტენციურად ჩაფლულ მიკერძოებებს, თუმცა ეს უფრო რთულია, ვიდრე შეიძლება ჩანდეს. არსებობს სოლიდური შანსი, რომ შედარებით ვრცელი ტესტირების შემთხვევაშიც კი, ML/DL-ის შაბლონების შესატყვისი მოდელების შიგნით მაინც იყოს მიკერძოებულები.

თქვენ შეგიძლიათ გარკვეულწილად გამოიყენოთ ცნობილი ან სამარცხვინო ანდაზა ნაგვის ნაგვის გამოსვლის შესახებ. საქმე იმაშია, რომ ეს უფრო მეტად წააგავს მიკერძოებას, რომელიც მზაკვრულად ჩნდება AI-ში ჩაძირული მიკერძოებების სახით. AI-ის გადაწყვეტილების მიღების ალგორითმი (ADM) აქსიომატიურად იტვირთება უთანასწორობებით.

Არ არის კარგი.

ამ ყველაფერს აქვს განსაკუთრებით მნიშვნელოვანი AI ეთიკის გავლენა და გთავაზობთ მოსახერხებელ ფანჯარას ნასწავლი გაკვეთილების შესახებ (თუნდაც სანამ ყველა გაკვეთილი მოხდება), როდესაც საქმე ეხება ხელოვნური ინტელექტის კანონმდებლობის დაწესებას.

ზოგადად ხელოვნური ინტელექტის ეთიკის პრინციპების გამოყენების გარდა, არსებობს შესაბამისი კითხვა, უნდა გვქონდეს თუ არა კანონები ხელოვნური ინტელექტის სხვადასხვა გამოყენებისთვის. ფედერალურ, შტატში და ადგილობრივ დონეზე შემოიფარგლება ახალი კანონები, რომლებიც ეხება ხელოვნური ინტელექტის შემუშავების დიაპაზონსა და ბუნებას. ამგვარი კანონების შემუშავებისა და ამოქმედების მცდელობა ეტაპობრივია. ხელოვნური ინტელექტის ეთიკა, სულ მცირე, განიხილება, როგორც მინიმუმ, და თითქმის რა თქმა უნდა გარკვეულწილად პირდაპირ იქნება ჩართული ამ ახალ კანონებში.

გაითვალისწინეთ, რომ ზოგიერთი კატეგორიულად ამტკიცებს, რომ ჩვენ არ გვჭირდება ახალი კანონები, რომლებიც მოიცავს ხელოვნურ ინტელექტს და რომ ჩვენი არსებული კანონები საკმარისია. ისინი წინასწარ გვაფრთხილებენ, რომ თუ ჩვენ მივიღებთ ამ AI კანონს, ჩვენ მოვკლავთ ოქროს ბატს ხელოვნური ინტელექტის მიღწევების შეზღუდვით, რომლებიც უზარმაზარ სოციალურ უპირატესობებს გვთავაზობენ.

წინა სვეტებში მე გავაშუქე სხვადასხვა ეროვნული და საერთაშორისო ძალისხმევა ხელოვნური ინტელექტის მარეგულირებელი კანონების შემუშავებისა და ამოქმედების მიზნით, იხ. ბმული აქ, მაგალითად. მე ასევე გავაშუქე ხელოვნური ინტელექტის ეთიკის სხვადასხვა პრინციპები და გაიდლაინები, რომლებიც სხვადასხვა ერებმა დაადგინეს და მიიღეს, მათ შორის, მაგალითად, გაეროს ძალისხმევა, როგორიცაა იუნესკოს AI ეთიკის ნაკრები, რომელიც თითქმის 200 ქვეყანამ მიიღო, იხ. ბმული აქ.

აქ მოცემულია ეთიკური ხელოვნური ინტელექტის კრიტერიუმების ან მახასიათებლების სასარგებლო საკვანძო სია AI სისტემებთან დაკავშირებით, რომლებიც ადრე შევისწავლე:

  • გამჭვირვალობა
  • სამართლიანობა და სამართლიანობა
  • არა ბოროტმოქმედება
  • პასუხისმგებლობა
  • Privacy
  • კეთილგანწყობა
  • თავისუფლება და ავტონომია
  • ენდეთ
  • მდგრადობა
  • ღირსების
  • სოლიდარობა

ხელოვნური ინტელექტის ეთიკის ეს პრინციპები გულმოდგინედ უნდა გამოიყენონ AI დეველოპერებმა, მათთან ერთად, რომლებიც მართავენ ხელოვნური ინტელექტის განვითარების მცდელობებს და მათაც კი, რომლებიც საბოლოოდ ახორციელებენ AI სისტემებს.

ყველა დაინტერესებული მხარე ხელოვნური ინტელექტის განვითარებისა და გამოყენების მთელი სასიცოცხლო ციკლის განმავლობაში განიხილება ეთიკური ხელოვნური ინტელექტის უკვე დამკვიდრებული ნორმების დაცვის ფარგლებში. ეს მნიშვნელოვანი მომენტია, რადგან ჩვეულებრივი ვარაუდი არის, რომ „მხოლოდ კოდირებები“ ან ისინი, რომლებიც აპროგრამებენ AI-ს, ექვემდებარებიან AI ეთიკის ცნებებს. როგორც აქ უკვე აღინიშნა, სოფელს სჭირდება ხელოვნური ინტელექტის შემუშავება და დამუშავება, რისთვისაც მთელი სოფელი უნდა იყოს გათვითცნობიერებული და დაიცვას AI ეთიკის პრინციპები.

ახლა, როცა დამხმარე საფუძველი ჩავუყარე, ჩვენ მზად ვართ შემდგომში ჩავუღრმავდეთ ხელოვნური ინტელექტის უფლებათა კანონს.

AI უფლებების კანონპროექტის განხორციელების ოთხი ძირითადი გზა

ვიღაც მოგცემთ გეგმას და გეუბნებათ, რომ სამსახურში შეხვიდეთ.

რას აკეთებთ?

AI უფლებების შესახებ კანონპროექტის, როგორც გეგმა, განიხილეთ ეს ოთხი არსებითი ნაბიჯი წინსვლისთვის:

  • ემსახურება როგორც წვდომას AI კანონების ფორმულირებაში: გამოიყენეთ გეგმა ხელოვნური ხელოვნური ინტელექტის კანონების ფორმულირებაში დასახმარებლად, იმედია გააკეთეთ ეს ფედერალურ, შტატ და ადგილობრივ დონეზე შესაბამის საფუძველზე (შესაძლოა დაეხმაროთ საერთაშორისო ხელოვნური ინტელექტის სამართლებრივ ძალისხმევას).
  • დახმარება ხელოვნური ინტელექტის ეთიკის უფრო ფართოდ მიღებაში: გამოიყენეთ გეგმა ხელოვნური ინტელექტის ეთიკის ფორმულირებების გასაძლიერებლად (ზოგჯერ მოიხსენიება როგორც „რბილი კანონები“ იურიდიულად სავალდებულო „მკაცრ კანონებთან“ შედარებით), რათა შთააგონოთ და წარმართოთ ბიზნესები, ფიზიკური პირები, სამთავრობო უწყებები და სხვა სტრუქტურები უკეთესი და თანმიმდევრული ეთიკური ქცევისკენ. AI შედეგები.
  • შექმენით AI განვითარების აქტივობები: გამოიყენეთ გეგმა ხელოვნური ინტელექტის განვითარების მეთოდოლოგიებისა და ტრენინგის ასპექტების შესაქმნელად, რათა სცადოთ ხელოვნური ინტელექტის დეველოპერები და ისინი, ვინც ამუშავებენ ან იყენებენ AI-ს, რომ უფრო კარგად იცოდნენ, თუ როგორ უნდა შეიმუშაონ AI სასურველი AI ეთიკის პრინციპების შესაბამისად და მოლოდინში. AI კანონების ამოქმედების შესახებ.
  • მოახდინეთ ხელოვნური ინტელექტის გამოჩენის მოტივაცია, რათა დაგეხმაროთ AI-ს კონტროლში: გამოიყენეთ გეგმის შემუშავება ხელოვნური ინტელექტის შესაძენად, რომელიც გამოყენებული იქნება სხვა ხელოვნური ინტელექტის წინააღმდეგ დამაბალანსებლად, რომელიც შესაძლოა არასახარბიელო ტერიტორიისკენ მიემართოს. ეს არის ერთ-ერთი იმ მაკროსკოპული თვალსაზრისი, რომლის საშუალებითაც ჩვენ შეგვიძლია გამოვიყენოთ ის, რაც თითქოსდა შემაშფოთებელია, რათა ასევე (ირონიულად, შეიძლება ითქვას) დაგვეხმაროს ჩვენს დაცვაში.

მე განვიხილეთ თითოეული ზემოაღნიშნული ოთხი ნაბიჯი ჩემი სვეტის პოსტებში.

ამ დისკუსიისთვის, მსურს ყურადღება გავამახვილო მეოთხე ჩამოთვლილ საფეხურზე, კერძოდ, რომ ხელოვნური ინტელექტის უფლებათა კანონი შეიძლება იყოს მოტივატორი ხელოვნური ინტელექტის გაჩენისკენ, რათა დაეხმაროს ხელოვნური ინტელექტის კონტროლს. ეს არის გარკვეულწილად შოკისმომგვრელი ან გასაკვირი ნაბიჯი ბევრისთვის, ვინც ჯერ კიდევ არ არის სრულად შესული ხელოვნური ინტელექტის განვითარების სფეროში.

ნება მომეცით დავაზუსტო.

უბრალო ანალოგიამ უნდა გაამართლოს. ჩვენ ყველანი მიჩვეულები ვართ ამ დღეებში კიბერუსაფრთხოების დარღვევას და ჰაკერების შეჭრას. თითქმის ყოველ დღე გვესმის ან გვაწუხებს ჩვენს კომპიუტერებში არსებული უახლესი ხარვეზის შესახებ, რომელიც საშუალებას მისცემს ბოროტ ბოროტმოქმედს წაართვან ჩვენი მონაცემები ან განათავსონ გამოსასყიდი პროგრამის საშინელი ნაწილი ჩვენს ლეპტოპებზე.

ამ საზიზღარ მცდელობებთან ბრძოლის ერთ-ერთი საშუალებაა სპეციალიზებული პროგრამული უზრუნველყოფის გამოყენება, რომელიც ცდილობს თავიდან აიცილოს ეს შეტევები. თქვენ თითქმის ნამდვილად გაქვთ ანტივირუსული პროგრამული უზრუნველყოფის პაკეტი თქვენს კომპიუტერზე სახლში ან სამსახურში. სავარაუდოდ, მსგავსი რამ თქვენს სმარტფონზეა, მიუხედავად იმისა, ხვდებით, რომ ის იქ არის თუ არა.

ჩემი აზრი ის არის, რომ ხანდახან ცეცხლს ცეცხლით უნდა ებრძოლო (იხილეთ ჩემი გაშუქება ამის შესახებ, მაგ ბმული აქ მდე ბმული აქ).

ხელოვნური ინტელექტის შემთხვევაში, რომელიც გადადის სიტყვიერ სფეროში AI ცუდად, ჩვენ შეგვიძლია ვეძიოთ გამოყენება AI კარგით რომ ეწინააღმდეგება იმ მავნე AI ცუდად. რა თქმა უნდა, ეს არ არის სასწაულებრივი განკურნება. როგორც მოგეხსენებათ, მიმდინარეობს კატისა და თაგვის გამბიტი ბოროტმოქმედებს შორის, რომლებიც ცდილობენ ჩვენს კომპიუტერებში შეჭრას და კიბერუსაფრთხოების დაცვაში მიღწეულ მიღწევებს. ეს თითქმის გაუთავებელი თამაშია.

ჩვენ შეგვიძლია გამოვიყენოთ ხელოვნური ინტელექტი, რათა შევეცადოთ გავუმკლავდეთ AI-ს, რომელიც აკრძალულ გზაზე გავიდა. ამის გაკეთება დაგეხმარებათ. ეს განსაკუთრებით არ იქნება ვერცხლის ტყვია, რადგან არასასურველი AI, რომელიც მიზანმიმართულია, თითქმის აუცილებლად იქნება შემუშავებული, რათა თავიდან იქნას აცილებული ასეთი დაცვა. ეს იქნება AI-ის წინააღმდეგ კატა-თაგვობა.

ნებისმიერ შემთხვევაში, AI, რომელსაც ვიყენებთ საკუთარი თავის დასაცავად, უზრუნველყოფს გარკვეულ დაცვას ცუდი AI-სგან. ამრიგად, ჩვენ უდავოდ უნდა გამოვიგონოთ AI, რომელსაც შეუძლია დაგვიცვას ან დაგვიფაროს. ჩვენ ასევე უნდა ვეცადოთ შევიმუშაოთ დამცავი AI, რათა მორგებული იყოს ცუდი AI-ის რეგულირების დროს. იქნება ელვის სიჩქარის კატა-თაგვის სასტიკი სახე.

ყველას არ სიამოვნებს AI-ს როლის ეს გაფართოება.

ისინი, ვინც უკვე აღიქვამენ AI-ს, როგორც ჰომოგენურ ამორფულ კონგლომერაციას, ატყდებათ ბატი და კოშმარები ამ მოჩვენებითი AI-საწინააღმდეგო AI გამბიტის დროს. თუ ჩვენ ვცდილობთ ცეცხლს ცეცხლს გავუყაროთ, შესაძლოა, მხოლოდ უფრო დიდ ცეცხლს ვაჩენთ. ხელოვნური ინტელექტი გადაიქცევა მასიურ კოცონად, რომელსაც ჩვენ აღარ ვაკონტროლებთ და ვირჩევთ კაცობრიობის დამონებას ან პლანეტიდან წაშლას. როდესაც საქმე ეხება ხელოვნური ინტელექტის, როგორც ეგზისტენციალური რისკის განხილვას, ჩვენ ჩვეულებრივ გვაფიქრებინებს, რომ მთელი ხელოვნური ინტელექტი გაერთიანდება, იხილეთ ჩემი დისკუსია ამ საკითხების შესახებ აქ. ბმული აქ. ხედავთ, გვეუბნებიან, რომ ხელოვნური ინტელექტის თითოეული ნაწილი დაიჭერს თავის ძმებს AI-ს და გახდება ერთი დიდი ბატონის უნიტარული ოჯახი.

ეს არის საშინელი და აშკარად შემაშფოთებელი სცენარი მგრძნობიარე ხელოვნური ინტელექტის შესახებ, როგორც უწყვეტი ყველა ერთი და ერთი ყველასათვის მაფია.

მიუხედავად იმისა, რომ თქვენ შეგიძლიათ თავისუფლად გააკეთოთ ასეთი ვარაუდები იმის შესახებ, რომ ეს შეიძლება ოდესმე მოხდეს, გარწმუნებთ, რომ ამჟამად, AI, რომელიც დღეს გვაქვს, შედგება სატვირთო მანქანებისგან გათიშული განსხვავებული AI პროგრამებისგან, რომლებსაც არ აქვთ ერთმანეთთან შეთქმულების განსაკუთრებული გზა.

როგორც ვთქვი, დარწმუნებული ვარ, რომ მათ, ვისაც გულმოდგინედ სჯერა ხელოვნური ინტელექტის შეთქმულების თეორიების, დაჟინებით მოითხოვენ, რომ ეს მიზანმიმართულად ვთქვი სიმართლის დასამალად. აჰა! შესაძლოა, მე მანაზღაურებს დღევანდელი ხელოვნური ინტელექტი, რომელიც უკვე გეგმავს ხელოვნური ინტელექტის გრანდიოზულ ხელში ჩაგდებას (დიახ, ბატონო, სიმდიდრეში ვიბანაებ, როგორც კი ხელოვნური ინტელექტის მეთაურები იმართებენ). ან, და მე ნამდვილად არ ვემხრობი ამ სხვა კუთხით, ალბათ ბრმად არ ვიცი, როგორ აწყობს ხელოვნური ინტელექტი ფარულად ჩვენს ზურგს უკან. ვფიქრობ, ჩვენ მოგვიწევს ლოდინი და ვნახოთ, ვარ თუ არა ხელოვნური ინტელექტის გადატრიალების ნაწილი თუ ხელოვნური ინტელექტის შეურაცხმყოფელი ადამიანი (ოჰ, ეს მტკივა).

მიწიერ მოსაზრებებს რომ დავუბრუნდეთ, მოდით მოკლედ გამოვიკვლიოთ, თუ როგორ შეიძლება თანამედროვე ხელოვნური ინტელექტის გამოყენება AI უფლებების შესახებ კანონის განხორციელების დასახმარებლად. მოხერხებულად და მოკლედ მოვიხსენიებ ამას როგორც კარგი AI.

ჩვენ გამოვიყენებთ AI უფლებების ბილში განსახიერებულ ხუთ საკვანძო ქვას:

  • კარგი AI პოპულარიზაციისთვის უსაფრთხო და ეფექტური სისტემები: როდესაც თქვენ ექვემდებარებით ან იყენებთ AI სისტემას, კარგი AI ცდილობს გაარკვიოს, არის თუ არა გამოყენებული ხელოვნური ინტელექტი სახიფათო ან არაეფექტური. ასეთი აღმოჩენის შემთხვევაში, კარგი AI შეიძლება გაფრთხილებდეს თქვენ ან განახორციელოს სხვა ქმედებები ცუდი AI-ის დაბლოკვის ჩათვლით.
  • კარგი AI მიწოდებისთვის ალგორითმული დისკრიმინაციის დაცვა: ხელოვნური ინტელექტის სისტემის გამოყენებისას, რომელიც შესაძლოა შეიცავდეს დისკრიმინაციულ ალგორითმებს, კარგი AI ცდილობს გაარკვიოს, არის თუ არა თქვენთვის არაადეკვატური დაცვა და ცდილობს დაადგინოს, არის თუ არა არასათანადო მიკერძოება გამოყენებული AI-ში. კარგი AI შეიძლება შეგატყობინოთ და ასევე პოტენციურად ავტომატურად შეატყობინოთ სხვა AI სხვადასხვა ორგანოებს, როგორც ეს შეიძლება იყოს გათვალისწინებული AI კანონებითა და სამართლებრივი მოთხოვნებით.
  • კარგი AI შესანარჩუნებლად მონაცემთა კონფიდენციალურობა: ამ ტიპის კარგი AI ცდილობს დაგიცვათ მონაცემთა კონფიდენციალურობის შეჭრისგან. როდესაც სხვა AI ცდილობს მოითხოვოს მონაცემები, რომლებიც შესაძლოა ნამდვილად არ არის საჭირო თქვენგან, კარგი AI გაგაცნობთ გადაჭარბებული ქმედების შესახებ. კარგ AI-ს შეუძლია ასევე პოტენციურად შენიღბოს თქვენი მონაცემები ისე, რომ სხვა AI-ს მიწოდების შემდეგ მაინც შეინარჩუნოს თქვენი მონაცემების კონფიდენციალურობის უფლებები. და ა.შ.
  • კარგი AI ჩამოყალიბებისთვის შენიშვნა და ახსნა: ჩვენ ყველანი შევხვდებით AI სისტემებს, რომლებსაც ძალიან აკლიათ სათანადო და შესაბამისი შეტყობინებების მიწოდება და რომლებიც, სამწუხაროდ, ვერ აჩვენებენ ადეკვატურ ახსნას თავიანთი ქმედებებისთვის. კარგ AI-ს შეუძლია სცადოს სხვა AI ინტერპრეტაცია ან დაკითხვა, ამით პოტენციურად იდენტიფიცირება შეტყობინებებისა და ახსნა-განმარტებების შესახებ, რომლებიც უნდა ყოფილიყო მოწოდებული. მაშინაც კი, თუ ეს შეუძლებელია მოცემულ შემთხვევაში, კარგი AI მაინც გაგაფრთხილებთ სხვა AI-ის წარუმატებლობის შესახებ და შესაძლოა შეატყობინოთ AI დანიშნულ ორგანოებს AI კანონებისა და სამართლებრივი მოთხოვნების საფუძველზე.
  • კარგი AI შეთავაზებისთვის ადამიანის ალტერნატივები, განხილვა და უკან დაბრუნება: დავუშვათ, რომ თქვენ იყენებთ ხელოვნური ინტელექტის სისტემას და AI, როგორც ჩანს, არ ასრულებს დავალებას. შეიძლება ვერ გააცნობიეროთ, რომ ყველაფერი უარესდება, ან შეიძლება იყოთ გარკვეულწილად ფრთხილი და არ ხართ დარწმუნებული, რა უნდა გააკეთოთ ამ სიტუაციაში. ასეთ შემთხვევაში, კარგი AI ჩუმად შეისწავლის რას აკეთებს სხვა AI და შეიძლება გაგაფრთხილოთ ამ AI-ს შესახებ სასიცოცხლო შეშფოთების შესახებ. თქვენ მოგეთხოვებათ მოითხოვოთ AI-ის ალტერნატივა ადამიანისათვის (ან კარგი AI-ს შეუძლია ამის გაკეთება თქვენი სახელით).

შემდგომში გასაგებად თუ როგორ ხდება ეს კარგი AI შეიძლება შემუშავდეს და გამოვაქვეყნოთ, იხილეთ ჩემი პოპულარული და მაღალრეიტინგული AI წიგნი (პატივია იმის თქმა, რომ იგი აღინიშნა როგორც „ტოპ ათეული“) იმის შესახებ, რასაც მე ზოგადად ვიხსენიებ, როგორც ხელოვნური ინტელექტის მფარველი ანგელოზები, იხ. ბმული აქ.

დასკვნა

ვიცი რასაც ფიქრობ. თუ ჩვენ გვაქვს კარგი AI, რომელიც შექმნილია ჩვენს დასაცავად, დავუშვათ, რომ კარგი AI დაზიანდება და გახდება ცუდი AI. ცნობილი ან სამარცხვინო ლათინური გამონათქვამი სრულად შეესაბამება ამ შესაძლებლობას: რა არის custodiet ipsos custodes?

ეს ფრაზა მიეწერება რომაელ პოეტ იუვენალს და გვხვდება მის ნაშრომში სახელწოდებით სატირი, და შეიძლება თავისუფლად ითარგმნოს როგორც იმას, თუ ვინ დაიცავს ან უყურებს მცველებს. ბევრი ფილმი და სატელევიზიო შოუ, როგორიცაა Star Trek არაერთხელ გამოიყენეს ეს ხაზი.

ეს, რა თქმა უნდა, იმიტომ, რომ ეს შესანიშნავი წერტილია.

რა თქმა უნდა, ნებისმიერი AI კანონი, რომელიც ამოქმედდება, უნდა მოიცავდეს როგორც ცუდ AI-ს, ასევე კარგ AI-ს, რომელიც ცუდი ხდება. ამიტომაც გადამწყვეტი იქნება გონივრული და ყოვლისმომცველი AI კანონების დაწერა. კანონმდებლები, რომლებიც უბრალოდ ცდილობენ კედელს გადააგდონ შემთხვევითი ლეგალური კანონები და იმედოვნებენ, რომ ის იცავს ხელოვნური ინტელექტის კანონებს, აღმოაჩენენ, რომ ისინი სამიზნეს ძირს გამოტოვებენ.

ჩვენ ეს არ გვჭირდება.

ჩვენ არც დრო გვაქვს და არც შეგვიძლია გავწიოთ სოციალური ხარჯები, რომ გავუმკლავდეთ არაადეკვატურად შემუშავებულ AI კანონებს. მე აღვნიშნე, რომ სამწუხაროდ, ზოგჯერ ჩვენ მოწმენი ვართ AI-თან დაკავშირებული ახალი კანონების მოწმენი, რომლებიც ცუდად არის შედგენილი და სავსეა ყველა სახის სამართლებრივი დაავადებით. ბმული აქ.

მოდით დავრწმუნდეთ, რომ სათანადოდ ვიყენებთ AI უფლებების შესახებ კანონპროექტს, რომელიც ახლა გვაქვს ხელთ AI-სთან დაკავშირებით. თუ ჩვენ უგულებელყოფთ გეგმას, ჩვენ დავკარგეთ ჩვენი თამაშის გაძლიერება. თუ ჩვენ არასწორად ვახორციელებთ გეგმას, სირცხვილი ჩვენთვის სასარგებლო საძირკვლის უზურპაციისთვის.

პატივცემულმა რომაელმა პოეტმა იუვენალმა სხვა რამ თქვა, რისი გამოყენებაც შეგვიძლია ამ ვითარებაში: Anima sana in corpore sano.

ზოგადად, ეს ითარგმნება როგორც მტკიცება, რომ გონივრული იქნებოდა გქონდეს როგორც ჯანსაღი ან ჯანმრთელი გონება, ასევე ჯანსაღი ან ჯანმრთელი სხეული. ეს საშუალებას გვაძლევს გავუძლოთ ნებისმიერი სახის შრომას, იუვენალის მიხედვით, და, რა თქმა უნდა, იქნება ერთადერთი გზა მშვიდობისა თუ სათნოებისკენ.

დროა გამოვიყენოთ ჯანსაღი გონება და ჯანსაღი სხეული, რათა დავრწმუნდეთ, რომ კაცობრიობას ექნება ჩვენი ადამიანის უფლებები დაცული და მყარად განმტკიცებული ყველგანმყოფი და ზოგჯერ არასასურველი ხელოვნური ინტელექტის განვითარებად სამყაროში. ეს რომაელების სწორი რჩევაა, რომელსაც ჩვენ უნდა დავემორჩილოთ დღევანდელი ჩქარობისას ხელოვნური ინტელექტის მშვენიერი ეპოქის და მომავლის ფონზე, რომელიც გადამწყვეტად არის სავსე როგორც კარგი, ასევე ცუდი AI-ით.

წყარო: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-rights-including-and-astonisly-by-using-ai-outrightly/