მაიკროსოფტი აძლიერებს AI Chatbot-ის უსაფრთხოებას, რათა აღკვეთოს Tricksters

Microsoft Corp-მა დაამატა უსაფრთხოების რამდენიმე ფუნქცია Azure AI Studio-ში, რაც დროთა განმავლობაში უნდა გააგრძელოს იმის ალბათობა, რომ მისმა მომხმარებლებმა AI მოდელები დააკონფიგურირონ ისეთ რეჟიმში, რომ მათ მოქმედებდნენ არანორმალურად ან შეუსაბამოდ. მრავალეროვნული ტექნოლოგიური კომპანია რედმონდში, ვაშინგტონმა ბლოგპოსტში გამოკვეთა გაუმჯობესებები, ხაზს უსვამს ხელოვნური ინტელექტის ურთიერთქმედების მთლიანობის გარანტიას და მომხმარებელთა ბაზისადმი ნდობას.

სწრაფი ფარები და სხვა 

მთავარ მოვლენებს შორის არის „სწრაფი ფარების“ შექმნა, ტექნოლოგია, რომელიც შექმნილია სწრაფი ინექციების მოსაძებნად და მოსაკლავად ხელოვნური ინტელექტის ჩატბოტებთან საუბრისას. ეს არის ეგრეთ წოდებული ჯეილბრეიკები და ძირითადად არის მომხმარებლების შეყვანა, რომლებიც განზრახ ფორმირდებიან ისე, რომ მათ გამოიწვიონ არასასურველი პასუხი AI მოდელებისგან.

მაგალითად, Microsoft ირიბად თამაშობს თავის როლს სწრაფი ინექციებით, სადაც შესაძლებელია ბოროტი ბრძანებების შესრულება და ასეთმა სცენარმა შეიძლება გამოიწვიოს უსაფრთხოების მძიმე შედეგები, როგორიცაა მონაცემთა ქურდობა და სისტემის გატაცება. სარა ბერდი, Microsoft-ის პასუხისმგებელი ხელოვნური ინტელექტის განყოფილების მთავარი პროდუქტის დირექტორის, სარა ბერდის თქმით, მექანიზმები საკვანძოა ამ უნიკალური საფრთხეების აღმოსაჩენად და მათზე რეაგირებისთვის რეალურ დროში.

Microsoft დასძენს, რომ მალე იქნება გაფრთხილებები მომხმარებლის ეკრანზე, რომელიც მიუთითებს, როდესაც მოდელი სავარაუდოდ გამოხატავს ცრუ ან შეცდომაში შემყვან ინფორმაციას, რაც უზრუნველყოფს მომხმარებლის კეთილგანწყობას და ნდობას.

ნდობის აშენება AI ინსტრუმენტებში 

Microsoft-ის ძალისხმევა უფრო დიდი ინიციატივის ნაწილია, რომელიც მიზნად ისახავს ხალხს ნდობის მინიჭებას მზარდი პოპულარულ გენერაციულ AI-ში, რომელიც ფართოდ გამოიყენება ცალკეულ მომხმარებლებსა და კორპორატიულ კლიენტებზე გამიზნულ სერვისებში. Microsoft-მა გაიარა წვრილკბილიანი სავარცხელი, მას შემდეგ, რაც განიცადა შემთხვევები, რომლის დროსაც მომხმარებლებს ჰქონდათ შესაძლებლობა ეთამაშათ Copilot chatbot-ით უცნაური ან მავნე შედეგების წარმოებაში. ეს იქნება იმ შედეგის მხარდასაჭერად, რომელიც აჩვენებს ძლიერი თავდაცვის აუცილებლობას აღნიშნული მანიპულაციური ტაქტიკებისგან, რომელიც სავარაუდოდ გაიზრდება ხელოვნური ინტელექტის ტექნოლოგიებით და პოპულარული ცოდნით. პროგნოზირება და შემდეგ შერბილება არის თავდასხმის შაბლონების აღიარება, მაგალითად, როდესაც თავდამსხმელი იმეორებს კითხვას ან მოთხოვნებს როლური თამაშის დროს.

როგორც OpenAI-ის უმსხვილესი ინვესტორი და სტრატეგიული პარტნიორი, Microsoft ახორციელებს საზღვრებს, თუ როგორ უნდა ჩართოს და შექმნას პასუხისმგებელი, უსაფრთხო გენერაციული AI ტექნოლოგიები. ორივე ერთგულია Generative AI-ის პასუხისმგებელი განლაგებისა და ძირითადი მოდელების უსაფრთხოების ზომებისთვის. მაგრამ ბერდმა აღიარა, რომ ეს დიდი ენობრივი მოდელები, მიუხედავად იმისა, რომ ისინი განიხილება, როგორც საფუძველი მომავალი ხელოვნური ინოვაციების დიდი ნაწილისთვის, არ არის მანიპულაციის მტკიცებულება.

ამ საძირკველზე აშენებას გაცილებით მეტი დასჭირდება, ვიდრე მხოლოდ თავად მოდელების დაყრდნობა; მას დასჭირდება ყოვლისმომცველი მიდგომა ხელოვნური ინტელექტის უსაფრთხოებისა და უსაფრთხოების მიმართ.

Microsoft-მა ცოტა ხნის წინ გამოაცხადა უსაფრთხოების ზომების გაძლიერება მისი Azure AI Studio-სთვის, რათა აჩვენოს და გარანტირებული იყოს პროაქტიული ნაბიჯები, რომლებიც გადაიდგმება ცვალებადი AI საფრთხეების ლანდშაფტის დასაცავად.

ის ცდილობს თავიდან აიცილოს ხელოვნური ინტელექტის ბოროტად გამოყენება და შეინარჩუნოს AI ურთიერთქმედების მთლიანობა და საიმედოობა დროული ეკრანებისა და გაფრთხილებების ჩართვის გზით.

ხელოვნური ინტელექტის ტექნოლოგიის მუდმივი ევოლუციით და მისი დანერგვით ყოველდღიურ ცხოვრებაში მრავალ ჩართვაში, დადგება დრო, რომ Microsoft-მა და დანარჩენმა AI საზოგადოებამ შეინარჩუნონ უსაფრთხოების ძალიან ფხიზლად პოზიცია.

წყარო: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/