FBI აფრთხილებს AI Deepfake გამოძალვის თაღლითობის შესახებ

გენერაციული ხელოვნური ინტელექტის შესაძლებლობები შთამბეჭდავია ცხოვრების მსგავსი სურათების შესაქმნელად, მაგრამ აშშ-ს გამოძიების ფედერალური ბიურო ამბობს, რომ კრიმინალები იყენებენ ღრმა ფეიქსს, რათა მსხვერპლს გამოძალონ.

„FBI აგრძელებს მსხვერპლთაგან, მათ შორის არასრულწლოვან ბავშვებსა და არასრულწლოვანთაგან, რომელთა ფოტოები ან ვიდეოები გადაკეთდა აშკარა შინაარსში“, - თქვა სააგენტომ ორშაბათს PSA გაფრთხილებაში.

FBI ამბობს, რომ სამართალდამცავმა უწყებებმა გასულ წელს მიიღეს 7,000-ზე მეტი შეტყობინება ონლაინ გამოძალვის შესახებ არასრულწლოვანებზე, რაც აპრილის შემდეგ გაიზარდა ე.წ.

Deepfake არის სულ უფრო გავრცელებული ტიპის ვიდეო ან აუდიო კონტენტი, რომელიც შექმნილია ხელოვნური ინტელექტით, რომელიც ასახავს ცრუ მოვლენებს, რომელთა გარჩევა სულ უფრო რთულია, როგორც ყალბი, გენერაციული AI პლატფორმების წყალობით, როგორიცაა Midjourney 5.1 და OpenAI-ს DALL-E 2.

მაისში, Tesla-ს და Twitter-ის აღმასრულებელი დირექტორის, ელონ მასკის ღრმა ფეიქი, რომელიც კრიპტო-ინვესტორების თაღლითობას ახორციელებდა, ვირუსულად გავრცელდა. სოციალურ მედიაში გაზიარებული ვიდეო შეიცავს მასკის კადრებს წინა ინტერვიუებიდან, რომლებიც დამუშავებულია თაღლითობის შესაბამისად.

Deepfakes არ არის ყველა მავნე, რომის პაპ ფრანცისკეს თეთრი Balenciaga-ს ქურთუკი ვირუსულად გავრცელდა ამ წლის დასაწყისში და ახლახან, ხელოვნური ინტელექტის მიერ გენერირებული ღრმა ფეიქი ასევე გამოიყენეს მკვლელობის მსხვერპლთა გასაცოცხლებლად.

თავის რეკომენდაციებში FBI-მ გააფრთხილა რაიმე გამოსასყიდის გადახდა, რადგან ამის გაკეთება არ იძლევა გარანტიას, რომ კრიმინალები მაინც არ გამოაქვეყნებენ ღრმა ფეიქს.

FBI ასევე ურჩევს სიფრთხილეს პერსონალური ინფორმაციისა და კონტენტის ონლაინ გაზიარებისას, მათ შორის, კონფიდენციალურობის ფუნქციების გამოყენებაში, როგორიცაა ანგარიშების პირადი გახმაურება, ბავშვების ონლაინ აქტივობის მონიტორინგი და იმ ადამიანების უჩვეულო ქცევის ყურება, ვისთანაც წარსულში გქონდათ ურთიერთობა. სააგენტო ასევე რეკომენდაციას უწევს პერსონალური და ოჯახის წევრების ინფორმაციის ხშირ ძიებას ონლაინ რეჟიმში.

განგაშის სხვა სააგენტოები მოიცავს აშშ-ს ფედერალური სავაჭრო კომისიას, რომელმაც გააფრთხილა, რომ კრიმინალები იყენებდნენ ღრმა ფეიქს, რათა მოატყუონ არასაეჭვო მსხვერპლები ფულის გაგზავნაში, მეგობრის ან ოჯახის წევრის აუდიო დეფფეიკის შექმნის შემდეგ, რომელიც ამბობს, რომ ისინი გაიტაცეს.

„ხელოვნური ინტელექტი აღარ არის შორსმჭვრეტელი იდეა სამეცნიერო ფანტასტიკის ფილმიდან. ჩვენ მასთან ერთად ვცხოვრობთ, აქ და ახლა. თაღლითს შეუძლია გამოიყენოს ხელოვნური ინტელექტი თქვენი საყვარელი ადამიანის ხმის კლონირებისთვის“, - თქვა FTC-მა მომხმარებელთა გაფრთხილებაში მარტში და დასძინა, რომ ყველა კრიმინალური საჭიროება არის ოჯახის წევრის ხმის მოკლე აუდიო კლიპი, რათა ჩანაწერი ჟღერდეს რეალურად.

FBI-ს ჯერ არ უპასუხია გაშიფვრა კომენტარის მოთხოვნა.

ადევნეთ თვალი კრიპტო სიახლეებს, მიიღეთ ყოველდღიური განახლებები თქვენს შემოსულებში.

წყარო: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams