Müxtəlif

ახლა ვიდეოს გაყალბებაც შესაძლებელია - არის თუ არა deepfake საფრთხე დემოკრატიისთვის

31 Oktyabr, 2019

Deepfake - ასეთი ტერმინი შეუსაბამეს დასავლეთში გაყალბებულ ვიდეოს, რომელზე გამოსახულ ადამიანსაც არასდროს უთქვამს ის, რაც ვიდეოში ჩანს. 

დიფფეიქი დეზინფორმაციის ახალი ფორმაა და ტექნოლოგიების განვითარებასთან ერთად ფეხს უფრო და უფრო მყარად იკიდებს.  2019 წლის ოქტომბრის მონაცემებით, ბოლო 9 თვეში deepfake ვიდეოების რიცხვი გაორმაგებულია. 

დღეს ინტერნეტმა ადამიანების ინფორმირება ადვილი და ხელმისაწვდომი გახადა, თუმცა, ამავდროულად, გართულდა ნამდვილი და ცრუ ინფორმაციის ერთმანეთისგან გარჩევა და მისი კონტროლი. 

დეზინფორმაციის გასავრცელებლად ყალბი ახალი ამბები, ყალბი ფოტოები, მანიპულაციური ფოტოები გამოიყენება.

თუმცა, ტექნოლოგიების განვითარებასთან ერთად შეიცვალა ყალბი ამბების გავრცელების გზებიც. თუ ამ დრომდე ამისთვის მხოლოდ ახალი ამბები, ყალბი და მანიპულაციური ფოტოები გამოიყენებოდა, დღეს ვიდეო ინტერვიუს გაყალბებაც შესაძლებელია. 

ლიბერალური დემოკრატია ინფორმირებულ მოქალაქეს ემყარება. . 

ექსპერტები ამბობენ, რომ deepfake დემოკრატიისთვის საფრთხეა, ვინაიდან, დემოკრატია მაშინ მუშაობს, როცა ადამიანებს მისი სჯერათ. 

რა არის Deepfake?

ამ ტერმინს და მის მიღმა შინაარსს ასე ხსნიან - სინთეზირებული კონტენტი, რომელიც ხელოვნური ინტელექტის დახმარებით არის შექმნილი

ახლა ვიდეოების გაყალბებაც შესაძლებელია - თანამედროვე ტექნოლოგიების საშუალებით შეგიძლია, ნებისმიერ ადამიანს "ათქმევინო" ის, რაც მათ სინამდვილეში არასდროს უთქვამთ. 

ამ ვიდეოში ფეისბუქის დამფუძნებელი, მარკ ცუკერბერგი ამბობს, რომ "ის, ვინც აკონტროლებს მონაცემებს, აკონტროლებს მომავალს". 

"ერთი ადამიანი, რომელსაც მილიონობით ადამიანის მოპარული მონაცემები აქვს - მათი საიდუმლოებები, მათი ცხოვრება, მათი მომავალი - მე Spectre-ის წინაშე ვარ ვალდებული. მან მაჩვენა, რომ ვინც აკონტროლებს მონაცემებს, აკონტროლებს მომავალს".


ვიდეო ყალბია. 

წარსულში მსგავსი ყალბი შედეგის მისაღებად გაცილებით დიდი სპეციალური ცოდნა და ოსტატობა იყო საჭირო, დღეს კი ამისთვის რამდენიმე ფოტო და ინტერნეტთან კავშირიც საკმარისია. 

Deepfake ტექნოლოგიით ადვილად შესაძლებელია არა მხოლოდ ყალბი ინტერვიუს, არამედ, მაგალითად, ყალბი პორნოგრაფიული ვიდეოს შექმნა, რაც შესაძლოა კონკრეტული ადამიანების, მათ შორის პოლიტიკოსების საბოტაჟისთვის იქნას გამოყენებული. 

დემოკრატების სპიკერის, ნენსი ფელოსის ინტერვიუ - მისი გამოსვლის ყალბი ვიდეო უბრალოდ შენელებულია, თუმცა, სოციალური ქსელების ათასობით მომხმარებელმა დაიჯერა, რომ ინტერვიუს დროს ის ნასვამი იყო.  ამიტომ ეს ვიდეოც დიფფეიქად იქნა მიჩნეული. 


“დიფფეიქი” კიდევ უფრო ართულებს ყალბის და ნამდვილის გარჩევას. შესაძლოა არც რეალობა დაიჯერო. და თუ მას შემდეგ, რაც საკუთარი თვალებით ხილვა არ ნიშნავს სინამდვილეს, ჩნდება კითხვა - შეიძლება თუ არა, deepfake-მა დემოკრატია შეასუსტოს? 

ყალბ, დიფფეიქ ვიდეოში კიმ კარდაშიანი ამბობს, რომ “ძალიან უყვარს მანიპულირების პროცესი”.

"როცა ამდენ ადამიანს ვძულვარ, რეალურად, ამაზე არ ვდარდობ, იმიტომ რომ რეალურად მათ გამხადეს იმაზე მდიდარი, ვიდრე ყველაზე ველურ ოცნებაში წარმოვიდგენდი. ჩემმა გადაწყვეტილებამ, დამეჯერებინა Spectre-სთვის, მომცა რეიტინგი და ფანები. თავს იღბლიანად ვგრძნობ, იმიტომ რომ ძალიან მიყვარს მანიპულირების პროცესი", - ამბობს კიმ კარდაშიანი. 

ბილ პოსტერსი ერთ-ერთია, ვინც deepfake ვიდეოების უკან დგას თავისი პროექტით, სახელწოდებით Spectre Project. 

"

როგორც პოსტერსმა თქვა, მან ყალბი ვიდეოები ინსტაგრამზე ფეისბუქის რეაქციის შესამოწმებლად გამოაქვეყნა. სოციალური მედიის პლატფორმა ინსტაგრამს სწორედ ფეისბუქი ფლობს.  

ალგორითმმა ყალბ ვიდეოებზე მომხმარებლების წვდომა შეამცირა, თუმცა, ვიდეოების ვირუსულად გავრცელებას ხელი ვერ შეუშალა. ამ ფაქტმა deepfake-ების გზით დეზინფორმაციის გავრცელების პოტენციური საფრთხე გამოავლინა, რომელიც, მზარდია მანამ, სანამ ტექნოლოგიურმა კომპანიებმა და პოლიტიკოსებმა არ იციან, როგორ ებრძოლონ მას. 

ავტორიტარული რეჟიმები უკვე დიდი ხანია, დეზინფორმაციის გასავრცელებლად ფოტო მანიპულაციებს იყენებენ. ჯერ კიდევ იოსებ სტალინი ახერხებდა, ფოტოებიდან თავისი მტრები გაექრო. ახლა კი, ხელოვნური ინტელექტის გამოყენებით შესაძლებელია, მაგალითად, კომედიანტი ბილ ჰეიდერი ტომ კრუზად იქცეს. 

 

ექსტეპრების თქმით, შესაძლოა, დიფფეიქები დემოკრატიულ ქვეყნებში ამომრჩევლის შეცდომაში შესაყვანადაც იქნას გამოყენებული. 

დასავლეთში ექსპერტები მედიის კრიზისზე საუბრობენ, კერძოდ იმაზე, რომ სულ უფრო და უფრო მეტი ადამიანი ამბობს უარს, გაეცნოს ახალ ამბებს, ვინაიდან ისინი "ზედმეტად უსიამოვნო და ცუდია". მიუხედავად ამისა, არაინფორმირებული ადამიანები მაინც მონაწილეობენ არჩევნებში, რაც, შესაძლოა, სხვადასხვა ქვეყნის პარლამენტში ულტრამემარჯვენე ძალების შესვლით სრულდებოდეს - ასეთი პარტიები სწორედ ლიბერალური დემოკრატიის საწინააღმდეგოდ მოქმედებენ. 

ავივ ოვადია Thoughtful Technology Project-ის დამფუძნებელია.  “ეკონომისტთან” ის ყურადღებას სხვა პრობლემააზე ამახვილებს - მისი თქმით, შესაძლოა, დიფფეიქები პოლიტიკოსებმა თავიანთი დანაშაულების დასაფარად გამოიყენონ. ოვადია შიშობს, რომ ამის გამო დროთა განმავლობაში უფრო და უფრო მეტი ადამიანი იტყვის უარს დემოკრატიულ პოლიტიკაზე. 

ექსპერტი ამ ფენომენს "რეალობის აპათიას" უწოდებს. 

“შეიძლება კორუმპირებულმა პოლიტიკოსმა თქვას, რომ მისი ესა თუ ინტერვიუ გაყალბებულია და კონკრეტული რამ არასდროს უთქვამს. ეს მიგვიყვანს ისეთ საზოგადოებამდე, როცა ადამიანებს არ ეცოდინებათ, რა დაიჯერონ. რეალობის აპათია არის ის, რომ იმდენად ძნელი იქნება გარკვევა, თუ რა ხდება, რომ მოქალაქეები უბრალოდ დანებდებიან. დემოკრატია არ მუშაობს, თუ ადამიანებს მისი არ სჯერათ”. 

ამერიკის შეერთებულ შტატებში მიიჩნევენ, რომ deepfake ვიდეოები 2020 წლის საპრეზიდენტო კამპანიის დროს ერთ-ერთი მთავარი საფრთხე იქნება. შესაბამისი კვლევა ნიუ იორკის უნივერსიტეტმაც გამოაქვეყნა. რამდენიმე შტატმა, მათ შორის კალიფორნიამ და ტეხასმა კი მიიღეს კანონები, რომლითაც დიფფეიქ ვიდეოები არალეგალური ხდება მაშინ, როცა ისინი არჩევნებში ჩარევისთვის გამოიყენება. 

მკვლევარები ვარაუდობენ, რომ აშშ-ის 2020 წლის საპრეზიდენტო არჩევნებისთვის დიფფეიქს კიდევ უფრო აქტიურად გამოიყენებენ მაგალითად, “სხვა სახელმწიფოები, რომლებსაც აშშ-ში დესტაბილიზაცია სურთ”. გავრცელდება ვიდეოები, როცა კანდიდატი ამბობს იმას, რაც რეალურად არ უთქვამს და ეს მისი კონკურენტის სასარგებლოდ იმუშავებს. 

საუბრობენ საფრთხეზეც, რომ გავრცელდეს სხვა ქვეყნის ლიდერების ან ორგანიზაციების ხელმძღვანელების ყალბი განცხადებები, რამაც შესაძლოა, თუნდაც მოკლევადიან პერსპექტივაში, მაგრამ მაინც, პრობლემები შექმნას ეკონომიკური და პოლიტიკური სტაბილურობის კუთხით. 

დიფფეიქების წინააღმდეგ საბრძოლველად ბევრი საშუალება არ არსებობს. თუმცა, ზოგიერთი ადამიანი ან ორგანიზაცია გამოსავლის მოძებნას ცდილობს. მაგალითად, კემბრიჯის უნივერსიტეტის მეცნიერთა ჯგუფმა კომპიუტერული თამაში შექმნა, რომელიც ადამიანებს დეზინფორმაციის აღმოჩენას ასწავლის. 

დოქტორ სანდერ ვან დერ ლინდენს, რომელიც თამაშების დიზაინერია, სჯერა, რომ ეს ადამიანებს ფაქტების და სიყალბის ერთმანეთისგან გარჩევაში დაეხმარება.

მოთამაშე ყალბი ნიუსის პროდიუსერის როლში იქნება და ეცდება, ააშენოს იმპერია დეზინფორმაციის გავრცელებით. დოქტორი ვან დერ ლინდერი ფიქრობს, რომ ეს ადამიანებს დაეხმარება, დეზინფორმაცია რეალურისგან გაარჩიონ. თამაშის მიხედვით, ადამიანები შეძლებენ, ყალბი ამბების წინააღმდეგ მენტალური ანტისხეულები გამოიმუშაონ. 

ფეისბუქის დამფუძნებელმა, მარკ ცუკერბერგმა თავის მხრივ პირობა დადო, რომ ხელოვნური ინტელექტი მომხმარებლებს ყალბი ინფორმაციის გამოვლენაში დაგვეხმარება. კომპანიამ უკვე გამოყო 10 მილიონი დოლარი და დაიწყო მაიკროსოფტთან თანამშრომლობა, რათა ფეისბუქზე დიფფეიქ ვიდეოს ამომცნობი გაჩნდეს. 

კიდევ ერთმა მსხვილი სოციალური ქსელის, ტვიტერის ხელმძღვანელებმა ასევე განცხადეს, რომ პრობლემის მოგვარებაზე მუშაობენ. 

გუგლმა კი გასულ წელს ჩაუშვა ყალბი აუდიოს ამომცნობი დეტექტორი. ყალბი ვიდეოს შესახებ გუგლს განცხადება არ გაუკეთებია. 

"
წყარო: businessinsider

"
წყარო: phys.org

"
წყარო: cnbc.com

"
წყარო: timeforkids.com


თამთა ნაჭყებია
"ტაბულას" ჟურნალისტი
სპეციალურად “მითების დეტექტორისთვის”


სტატია პროექტის #FIGHTFAKE-ის ფარგლებში მომზადდა, რომელსაც MDF-ი მის პარტნიორ ორგანიზაცია Deutsche Gesellschaft e.V.-თან ერთად ახორციელებს