• технология
  • Електрическо оборудване
  • Материална индустрия
  • Дигитален живот
  • Политика за поверителност
  • О име
Location: Home / технология / Swapped Out: Хакерите се насочват към потребителите на социални медии с високотехнологични фалшиви видеоклипове

Swapped Out: Хакерите се насочват към потребителите на социални медии с високотехнологични фалшиви видеоклипове

techserving |
1153

InvestigateTV – Технология, използвана за създаване на реалистични видеоклипове на международно известен актьор, бивш президент на САЩ и дори световен лидер в средата на жесток конфликт, се използва върху обикновените американци.

Разменени: Хакери се насочват към потребители на социални медии с високотехнологични фалшиви видеоклипове

Разменени: Хакери се насочват към потребители на социални медии с високотехнологични фалшиви видеоклипове

Причината: Използването на приятелското ви лице може лесно да въвлече хора, които познавате, в измама.

Тези зловещи фалшификати са създадени с авангардни компютърни науки, предназначени да имитират човешкия мозък.

В общността на изкуствения интелект (AI) видеоклиповете се наричат ​​„deepfakes“. Терминът се използва за аудио, изображения или видеоклипове, които са били манипулирани, за да изглеждат истински.

Deepfakes използват форма на AI, наречена „дълбоко обучение“, технология, която се опитва да копира начина, по който хората мислят и учат. Това е и мястото, където се извлича „дълбочината“ в deepfake.

Наскоро потребителят на Tiktok Крис Уме стана вирусен със своя дълбок фейк на актьора Том Круз. През 2018 г. режисьорът Джордан Пийл и Buzzfeed разпространиха дълбок фейк на бившия президент Барак Обама, за да предупредят хората за напредъка в технологиите и как могат да разпространяват дезинформация чрез злоупотреба.

Когато става въпрос за проследяване на тези потенциално проблемни видеоклипове, една от малкото организации с данни за deepfakes е Sensity, базирана в Амстердам компания, която използва дълбоко обучение и компютърни технологии за откриване на deepfakes.

Според Sensity, deepfakes се появиха в края на 2017 г. и броят им онлайн бързо се увеличи. През 2018 г. компанията проследи повече от 7000 дълбоки фалшиви видеоклипа онлайн. До декември 2020 г. техният доклад показва, че броят им е скочил до над 85 000 онлайн дълбоки фалшификати.

Данните на Sensity проследяват само инциденти, включващи публични личности. Не включва инциденти с частни лица. Хакерите обаче фалшифицират не само знаменитости и политици.

Хакнати и дълбоко фалшифицирани

Кайл Хокинс знае това твърде добре. Той неволно навлезе в света на deepfakes, когато акаунтите му в социалните медии бяха хакнати през февруари 2022 г.

Хоукинс е застрахователен агент, специализиран в Medicare и пенсионно планиране в Ричмънд, Вирджиния.

Един ден той отвори Instagram и каза, че е видял съобщение от стар приятел. Хокинс си помисли, че приятелят се обръща към неговите услуги и търси помощ.

„Получих съобщение през Instagram от някой, с когото бях приятел там, и предполагах, че им се е случило същото, но не знаех“, каза Хокинс.

Оказва се, че този приятел е бил хакнат. Когато Хокинс кликна върху връзка в съобщението, той каза, че бързо е загубил контрол над акаунта си.

„Не съм мислил нищо за това“, каза Хокинс. „И тогава успях да получа Instagram онази сутрин и след това, когато проверих, че беше обяд, всичко беше изключено.“

Хокинс каза, че както неговият Instagram, така и свързаният с него акаунт във Facebook са били хакнати, отваряйки последователите му за подобни атаки.

Това е мястото, където той каза, че дълбокият фейк е започнал. Хокинс каза, че 16-секундно дълбоко фалшиво видео е изпратено до неговите приятели и последователи, насърчавайки ги да инвестират в копаене на биткойн. Той потвърди, че видеото изглежда и звучи точно като него.

„Изглежда истинско, но го изпращат на хората. Мисля, че са направили други“, каза Хокинс.

Той каза, че видеоклипът е публикуван в Instagram истории всеки ден от първоначалното хакване. В него той каза, че „фалшивият Хокинс“ споделя колко пари е направил чрез биткойн. Работата е там, че Хокинс каза, че никога не е инвестирал в криптовалута.

„Нямам никакви биткойни, така че не съм го направил“, каза Хокинс.

Хоукинс каза, че се е свързал и с двете социални медийни платформи с надеждата да закрие акаунта си, но акаунтите му в Instagram и Facebook все още са активни.

Разширение и регулации на Deepfake

Бен Коулман, главен изпълнителен директор на Reality Defender, работи с организации и правителствени агенции за сканиране на аудио, изображения и видео, за да защити поверителността на хората, като както и борба с измамите, неподходящото съдържание и търсене на решение за възхода на дълбоките фалшификати.

„Размяната на лица е дълбок фалшификат“, каза Коулман. „Някои от тях са смешни, а някои се използват за измама.“

Той каза, че видеоклиповете могат да бъдат и потенциално опасни.

На 16 март, по време на военните действия на Русия в Украйна, в социалните медии се появи дълбок фейк на украинския президент Володимир Зеленски. Видеото изобразява Зеленски да изнася реч. Той обаче беше пикселиран и имаше по-дълбок от обичайния глас. След като видеото беше обозначено като deepfake, Meta - компанията-майка на Facebook - бързо се придвижи да свали видеоклипа от всички свои платформи и издаде следното изявление, в което се казва, че компанията „бързо прегледа и премахна този видеоклип за нарушаване на нашата политика срещу подвеждащи манипулирани медии, и уведомихме колегите си в други платформи.“

Това не беше първият път, когато Meta се обърна към deepfakes. Преди президентските избори през 2020 г. компанията забрани дийпфейкове и други манипулирани видеоклипове, цитиращи опасни тактики, които биха могли да подведат обществеността.

В прессъобщение за Facebook от 2020 г. компанията каза, че работи по проблема и „засилва политиката си към подвеждащи манипулирани видеоклипове“. Манипулираната медийна политика на Facebook очертава, че непародийни или сатирични видеоклипове, редактирани, за да подведат хората, или видеоклипове, които използват AI, за да изглеждат автентични, ще бъдат премахвани.

Няма публични данни за това колко дълбоко фалшиви видеоклипа е премахнал Facebook, но в изявление компанията каза, че „работи с други в тази област, за да намери решения с реално въздействие“.

През септември 2019 г. компанията създаде „Предизвикателство за дълбоко откриване на фалшификати“, което помоли експерти в областта да помогнат за създаването на инструменти с отворен код за откриване на дълбоки фалшификати.

ЩРАКНЕТЕ ТУК, ЗА ДА ГЛЕДАТЕ ВИДЕОТО С ПРЕДИЗВИКАТЕЛСТВОТО

Meta също си партнира с медии като Reuters, за да помогне за идентифицирането на deepfakes и да предостави безплатно онлайн обучение как да идентифицирате манипулирани визуални елементи.

Бен Коулман каза, че докато социалните медийни компании и организации се опитват да се борят с проблема, остават значителни препятствия.

„Много пъти тези компании имат големи предизвикателства, защото имат човешки модератори, а човешките модератори просто вече не могат да направят разлика между истински и фалшиви“, каза Коулман.

Сенатор Роб Портман (R-OH) внесе законопроект в Конгреса миналата година, за да се изисква от Министерството на вътрешната сигурност и Службата за политика в областта на науката и технологиите на Белия дом да създадат временна Национална работна група за Deepfake Provenance. Законопроектът беше отнесен до комисията по вътрешна сигурност и правителствени въпроси и беше „разпоредено да бъде докладван без изменения в полза“.

Коулман каза, че в САЩ няма настоящи политики, които да изискват от компаниите да маркират синтетични и фалшиви медии по начина, по който в момента маркират голота и насилие над непълнолетни.

„В по-голямата си част [компаниите] молят потребителите да маркират нещата“, каза Коулман. „Те очакват потребителите да бъдат експерти и ако видят нещо, трябва да кажат нещо и след това то се изпраща на човешки модераторски екип.“

Публични и частни решения за deepfake

Според Coleman, Reality Defender в момента работи върху създаването на разширение за браузър и уебсайт, за да помогне на потребителите да разпознават deepfake от персоналните си компютри.

Но Reality Defender не е сам в борбата срещу дълбоките фалшификати.

В Университета на Вирджиния екип от студенти трета година разработва уебсайт за обществеността, където един ден потребителите могат да качват съмнителни видеоклипове и снимки, за да проверят дали са фалшиви.

Двама от тези студенти, Ахмед Хюсеин и Сам Буксбаум, учат компютърни науки и физика. Двойката спечели най-голямата награда на конкурса Innovative Discovery Science Platform (iDISPLA). Тяхното предложение, което е насочено към борбата с deepfake с помощта на AI, дойде, след като дуото видя увеличение на deepfake видеоклипове, които се появяват в интернет.

„Определено е възможно deepfakes през следващите пет години да бъдат почти неразличими от реални хора в някои случаи“, каза Хюсеин. „Стигат до точката, в която е доста трудно да се направи това.“

Хюсеин каза, че вярва, че решението не е да се бори огънят с огън, а да се използва блокчейн, система, която записва информация и затруднява хакването или измамването на системата.

Буксбаум каза, че уебсайтът им ще позволи на хората да качат видеоклип и алгоритъмът ще покаже дали видеоклипът е фалшив.

„Някои от нещата, които са различни между дълбоко фалшифициране и истинско видео, се откриват само от компютър, но те все още ви карат да се чувствате странно, когато го гледате“, каза Буксбаум.

Защита на вашия акаунт и откриване на deepfakes

Тъй като онлайн решенията и законодателите наваксват технологиите, Коулман предложи няколко стъпки, които да предотвратят хакерите да използват вашите снимки и видеоклипове, за да създават deepfakes:

Когато става въпрос за забелязване на дълбоки фалшиви фалшиви изображения, изследователи от Масачузетския технологичен институт предлагат да погледнете чертите на лицето на видеото:

Кайл Хокинс каза, че опитът му го е накарал да бъде предпазлив към социалните медии и този нов стил на киберизмама.

„Просто бъдете изключително внимателни в днешно време за всичко, което поставяте там, публикувате там, отговаряте или щраквате върху него.“

Авторско право 2022 Gray Media Group, Inc. Всички права запазени.