Преглед на приватноста

Оваа веб-страница користи колачиња за да ви обезбеди најдобро можно корисничко искуство. Информациите за колачињата се складираат во вашиот прелистувач и извршуваат функции како препознавање кога се враќате на нашата веб-страница и им помагаат на нашите програмери да разберат кои делови од веб-страницата ви се најинтересни и најкорисни.

Строго неопходни колачиња

Строго неопходните колачиња треба да бидат овозможени во секое време за да можеме да ги зачуваме вашите поставки за колачиња.

Како deepfake и injection нападите ја нарушуваат верификацијата на идентитетот

Deepfake-ите еволуираат и повеќе не се ограничени на кампањи за дезинформации или вирална медиумска манипулација. Повеќето безбедносни тимови веќе го разбираат проблемот со deepfake; сепак, поитната промена е начинот на кој синтетичките медиуми се операционализираат.

Овој вектор на измама се користи во клучните моменти на идентитет кои го движат интернетот и економијата – како што се онбординг на клиенти во банка, онбординг на возачи за гига и доставни платформи, верификација на продавачи на маркетплејс, обновување на сметки, далечинско вработување, пристап за партнери и работни текови со привилегиран пристап.

Како што сè повеќе работа и бизнис се одвиваат од далечина, идентитетот стана примарна контролна точка – и примарна цел. Лошите актери не сакаат само да измамат selfie проверка; тие сакаат да се претстават како вистинска личност, да воспостават долготраен пристап и повторно да ја користат таа позиција во потрошувачки и корпоративни средини.

Тимовите за сајбер-безбедност и измами сега се соочуваат со конвергенција на тактики кои сите целат кон истата одлука – моментот кога системот заклучува „ова е вистинска личност“:

Висококвалитетни синтетички лица и гласови што можат да поминат брзи проверки
Репродуцирани вистински снимки од украдени или прибрани сесии
Автоматизација што ги испитува верификациските текови во голем обем
Injection напади што го компромитираат процесот на снимање и го заменуваат влезниот стрим во почетната фаза

Затоа „детекција на deepfake“ сама по себе повеќе не е доволна. На претпријатијата им е потребна целосна валидација на сесијата: вклучувајќи перцепција, интегритет на уредот и бихевиорални сигнали… сè во една единствена контрола во реално време.

Тоа е моделот зад Incode Deepsight: пристап изграден за валидација на идентитетски сесии од крај до крај, а не само за евалуација на медиумот изолирано.

Вистинското прашање не е само „Дали ова лице изгледа вистинско?“ туку „Дали можеме да ѝ веруваме на целата оваа сесија од крај до крај?“

Deepfakes и injection се прашања на корпоративна безбедност

Во корпоративните системи, успешното заобиколување не е настан поврзан со репутација; тоа е настан на пристап. Кога верификацијата прифаќа манипулирана или компромитирана сесија како вистинска, напаѓачите можат:

Да креираат измамнички сметки користејќи синтетички идентитети
Да преземат постоечки кориснички сметки
Да ја заобиколат HR верификацијата при далечинско вработување
Да добијат неовластен пристап до чувствителни внатрешни системи

За разлика од измамите на социјалните мрежи, овие напади можат да овозможат постојан пристап во доверливи средини. Последиците се долготрајни: перзистентност на сметки, патеки за ескалација на привилегии и можности за латерално движење кои започнуваат со една единствена лажна одлука за верификација.

Каде проверките на идентитетот потфрлаат: претпоставка дека сензорот е доверлив

Повеќето проверки на идентитет се изградени околу два сигнала: сличност на лицето и „живост“ (liveness). Двата се корисни, и двата можат да бидат поткопани ако системот претпостави дека влезниот стрим е автентичен.

Напаѓачите ја рушат таа претпоставка на два комплементарни начини.

Прво, тие имитираат вистински медиум. Deepfake-ите и клоновите на глас се подобруваат во реални оперативни услови – кратки клипови, мобилно снимање, компресија и несовршено осветлување. Работен тек што зависи од тесна визуелна површина сè повеќе е изложен на лажно прифаќање.

Второ, тие целосно го заобиколуваат сензорот. Injection нападите го заменуваат влезниот стрим пред да стигне до анализата. Наместо да прикажат лице пред камера, напаѓачите можат:

Да користат софтвер за виртуелна камера за да внесат синтетичко или претходно снимено видео
Да извршуваат верификациски сесии во емулатори дизајнирани да имитираат легитимни мобилни уреди
Да работат од root-ирани или jailbroken уреди што ги заобиколуваат проверките за интегритет
Да го заменат live снимањето со манипулирани стримови во почетната фаза

Во овие сценарија, медиумот може да изгледа совршено затоа што никогаш не морал да помине низ вистински процес на снимање. Затоа одбраните базирани само на перцепција (дури и силни) се неопходни, но недоволни.

Што покажува benchmark-от на Purdue Political Deepfakes Incident Database

Еден практичен проблем за одбраната од deepfake е генерализацијата: детекторите што се покажуваат добро во контролирани услови често деградираат во „реални“ услови.

Истражувачи од Purdue University ги евалуираа системите за детекција на deepfake користејќи реален benchmark базиран на Political Deepfakes Incident Database (PDID).

PDID содржи медиум од реални инциденти дистрибуирани на платформи како X, YouTube, TikTok и Instagram, што значи дека влезовите се компресирани, повторно енкодирани и пост-процесирани на ист начин како што бранителите често ги гледаат во продукција.

Клучни фактори вклучуваат:

Силна компресија и повторно енкодирање
Резолуција под 720p
Кратки, мобилно-ориентирани клипови
Хетерогени генеративни процеси

Детекторите беа евалуирани од крај до крај користејќи метрики како точност, AUC и стапка на лажно прифаќање (FAR). Во идентитетските работни текови, FAR често е покритична метрика, бидејќи дури и мала стапка на лажно прифаќање може да овозможи траен неовластен пристап.

Резултатите од Purdue исто така ја истакнуваат практичната реалност за бранителите: перформансите драматично варираат меѓу детекторите кога влезовите наликуваат на продукциски услови.

Меѓу комерцијалните системи евалуирани во PDID benchmark-от на Purdue, Incode’s Deepsight ги испорача најсилните резултати кога задачата е чисто визуелна детекција на deepfake – евалуација на самото видео под реални услови на инцидент.

Но тоа е само првиот слој од проблемот.

Важно е да се биде прецизен: PDID ја мери робустноста на детекција на медиум врз реален инцидентен содржински материјал. Не моделира injection, компромитација на уред или напади на целосна сесија.

Во реални идентитетски работни текови, напаѓачите не избираат една техника во даден момент; тие ги комбинираат. Висококвалитетен deepfake може да се репродуцира. Репродукцијата може да се инјектира. Инјектираниот стрим може да се автоматизира во голем обем.

Дури и најдобрите медиумски детектори можат да бидат заобиколени ако процесот на снимање не е доверлив. Затоа Deepsight оди подлабоко од прашањето „Дали ова видео е deepfake?“

Deepsight ја затвора таа празнина преку валидација на целата сесија низ три слоја: перцепција, интегритет и однесување, така што системот може да ги запре нападите без разлика дали доаѓаат како убедлив deepfake, репродукција или инјектиран стрим.

Рачната ревизија не ја затвора празнината

Човечката ревизија може да намали одредени класи на измами, но не е скалабилна безбедносна контрола против синтетички медиум.

Дури и обучени ревизори се борат да разликуваат вистинско од лажно како што генеративните модели се подобруваат.

Денешните injection напади ја поништуваат самата претпоставка и целосно ја поткопуваат човечката проценка: сесијата може да изгледа легитимна додека влезниот стрим е заменет во почетната фаза. Дури и консензус меѓу неколку експерти не може да утврди дека процесот на снимање бил автентичен.

Безбедносниот модел што опстојува: верувај ѝ на сесијата, не само на пикселите.

Ако напаѓачите можат да победат или преку подобрување на медиумот или преку заобиколување на сензорот, одбраните мора да ја валидираат сесијата низ повеќе слоеви во реално време:

Перцепција: Дали самиот медиум е манипулиран?
Интегритет: Дали уредот, камерата и сесијата се автентични?
Однесување: Дали интеракцијата одразува вистински човек и нормален тек на верификација?

Овој модел создава резилиентност. Ако висококвалитетен deepfake ја избегне перцепцијата, сигналите за интегритет и однесување сè уште можат да спречат успешно заобиколување. Ако медиумот е инјектиран, проверките за интегритет можат да ја неуспешат сесијата без оглед на тоа колку реално изгледаат пикселите.

Како Incode Deepsight блокира deepfakes и injection напади во реално време

Напаѓачите скалираат. Тие можат брзо да итераираат против верификациските текови, да ги испитуваат граничните случаи и да го операционализираат она што функционира. Deepfake-ите го зголемуваат основниот ризик од лажно прифаќање, injection ја отстранува камерата како доверлив сензор, а автоматизацијата го зголемува обемот на обиди.

Претпријатијата што ја третираат верификацијата на идентитет како еднократна проверка наместо како безбедносен процес во реално време ќе се борат да го одржат темпото.

Incode Deepsight е дизајниран околу едноставна премиса: ако идентитетските работни текови се напаѓаат и на медиумскиот и на сесискиот слој, одбраните мора да ја валидираат целата верификациска сесија од крај до крај.

За време на live верификација, Deepsight комбинира три слоја во реално време:

Перцепциска анализа: Мултимодална AI што ги евалуира видео, движење и сигнали за длабочина низ повеќе фрејмови за да детектира синтетички медиум и физички измами. Deepsight исто така го штити снимањето на ID преку детекција на AI-генерирани документи за идентификација.
Валидација на интегритет: Проверки за автентичност на камерата и уредот за идентификување и блокирање на инјектирани медиумски извори, како виртуелни камери, емулатори и компромитирани средини.
Бихевиорални ризични сигнали: Детекција на индикатори за автоматизација и bot-слични шеми на интеракција кои често ги придружуваат нападите во голем обем.

Овој слоевит модел е она што го прави Deepsight резилиентен во пракса. Ако висококвалитетен deepfake ја избегне перцепцијата, сигналите за интегритет и однесување сè уште можат да спречат успешно заобиколување. Ако медиумот е инјектиран, проверките за интегритет можат да ја неуспешат сесијата без оглед на тоа колку реално изгледаат пикселите.

Целта е едноставна: да се утврди дали на целата верификациска сесија може да ѝ се верува – не само дали лице изгледа вистинско, туку дали вистински човек е присутен на доверлив уред во live, неманипулирана интеракција.

Затворање на јазот помеѓу детекција и имплементација

Одбраната на идентитетските работни текови сега бара контроли што претпоставуваат адверзаријална AI и недоверливи средини за снимање.

Одбраната од deepfake мора да еволуира од препознавање на манипулирани пиксели кон валидација на автентичноста на целосни верификациски сесии. Слоевити одбрани низ автентичност на медиум, интегритет на уред и бихевиорални сигнали се најсигурниот начин да се намали лажно прифаќање без да се додава непотребна фрикција за легитимните корисници.

Извори:

  • Bleeping Computer – How Deepfakes and Injection Attacks Are Breaking Identity Verification Bleeping Computer