Преглед на приватноста

Оваа веб-страница користи колачиња за да ви обезбеди најдобро можно корисничко искуство. Информациите за колачињата се складираат во вашиот прелистувач и извршуваат функции како препознавање кога се враќате на нашата веб-страница и им помагаат на нашите програмери да разберат кои делови од веб-страницата ви се најинтересни и најкорисни.

Строго неопходни колачиња

Строго неопходните колачиња треба да бидат овозможени во секое време за да можеме да ги зачуваме вашите поставки за колачиња.

OpenAI ги спречи руските, севернокорејските и кинеските хакери кои го злоупотребувале ChatGPT за сајбер напади

OpenAI во вторникот соопшти дека ги спречила три групи активности кои го злоупотребувале нејзиниот вештачко-интелигентен (AI) алат ChatGPT за развој на малициозен софтвер.

Ова вклучува и заканувач на руски јазик, кој го користел ChatGPT за да помогне во развој и усовршување на remote access trojan (RAT) — малвер за далечински пристап, и алатка за кражба на кориснички податоци, со цел да избегне откривање. Операторот користел неколку ChatGPT сметки за да прави прототипи и тестира технички компоненти кои овозможуваат пост-експлоатација и кражба на акредитиви.

„Овие сметки изгледа се поврзани со руски криминални групи, бидејќи забележавме дека објавуваат докази за своите активности во Telegram канал посветен на тие актери,“ соопшти OpenAI.

Компанијата додаде дека, иако моделите одбивале директни барања за создавање малициозна содржина, напаѓачите го заобиколиле ограничувањето со тоа што креирале поединечни кодови – градежни елементи кои подоцна ги споиле во функционални работни процеси.

Дел од генерираниот код вклучувал кодови за замаглување (obfuscation), следење на клипборд, и основни алатки за извлекување податоци преку Telegram бот. Вреди да се напомене дека ниту една од овие компоненти не е сама по себе злонамерна.

„Заканувачот поставувал и високо и ниско-технички барања: некои барале длабоко познавање на Windows платформата и итеративно дебагирање, додека други автоматизирале рутински задачи (како масовно генерирање лозинки или автоматско аплицирање за работни места),“ додаде OpenAI.

„Операторот користел мал број ChatGPT сметки и ја усовршувал истата база на код преку повеќе разговори — шаблон што укажува на континуиран развој, а не на случајно тестирање.“

Втората група активности потекнувала од Северна Кореја, и се преклопувала со кампања опишана од Trellix во август 2025, која ги таргетирала дипломатските мисии во Јужна Кореја преку spear-phishing пораки што испорачувале Xeno RAT.
OpenAI соопшти дека оваа група користела ChatGPT за развој на малвер и командно-контролни (C2) системи, како и за задачи како креирање macOS Finder екстензии, конфигурирање Windows Server VPN, и конвертирање Chrome екстензии во Safari верзии.

Дополнително, тие користеле ChatGPT за пишување phishing мејлови, експериментирање со cloud услуги и GitHub, и истражување техники за DLL loading, извршување во меморија, Windows API hooking, и кражба на акредитиви.

Третата група на забранети сметки имала врска со кинеска хакерска група позната како UNK_DropPitch (UTA0388), која според Proofpoint е поврзана со phishing кампањи насочени кон големи инвестициски компании, особено во тајванската полупроводничка индустрија, користејќи backdoor наречен HealthKick (GOVERSHELL).

Овие сметки го користеле ChatGPT за создавање phishing содржини на англиски, кинески и јапонски јазик, како и за алатки кои забрзуваат рутински задачи (како далечинско извршување или HTTPS заштита на сообраќај), и пребарување информации за инсталација на open-source алатки како nuclei и fscan. OpenAI ја опиша оваа група како „технички способна, но не особено напредна“.

Освен овие три групи, компанијата блокирала и сметки кои биле користени за измами и влијателни операции:

  • Мрежи од Камбоџа, Мјанмар и Нигерија користеле ChatGPT за измами преку интернет — превод на текстови, пишување пораки и создавање содржина за социјални мрежи за промовирање инвестициони измами.
  • Лица поврзани со кинески владини ентитети користеле ChatGPT за надгледување на поединци, вклучувајќи етнички малцинства како Ујгурите, и за анализа на податоци од западни или кинески социјални платформи.
  • Руски актери поврзани со Stop News користеле ChatGPT и други AI модели за создавање видеа и содржини на социјални мрежи кои ја критикуваат улогата на Франција и САД во Африка, а ја промовираат Русија.
  • Тајна кинеска операција наречена „Nine—emdash Line“ користела AI за создавање содржини кои го критикуваат претседателот на Филипини Фердинанд Маркос, го обвинуваат Виетнам за еколошки штети во Јужното Кинеско Море и напаѓаат демократски активисти во Хонг Конг.

Во два случаи, кинески сметки барале ChatGPT да ги идентификува организаторите на петиција во Монголија и изворите на финансирање на еден X (Twitter) профил што го критикувал кинескиот режим. OpenAI истакна дека моделите дале само јавно достапни информации, без чувствителни податоци.

„Интересно е што една од кинеските мрежи барала совети за раст на социјални мрежи — како да започне TikTok предизвик и да натера други да објавуваат содржини со хаштагот #MyImmigrantStory,“ додаде OpenAI.

Тие дури побарале моделот да им напише сценарио за TikTok видео, со препораки за музика и слики за објавата.

OpenAI нагласи дека нејзините алатки им овозможиле на овие актери способности што инаку не би можеле лесно да ги добијат и дека биле користени за зголемување на ефикасноста во нивните постоечки процеси.

Еден интересен момент е дека сајбер-криминалците се обидуваат да ги отстранат знаците што откриваат дека содржината е генерирана со AI.

„Една од мрежите од Камбоџа што ја спречивме го замолила моделот да ги отстрани долгите црти (—) од текстовите или тоа го направила рачно,“ рече OpenAI. „Во последните месеци, долгата црта беше индикатор дека текстот можеби е создаден со AI, што покажува дека хакерите се свесни за тие сигнали.“

Овие наоди доаѓаат истовремено кога конкурентната компанија Anthropic го објави својот отворен код алат Petri (Parallel Exploration Tool for Risky Interactions), наменет за тестирање на безбедноста на AI моделите и анализа на однесување како измама, ласкање, штетни барања и самозаштита.

„Petri користи автоматизиран агент што тестира целен AI систем преку повеќекратни разговори со симулирани корисници,“ објасни Anthropic.

„Истражувачите му даваат на Petri листа на сценарија што сакаат да ги испита, а потоа агентот ги тестира паралелно. На крај, друг агент ги оценува резултатите според повеќе критериуми за да се идентификуваат најинтересните случаи.“

Извори:

  • The Hacker News – „OpenAI Disrupts Russian, North Korean, and Chinese Hackers Misusing ChatGPT for Cyberattacks“ .The Hacker News