Пов’язані з КНДР хакери стали частіше вдаватися до допомоги штучного інтелекту для реалізації шахрайських схем і зломів. Про це пише Financial Times.
Представник розвідки Південної Кореї в розмові з виданням заявив, що зловмисники із сусідньої країни використовують генеративний ШІ для обману і компрометації співробітників служби безпеки.
У 2023 році з 1,62 млн спроб злому, зроблених проти південнокорейських компаній і державних органів, більше ніж 80% були пов’язані з Північною Кореєю.
Однак хакери з КНДР часто зазнавали невдачі через погане знання мови і місцевої специфіки соціальної взаємодії, стверджують південнокорейські спікери.
Віцепрезидентка з досліджень Chainalysis Ерін Планте зазначила, що інтерес хакерів до ШІ являє собою нову серйозну загрозу.
«Північнокорейські хакерські угруповання створюють профілі рекрутерів, що викликають довіру, на професійних сайтах на кшталт LinkedIn. Генеративні нейромережі допомагають їм спілкуватися, надсилати повідомлення, створювати зображення і нові особистості — все, що потрібно для побудови тісних стосунків із жертвою», — розповіла вона.
Планте описала випадок, коли хакери з КНДР обдурили старшого інженера японської криптовалютної біржі, видавши себе за представників сінгапурської компанії. Вони попросили жертву провести «технічний тест», завантаживши програмне забезпечення, яке виявилося фішинговим.
«Атаки стають дедалі витонченішими — ми не говоримо про погано сформульований електронний лист із написом „натисніть на посилання“. Це детальні профілі в LinkedIn та інших соціальних мережах, які вони використовують для вибудовування стосунків протягом тижнів і місяців», — додала дослідниця.
Аналітик сеульської інформаційної служби NK Pro Шрейас Редді розповів, що на загрозу також наражаються користувачі інших платформ, включно з Facebook, WhatsApp, Telegram і Discord.
На його думку, АІ-сервіси на кшталт ChatGPT допомагають північнокорейським злочинцям розробляти складніші форми шкідливого програмного забезпечення. У цих інструментах передбачено заходи безпеки, що запобігають їхньому використанню в зловмисних цілях, але обмеження можуть обійти навіть звичайні користувачі, додав Редді.
Хюк Кім, науковий співробітник Центру досліджень у сфері нерозповсюдження ім. Джеймса Мартіна. Джеймса Мартіна, зазначив, що за останні два десятиліття північнокорейські дослідники опублікували «сотні статей» на тему ШІ.
В одному з матеріалів 2022 року вони розповіли про метод машинного навчання в симуляції військових дій. В іншій статті того ж року розглядається, як великі мовні моделі можуть допомогти в експлуатації ядерного реактора.
«Наскільки ми можемо судити, складність північнокорейських систем штучного інтелекту все ще перебуває в зародковому стані. Але також можливо, що вони просто не хочуть розкривати свої можливості», — підсумував Кім.
Раніше розробники компанії OpenAI припинили можливість використання своїх продуктів кіберзлочинцями, пов’язаними з урядами різних країн. Спільно з Microsoft Threat Intelligence вони видалили п’ять акаунтів зловмисників, зокрема пов’язані з хакерськими угрупованнями з КНДР.
Нагадаємо, 2023 року північнокорейські хакери вкрали щонайменше $600 млн і були відповідальні майже за третину кіберінцидентів, згідно зі звітом TRM Labs.