Як розвиток ШІ впливає на кібербезпеку | robot_dreams
Для відстеження статусу замовлення - авторизуйтесь
Введіть код, який був надісланий на пошту Введіть код із SMS, який був надісланий на номер
 
Код дійсний протягом 2 хвилин Код з SMS дійсний протягом 2 хвилин
Ви впевнені, що хочете вийти?
Сеанс завершено
На головну
«Штучний інтелект не захистить, якщо не використовувати інтелект природний»: як розвиток ШІ впливає на кібербезпеку

«Штучний інтелект не захистить, якщо не використовувати інтелект природний»: як розвиток ШІ впливає на кібербезпеку

Тепер спамери можуть надсилати 3 млрд листів щомісяця замість 100 тис. Але позитивний вплив теж є.

Системи штучного інтелекту (ШІ) допомагають посилити кібербезпеку: розпізнають аномалії та нові типи зловмисного софту, сповіщають про загрози та захищають критичні дані. А поява технологій на кшталт ChatGPT та Bard розширила їхні можливості ще більше. 

Втім, у цю гру можна грати вдвох. Кіберзлочинці також використовують ШІ, аби здійснювати складніші та цілеспрямовані атаки. Наприклад, генерують фішингові листи за допомогою мовних моделей чи навіть імітують чужий голос і відеозображення.

Про те, як розвиток ШІ змінює індустрію кібербезпеки, які переваги й ризики пов’язані з поширенням таких технологій та чи слід уже зараз хвилюватися про загрози майбутніх кібервійн, розповідає Михайло Кольцов — зовнішній консультант The World Bank Group у сфері аналізу даних та кібербезпеки.

Далі зі слів Михайла.

Михайло Кольцов, зовнішній консультант The World Bank Group у сфері аналізу даних та кібербезпеки

Обмеження класичних систем ШІ

Системи штучного інтелекту, побудовані на основі алгоритмів машинного навчання та лінгвістичних нейромереж, уже давно стали частиною сучасних інструментів для захисту даних. 

Є кілька сфер, у яких вони застосовуються. Насамперед це виявлення проникнення — коли потрібно зрозуміти, що у ваш периметр хтось заліз. Система може автоматично розпізнати сигнатуру зловмисного коду або вхідного інтернет-трафіку, зреагувати на аномальну поведінку користувачів. Наприклад, алгоритм помічає, що людина о 12 ночі звертається до файлу з персональними даними клієнтів, — імовірно, це дії хакера.

Алгоритми машинного навчання добре справляються з фільтруванням спаму — йдеться про поштові фільтри, які дозволяють зменшити фішингове навантаження на персонал компанії. Адже можна неодноразово попереджати співробітників, щоб вони не відкривали підозрілі листи, — але людський фактор непередбачуваний. Краще налаштувати спам-фільтр, щоб людина взагалі не натрапляла на повідомлення від шахраїв.

Класичні системи ШІ працюють з розпізнаванням уже відомих загроз. Але нові способи злому з’являються ледь не щодня. Тому важливо вміти передбачати зловмисні дії та реагувати на вразливості ще до того, як вони стануть активними. Впоратися з таким завданням здатні інструменти на основі генеративних моделей ШІ, які можуть не тільки вимірювати певні патерни, а й формувати контент. Це перспективний тренд для створення як антивірусів, так і комерційних продуктів для кібербезпеки.

Більше про тренди 2023 року в кібербезпеці можна буде послухати на лекції Михайла Кольцова вже 17 серпня на онлайн-конференції від robot_dreams — STRUM. Участь у заході безоплатна.

Можливості генеративних моделей

Розглянемо ключові переваги та можливості систем генеративного ШІ у площині кіберзахисту:

  • Виявлення нетипової (аномальної) поведінки. Для класичних систем захисту ми задаємо певні критерії, за якими поведінка користувачів вважатиметься зловмисною. Збігається кілька таких факторів — фіксується вторгнення. Водночас генеративний ШІ може помітити критерії, про які ми самі ще не здогадуємося, з якими ніколи раніше не стикалися. У такий спосіб можна скомбінувати кращу предикативну модель.
  • Автоматичні дії. Мало виявити загрозу — вкрай важливо вчасно на неї відреагувати та імплементувати систему захисту. Моделі, згенеровані алгоритмами генеративного ШІ, здатні робити це якнайшвидше.
  • Робота з автоматичними атаками. Здебільшого на великі компанії нападають не люди, а алгоритми. Зазвичай людина не здатна адекватно відповісти на цей виклик, адже зловмисні програми постійно видозмінюються. Втім, одному боту можна і потрібно протиставити іншого бота.
  • Боротьба з фальшнегативними та фальшпозитивними сигналами. У корпоративній кібербезпеці система має одночасно відстежувати багато подій: інтернет-трафік, звернення на сайт тощо. Посеред цього «шуму» легко посилитись і трактувати звичайну поведінку як зловмисну — або навпаки. Наразі це основна проблема кібербезпеки, і генеративний ШІ має великі шанси зменшити кількість неправильно проінтерпретованих сигналів.

Біометрична автентифікація — тренд, який вщухає

Позаяк системи генеративного ШІ з’явилися недавно, вони вже помітно впливають на галузь кібербезпеки. Наприклад, біометрична автентифікація, яка імплементована майже у кожний телефон, все ще вважається хорошим захистом кінцевих користувачів, але стає дедалі менш надійним засобом у корпоративному світі.

Наші відбитки пальців чи обличчя унікальні тільки з погляду людини. Але для машини це просто певна комбінація точок. Наприклад, якщо хакер отримає доступ до вашої камери, він може згенерувати достатню кількість зображень та створювати цифровий відбиток вашого обличчя. 

Тому наразі у корпораціях відмовляються від біометричної автентифікації на користь FIDO-токенів — спеціальних пристроїв, які слугують другим фактором під час перевірки особистого ідентифікатора. Біометрія ж лишається як допоміжний засіб у великих корпораціях — наприклад, для розпізнавання співробітників, які заходять у приміщення.

Як виглядає FIDO-токен

Генеративний ШІ в руках хакерів: які є ризики

Основна загроза поширення відкритих інструментів генеративного ШІ — у тому, що ці технології будуть доступні не тільки для кіберзахисту, але і для кібернападу. Хоча поточна інфраструктура на рівні ChatGPT не дозволяє хакерам створювати нові віруси чи модифікувати поточні, вони можуть використовувати її у режимі co-pilot. А значить — витрачати набагато менше часу на підготовку атак.

Наприклад, нещодавно з’явився автоматизований алгоритм WormGPT. Він допомагає шахраям генерувати переконливі спам-листи, що обходять систему спам-фільтрів. Для цього система використовує датасет бізнес-листів зі зламаних корпоративних поштових скриньок.

Як наслідок, протягом останнього року збільшилася кількість інцидентів з фішингом, вірусами-вимагачами тощо. Водночас кіберзлочинців не побільшало — просто тепер одна людина може розширити охоплення своєї діяльності. Наприклад, надсилати не 100 тис. спамерських листів щомісяця, а 3 млрд.

Генеративний інтелект дозволяє підробляти й голос іншої людини. Уже було кілька випадків, коли шахрай імітував голос одного з керівників компанії й телефоном наказував перевести на свій рахунок кілька мільйонів доларів. Більш розповсюджені схеми: скамер дзвонить родичам жертви та розповідає історію на кшталт «ваш онук у поліції — заплатіть гроші, щоб його відпустили». У США щорічні втрати від таких атак сягають 20–27 млн доларів.

Наразі згенеровані голоси не є ідеальними. Вони роботизовані та не передають нюанси. Такий вид атаки більше експлуатує людську вразливість та неуважність. Так само хакери ще не навчилися робити достовірні відеовідбитки обличчя.

Проблеми згенерованого коду

Ще один ризик, який з’явився з появою інструментів на кшталт ChatGPT, — зниження якості коду. Уявімо, що розробник згенерував код для свого завдання, а той містить певні вразливості. Якщо програміст не має достатньо кваліфікації, щоб це зрозуміти, — не уникнути проблем. 

Окрім власне вразливостей, у такий спосіб можна порушити комерційну таємницю. Адже коли розробник надає ChatGPT фрагмент свого коду та просить його модифікувати, система поповнює свій датасет. Іншими словами, цей код потрапляє у відкритий доступ. І потім, коли інша людина спробує згенерувати код, який розв’язує схожу задачу, ChatGPT може запропонувати їй фрагмент того самого чужого коду. Фактично інтелектуальна власність перейде до іншої людини або компанії.

Тому чимало IT-компаній уже заборонили своїм розробникам користуватися генеративним ШІ під час програмування.

Ключове питання — вартість

Компанії, для яких важлива безперебійність сервісів та робота з чутливими даними, дедалі більше цікавляться засобами кібербезпеки з використанням ШІ. Цей тренд помітний і в Україні — насамперед серед інноваційних банків та бізнесів, які працюють з технологічною інфраструктурою і великими масивами даних. 

Ключове питання, що визначає швидкість розробки інноваційних засобів захисту даних, — у вартості цих технологій. Зазвичай ідеться про 6-значні та навіть 7-значні цифри. Навіть у бігтех на кшталт Meta наразі не впевнені, чи варто віддавати такі суми за сервери та створення датасетів, аби тільки використовувати всі можливості генеративних моделей. 

Натомість набирає обертів кіберзахист як послуга, яка охоплює як засоби класичного захисту, так і застосування алгоритмів генеративного навчання. В Україні одним з лідерів цієї ніші вважається «Київстар».

Найбільшим барʼєром для використання ШІ в кібербезпеці наразі є RoSI (Return on Security Investment), коли компанії потрібно обґрунтувати закупівлю додаткових інструментів з погляду витрат. Зазвичай логіка під час побудови корпоративного кіберзахисту така: його вартість не повинна перевищувати потенційні втрати від кібератаки. 

Наприклад, у компанії імплементований захист на основі унікальних сигнатур поширених вірусів. Це захищає бізнес від 30–60 % атак. Якщо такий ризик прийнятний, можна не витрачати кошти на засоби генеративного ШІ, які відбиватимуть 80–92 % атак.

До речі, висока вартість ресурсів для розвитку генеративного ШІ — гарантія того, що поодинокі хакери не зможуть використовувати його для підготовки атак, серйозніших за фішинг. Фактично наразі хакерська група може отримати доступ до потрібної інфраструктури тільки за державної підтримки — наприклад, для розробки кіберозброєння в інтересах цієї держави.

ШІ — не чарівна таблетка

Одного разу я розслідував кіберінцидент у компанії: хакери зламали комп'ютер співробітника та вдерлись у корпоративну систему. З’ясувалося, що цей працівник зберігав паролі від AWS просто у текстовому файлі на робочому столі. Таких випадків чимало. 

Кібербезпека — це завжди кооперація між людиною і машиною. Тому, скільки б грошей бізнес не витрачав на сучасні інструменти кіберзахисту з використанням ШІ, — вони не працюватимуть, якщо не застосовувати звичайний інтелект.

Також варто пам’ятати, що система зі штучним інтелектом не може розв'язувати всі проблеми кібербезпеки. Це не чарівна таблетка. Спочатку компанія має побудувати кілька рівнів захисту традиційними засобами — як основу. Тільки після цього можна додати інструменти на базі ШІ — як надбудову. 

Якщо відразу взяти інструменти, які побудовані на ШІ, є ризик потрапити у пастку хибного відчуття захисту. Наприклад, алгоритми машинного навчання надзвичайно чутливі до датасету, на якому вони вчаться. Якщо зловмисник зможе маніпулювати цим датасетом і навчить алгоритм «не помічати» певні аномалії, той стане вразливим до таких атак. Наразі ще немає способів цьому протистояти. 

Проте тенденція йде до того, що у перспективі 5–10 років засоби кібербезпеки на основі ШІ застосовуватимуться дедалі ширше. Користувачі цифрових продуктів та сервісів очікують, що їхні дані будуть захищені, і бізнес повинен це враховувати. Розвиток інструментів кіберзахисту та кібернападу — це безперервний процес. Що краще хакерам вдається зламувати системи, то більш надійним має ставати їхній захист.

Нагадуємо, що більше про кібербезпеку Михайло Кольцов розповість 17 серпня на безплатній онлайн-конференції від robot_dreams — STRUM. Реєстрація на захід вже відкрита.

Ще статті
Експертки про те, як оцінюють кандидатів на нетехнічних інтерв’ю
Частина 2. Робота із записами: вставка, читання, змінення й видалення