Атаки на ML

Loading...
Thumbnail Image

Date

2024

Advisor

Journal Title

Journal ISSN

Volume Title

Publisher

КПІ ім. Ігоря Сікорського

Abstract

На сьогоднішній день машинне навчання (ML) стає все більш популярним і використовується в різних сферах. Проте разом із зростанням застосування ML збільшується ймовірність атак на ці системи. Зловмисники можуть використовувати різні методи атаки, такі як отруйні дані (poisoning attacks), атаки зі зміною моделі (model inversion attacks), атаки зі зміною рішення (decision boundary attacks) та інші. Виявлення та захист від таких атак важливі для забезпечення безпеки систем штучного інтелекту. Один з можливих методів захисту – це аналіз патернів атак та використання технік аналізу даних для виявлення аномалій та запобігання вразливостям. Використання методів інформаційного пошуку може допомогти у виявленні підозрілих або аномальних патернів у вихідних даних, що вказуватиме на можливі атаки на систему машинного навчання.

Description

Keywords

машинне навчання, атаки, захист, безпека, адверсаріальні приклади, моделі, глибоке навчання, дані, нейронні мережі, вплив

Citation

Ковальчук, Є. І. Атаки на ML / Є. І. Ковальчук, М. В. Коломицев // Теоретичні і прикладні проблеми фізики, математики та інформатики : матерiали XXII Всеукраїнської науково-практичної конференцiї студентiв, аспiрантiв та молодих вчених, [Київ], 13−17 травня 2024 р. / КПІ ім. Ігоря Сікорського. – Київ, 2024. – С. 140-142.

DOI