Використання великих мовних моделей для ідентифікації фейкової інформації

dc.contributor.authorЛанде, Дмитро
dc.contributor.authorГирда, Віра
dc.date.accessioned2025-04-14T11:20:40Z
dc.date.available2025-04-14T11:20:40Z
dc.date.issued2024
dc.description.abstractОстанні роки стали справжньою революцією у галузі штучного інтелекту завдяки появі великих мовних моделей (LLM), таких як GPT-4, Llama-3, Gemini та інших, які успішно застосовуються у широкому спектрі задач – від генерації текстів до аналізу даних. У цій статті ми розглянемо, як ці моделі можна ефективно використовувати для виявлення фейкової інформації. У цій статті досліджено використання чат-бота ChatGPT для ідентифікації фейкової інформації в контексті кібербезпеки. За допомогою великої мовної моделі було створено рій віртуальних експертів, які генерували інформаційні повідомлення на тему кібербезпеки (фейкові та правдиві) та оцінювали їх як «фейк» чи «правда». Для аналізу було побудовано семантичну мережу, яку згодом візуалізувати за допомогою Gephi. У дослідженні проаналізовано два масиви повідомлень: створені експертами-людьми та штучними експертами. Кожне повідомлення отримало оцінки, які були переведені у числовий формат для подальшого аналізу. Використовуючи відстань Хеммінга, було проведено перевірку результатів та визначено точність збігів між оцінками. У результаті побудови семантичної мережі визначено ключові поняття в темі кібербезпеки та встановлено взаємозв’язки між ними. Роєм штучних експертів згенеровано масив повідомлень із фейковим і правдивим змістом, які було оцінено як ними, так і експертом-людиною. Аналіз Хеммінгової відстані між цими оцінками показав, що штучний інтелект має потенціал у виявленні фейкової інформації, проте на даному етапі його робота потребує корегування з боку людини.
dc.description.abstractotherIn recent years, the field of artificial intelligence has undergone a true revolution with the emergence of large language models (LLMs) such as GPT-4, Llama-3, Gemini, and others, which have been successfully applied across a wide range of tasks – from text generation to data analysis. This article examines how these models can be effectively used for detecting fake information. This study explores the use of the ChatGPT chatbot for identifying fake information in the context of cybersecurity. Using a large language model, a swarm of virtual experts was created, which generated informational messages on the topic of cybersecurity (both fake and truthful) and assessed them as either “fake” or “true.” For analysis, a semantic network was constructed and subsequently visualized using Gephi. The research analyzed two datasets of messages: one created by human experts and the other by artificial experts. Each message was rated and converted into a numerical format for further analysis. Using the Hamming distance, the results were validated, and the accuracy of matches between assessments was determined. As a result of building the semantic network, key concepts in the field of cybersecurity were identified, along with the relationships between them. A swarm of artificial experts generated a dataset of messages with fake and truthful content, which was assessed both by the artificial experts themselves and by a human expert. Analysis of the Hamming distance between these assessments demonstrated that artificial intelligence has potential in detecting fake information; however, at this stage, its performance requires human oversight and adjustments.
dc.format.pagerangePp. 236-242
dc.identifier.citationЛанде, Д. Використання великих мовних моделей для ідентифікації фейкової інформації / Дмитро Ланде, Віра Гирда // Information Technology and Security. – 2024. – Vol. 12, Iss. 2 (23). – Pp. 236-242. – Bibliogr.: 11 ref.
dc.identifier.doihttps://doi.org/10.20535/2411-1031.2024.12.2.315743
dc.identifier.orcid0000-0003-3945-1178
dc.identifier.orcid0000-0002-3858-4086
dc.identifier.urihttps://ela.kpi.ua/handle/123456789/73369
dc.language.isouk
dc.publisherInstitute of Special Communication and Information Protection of National Technical University of Ukraine “Igor Sikorsky Kyiv Polytechnic Institute”
dc.publisher.placeKyiv
dc.relation.ispartofInformation Technology and Security, Vol. 12, Iss. 2 (23)
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectкібербезпека
dc.subjectвеликі мовні моделі
dc.subjectСhatGPT
dc.subjectкласифікація інформації
dc.subjectштучний інтелект
dc.subjectcybersecurity
dc.subjectgenerative language models
dc.subjectinformation classification
dc.subjectartificial intelligence
dc.subject.udc004.8
dc.titleВикористання великих мовних моделей для ідентифікації фейкової інформації
dc.title.alternativeUse of large language models to identify fake information
dc.typeArticle

Файли

Контейнер файлів
Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
236-242.pdf
Розмір:
586.8 KB
Формат:
Adobe Portable Document Format
Ліцензійна угода
Зараз показуємо 1 - 1 з 1
Ескіз недоступний
Назва:
license.txt
Розмір:
8.98 KB
Формат:
Item-specific license agreed upon to submission
Опис: