Використання великих мовних моделей для ідентифікації фейкової інформації
| dc.contributor.author | Ланде, Дмитро | |
| dc.contributor.author | Гирда, Віра | |
| dc.date.accessioned | 2025-04-14T11:20:40Z | |
| dc.date.available | 2025-04-14T11:20:40Z | |
| dc.date.issued | 2024 | |
| dc.description.abstract | Останні роки стали справжньою революцією у галузі штучного інтелекту завдяки появі великих мовних моделей (LLM), таких як GPT-4, Llama-3, Gemini та інших, які успішно застосовуються у широкому спектрі задач – від генерації текстів до аналізу даних. У цій статті ми розглянемо, як ці моделі можна ефективно використовувати для виявлення фейкової інформації. У цій статті досліджено використання чат-бота ChatGPT для ідентифікації фейкової інформації в контексті кібербезпеки. За допомогою великої мовної моделі було створено рій віртуальних експертів, які генерували інформаційні повідомлення на тему кібербезпеки (фейкові та правдиві) та оцінювали їх як «фейк» чи «правда». Для аналізу було побудовано семантичну мережу, яку згодом візуалізувати за допомогою Gephi. У дослідженні проаналізовано два масиви повідомлень: створені експертами-людьми та штучними експертами. Кожне повідомлення отримало оцінки, які були переведені у числовий формат для подальшого аналізу. Використовуючи відстань Хеммінга, було проведено перевірку результатів та визначено точність збігів між оцінками. У результаті побудови семантичної мережі визначено ключові поняття в темі кібербезпеки та встановлено взаємозв’язки між ними. Роєм штучних експертів згенеровано масив повідомлень із фейковим і правдивим змістом, які було оцінено як ними, так і експертом-людиною. Аналіз Хеммінгової відстані між цими оцінками показав, що штучний інтелект має потенціал у виявленні фейкової інформації, проте на даному етапі його робота потребує корегування з боку людини. | |
| dc.description.abstractother | In recent years, the field of artificial intelligence has undergone a true revolution with the emergence of large language models (LLMs) such as GPT-4, Llama-3, Gemini, and others, which have been successfully applied across a wide range of tasks – from text generation to data analysis. This article examines how these models can be effectively used for detecting fake information. This study explores the use of the ChatGPT chatbot for identifying fake information in the context of cybersecurity. Using a large language model, a swarm of virtual experts was created, which generated informational messages on the topic of cybersecurity (both fake and truthful) and assessed them as either “fake” or “true.” For analysis, a semantic network was constructed and subsequently visualized using Gephi. The research analyzed two datasets of messages: one created by human experts and the other by artificial experts. Each message was rated and converted into a numerical format for further analysis. Using the Hamming distance, the results were validated, and the accuracy of matches between assessments was determined. As a result of building the semantic network, key concepts in the field of cybersecurity were identified, along with the relationships between them. A swarm of artificial experts generated a dataset of messages with fake and truthful content, which was assessed both by the artificial experts themselves and by a human expert. Analysis of the Hamming distance between these assessments demonstrated that artificial intelligence has potential in detecting fake information; however, at this stage, its performance requires human oversight and adjustments. | |
| dc.format.pagerange | Pp. 236-242 | |
| dc.identifier.citation | Ланде, Д. Використання великих мовних моделей для ідентифікації фейкової інформації / Дмитро Ланде, Віра Гирда // Information Technology and Security. – 2024. – Vol. 12, Iss. 2 (23). – Pp. 236-242. – Bibliogr.: 11 ref. | |
| dc.identifier.doi | https://doi.org/10.20535/2411-1031.2024.12.2.315743 | |
| dc.identifier.orcid | 0000-0003-3945-1178 | |
| dc.identifier.orcid | 0000-0002-3858-4086 | |
| dc.identifier.uri | https://ela.kpi.ua/handle/123456789/73369 | |
| dc.language.iso | uk | |
| dc.publisher | Institute of Special Communication and Information Protection of National Technical University of Ukraine “Igor Sikorsky Kyiv Polytechnic Institute” | |
| dc.publisher.place | Kyiv | |
| dc.relation.ispartof | Information Technology and Security, Vol. 12, Iss. 2 (23) | |
| dc.rights.uri | https://creativecommons.org/licenses/by/4.0/ | |
| dc.subject | кібербезпека | |
| dc.subject | великі мовні моделі | |
| dc.subject | СhatGPT | |
| dc.subject | класифікація інформації | |
| dc.subject | штучний інтелект | |
| dc.subject | cybersecurity | |
| dc.subject | generative language models | |
| dc.subject | information classification | |
| dc.subject | artificial intelligence | |
| dc.subject.udc | 004.8 | |
| dc.title | Використання великих мовних моделей для ідентифікації фейкової інформації | |
| dc.title.alternative | Use of large language models to identify fake information | |
| dc.type | Article |
Файли
Контейнер файлів
1 - 1 з 1
Ліцензійна угода
1 - 1 з 1
Ескіз недоступний
- Назва:
- license.txt
- Розмір:
- 8.98 KB
- Формат:
- Item-specific license agreed upon to submission
- Опис: