Магістерські роботи (ЦТЕ)

Постійне посилання зібрання

У зібранні розміщено магістерські дисертації на здобуття ступеня магістра.

Переглянути

Нові надходження

Зараз показуємо 1 - 20 з 155
  • ДокументВідкритий доступ
    Статистичні моделі аналізу тренувальних факторів і прогнозування спортивних результатів
    (КПІ ім. Ігоря Сікорського, 2025) Холодницька, Аріна Юріївна; Кублій, Лариса Іванівна
    Актуальність теми. Підвищення спортивних результатів залежить не тільки від обсягу й характеру фізичних навантажень, а й від індивідуальних особливостей людини — генетичних, фізіологічних, поведінкових тощо. Проблемою постає розуміння того, який саме фактор і якою мірою впливає на індивідуальний результат спортсмена. З огляду на це актуальним є виявлення й кількісна оцінка впливу різних факторів на спортивний результат особистості. Метою роботи є розробка програмного інструменту, який забезпечує аналіз впливу тренувальних факторів і прогнозування спортивних результатів. Завдання дослідження: — проаналізувати сучасні підходи і статистичні методи, які застосовуються для аналізу спортивних показників; — розробити математичну модель для аналізу залежностей між тренувальними факторами й спортивними результатами; — створити веб-застосунок для візуалізації результатів моделювання. Об’єкт дослідження — статистичні методи й алгоритми аналізу даних, які використовуються для виявлення залежностей і побудови прогнозів. Предмет дослідження — статистичні методи для оцінки впливу тренувальних факторів і прогнозування спортивних показників. Методи дослідження: кореляційний аналіз для виявлення й відбору найбільш значущих факторів, які впливають на спортивні результати; множинна лінійна регресія з оцінкою параметрів методом найменших квадратів; перевірка статистичної значущості коефіцієнтів регресії за допомогою критерію Стьюдента; перевірка адекватності моделі за допомогою критерію Фішера-Снедекора. Практична цінність розробленого програмного інструменту полягає в можливості аналізу впливу різних факторів на результативність спортсменів. Результати аналізу можуть бути використані для вдосконалення й персоналізації тренувального процесу. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на ХХІІ Міжнародній науково-практичній конференції молодих вчених і студентів «Сучасні проблеми наукового забезпечення енергетики», м. Київ, 22-25 квітня 2025 року. Результати дослідження опубліковані в науковому журналі «Вісник Херсонського національного технічного університету», № 3, 2025. Дисертація складається зі вступу, п’яти розділів і висновків. Загальний обсяг роботи становить 106 сторінок, з яких 84 сторінки — основний текст. Робота містить 6 таблиць, 42 рисунки, список використаних джерел, який налічує 47 найменувань. Дисертація демонструє розробку програмного інструменту для аналізу впливу тренувальних факторів на результативність спортсменів із можливістю прогнозування результатів на основі виявлених залежностей. Програмний інструмент реалізовано у вигляді веб-застосунку на основі клієнт-серверної архітектури, де клієнтська частина розроблена з використанням фреймворку Angular (TypeScript), серверна частина з використанням фреймворку NestJS (TypeScript), а як систему керування базами даних використано PostgreSQL. У роботі застосовано такі статистичні методи, як кореляційний аналіз, множинна лінійна регресія, критерій Стьюдента, критерій Фішера-Снедекора. Веб-застосунок забезпечує користувачам можливість аналізувати вплив факторів на результат за стандартним або власним показником, прогнозувати результат на основі виявлених залежностей на обрану майбутню дату й вести щоденник тренувань.
  • ДокументВідкритий доступ
    Web-платформа підтримки ментального здоров’я з інтеграцією технологій машинного навчання
    (КПІ ім. Ігоря Сікорського, 2025) Хороших, Олександр Леонідович; Сегеда, Ірина Василівна
    Структура та обсяг кваліфікаційної роботи. Магістерська дисертація складається зі вступу, шести розділів, висновків та додатка. Робота містить посилання на 33 джерела, 15 таблиць, 26 ілюстрацій. Основна частина викладена на 110 сторінках, загальний обсяг роботи 122 сторінки. Актуальність. У сучасному цифровому суспільстві зростає усвідомлення важливості ментального здоров’я як одного з ключових чинників загального добробуту людини. Стрес, тривожність і емоційне вигорання стають поширеними проблемами, особливо серед молоді та осіб, що перебувають у кризових умовах. Однак доступ до кваліфікованої психологічної допомоги часто є обмеженим через брак фахівців, стигматизацію теми або фінансові бар’єри. У зв’язку з цим актуальним є створення цифрових інструментів самодопомоги, які поєднують простоту використання, доступність і персоналізацію. Одним з перспективних напрямів є розробка веб-платформ, здатних не лише фіксувати психоемоційний стан користувача, а й надавати індивідуальні рекомендації на основі аналізу текстів і поведінкових даних. Застосування алгоритмів машинного навчання, зокрема TF-IDF та cosine similarity, дозволяє сформувати релевантні поради, враховуючи індивідуальні особливості користувача, його емоційні коливання та взаємодію з платформою . Метою роботи є розробка веб-платформи підтримки ментального здоров’я, яка забезпечує персоналізовану взаємодію з користувачем на основі алгоритмів машинного навчання, дозволяє вести щоденник, фіксувати настрій, переглядати аналітику та отримувати рекомендації й навчальний контент для емоційної самопідтримки. Для досягнення поставленої мети виконано такі завдання: — проаналізовано сучасні цифрові сервіси у сфері ментального здоров’я; — досліджено математичні основи NLP-моделей, алгоритмів TF-IDF та cosine similarity; — спроєктовано архітектуру клієнтсько-серверної веб-платформи; — розроблено серверну частину на основі Nest.js та базу даних у PostgreSQL; — реалізовано клієнтську частину з використанням Next.js, Tailwind CSS і React Query; — створено функціональні модулі: щоденник, трекер настрою, навчальні вправи, чат і система рекомендацій; — проведено дослідження розробленої системи. Об’єкт дослідження — процес цифрової підтримки ментального здоров’я користувачів у веб-середовищі. Предмет дослідження — веб-платформа з модульною архітектурою, що реалізує фіксацію емоційного стану, персоналізовані рекомендації та навчальний контент. Методи дослідження — аналіз, NLP, векторне подання текстів, проєктування, програмування, валідація, REST API, тестування. Практичне значення роботи полягає у створенні повнофункціонального веб-застосунку, який може бути використаний як цифровий інструмент самодопомоги для покращення ментального стану користувача. Платформа також є адаптивною до впровадження у навчальні, корпоративні чи медичні середовища для моніторингу емоційного стану та надання рекомендацій. Апробація результатів дисертації. Основні положення магістерської роботи були опубліковані та презентовані на: XIII Міжнародна науково-практична конференція «Modern digital technologies and problems of their use» Технічні науки, 24 листопада, Прага, Чехія. Результати дослідження представлені у 1 науковій публікації. Розроблена веб-платформа підтримки ментального здоров’я реалізована як клієнтсько-серверний застосунок із використанням фреймворків Nest.js для серверної частини та Next.js для клієнтського інтерфейсу. Для взаємодії з базою даних використано ORM Sequelize та реляційну СКБД PostgreSQL, що забезпечує ефективне зберігання психологічних даних користувачів, їхніх записів настрою, журналів та історії рекомендацій. Система має модульну архітектуру й охоплює ключові функціональні блоки: щоденник, трекер настрою, аналітику, чат-бот та модуль персоналізованих рекомендацій, що працює на базі алгоритмів TF-IDF та косинусної подібності. Користувачі отримують можливість фіксувати свій емоційний стан, спостерігати динаміку змін за допомогою графіків (реалізованих через Chart.js), а також взаємодіяти з інтерфейсом через зручний дизайн, створений на Tailwind CSS. Завдяки використанню сучасного технологічного стеку, система відзначається високою продуктивністю, масштабованістю, безпекою та зручністю адаптації до потреб різних цільових груп. Це дозволяє не лише підвищити рівень саморефлексії користувачів, а й створити надійну основу для подальшого впровадження платформи в освітні, корпоративні або медичні середовища.
  • ДокументВідкритий доступ
    Методи штучного інтелекту для розпізнавання рослин на зображеннях для реалізації Android-додатків
    (КПІ ім. Ігоря Сікорського, 2025) Степаненко, Микола Федорович; Сегеда, Ірина Василівна
    Традиційні методи ботанічної ідентифікації вимагають глибоких знань систематики та багаторічного досвіду. Більшість існуючих мобільних рішень для розпізнавання рослин потребують постійного інтернет-з’єднання та не підтримують одночасну ідентифікацію декількох об’єктів на зображенні. Актуальність роботи обумовлена потребою в доступних інструментах для ботанічної освіти та екологічного моніторингу. Застосування архітектури MobileNetV2 з квантизацією моделі забезпечує баланс між точністю класифікації та обчислювальною ефективністю на пристроях з обмеженими ресурсами. Мета роботи полягає у розробці методів штучного інтелекту для автоматичного розпізнавання рослин на зображеннях та реалізації Android-додатку з повною офлайн функціональністю і підтримкою детекції множинних об’єктів. Завдання дослідження включають: 1) аналіз існуючих методів комп’ютерного зору для класифікації рослин. 2) розробку архітектури згорткової нейронної мережі на базі MobileNetV2; 3) підготовку датасету шляхом об’єднання Oxford Flowers 102 та Kaggle Flower Recognition; 4) навчання моделі з трансферним навчанням та INT8 квантизацією; 5) розробку Android-додатку з інтеграцією TensorFlow Lite та ML Kit; 6) проведення тестування системи та аналіз точності розпізнавання. Об’єктом дослідження є процес автоматичної класифікації рослин на основі візуальних ознак зображень. Предметом дослідження є методи глибокого навчання для розпізнавання квітів на мобільних платформах Android. Методи дослідження включають машинне навчання на базі згорткових нейронних мереж, трансферне навчаня для адаптації попередньо навчених моделей, квантизацію моделей для оптимізації швидкості інференсу, методи комп’ютерного зору для детекції множинних об’єктів, експериментальне тестування на реальних пристроях. Практичне значення отриманих результатів полягає у створенні повнофункціонального мобільного додатку для офлайн розпізнавання рослин, який може застосовуватися в ботанічній освіті для навчання видового різноманіття без залучення експертів, екологічних дослідженнях для документування флори у віддалених локаціях, туристичних подорожах для швидкої ідентифікації рослин, а також любительському садівництві для визначення декоративних видів. Апробація результатів дослідження. Основні положення роботи представлено на VIII Міжнародній науково-практичній конференції «Modern technologies in education, work and science». Робота складається зі вступу, п’яти розділів, загальних висновків, списку використаних джерел та додатків. Загальний обсяг становить 116 сторінок, включає 32 таблиці, 16 рисунків та 43 джерел літератури. Мобільний Android-додаток для офлайн розпізнавання квітів на зображеннях. Програма використовує згорткову нейронну мережу MobileNetV2 з INT8 квантизацією для класифікації 101 виду квітів. Підтримує детекцію множинних об'єктів на одному зображенні за допомогою ML Kit Object Detection. Реалізовано функції журналювання ідентифікацій з геолокацією, інтерактивну карту, довідник квітів та двомовний інтерфейс (українська/англійська). Розмір моделі: 2,76 МБ, точність класифікації: 96%.
  • ДокументВідкритий доступ
    Імітаційна модель системи захисту мережевої інфраструктури від кібератак
    (КПІ ім. Ігоря Сікорського, 2025) Снігур, Вероніка Василівна; Лабжинський, Володимир Анатолійович
    Актуальність теми. Сучасні корпоративні мережі повинні бути здатними функціонувати в умовах постійно зростаючих кіберзагроз, серед яких найбільш поширеними типами є DDoS-атаки, Brute-force, несанкціонований доступ, а також втручання у мережеві протоколи. За відсутності сегментації, налаштованих політик доступу, централізованого журналювання та систем для виявлення загроз мережі стають критично вразливими. Тому розробка імітаційних моделей захисту мережевої інфраструктури є актуальним завданням, що має значну практичну цінність у галузі кібербезпеки. Метою роботи є створення імітаційної моделі корпоративної мережі та проведення експериментального оцінювання ефективності систем захисту в умовах симуляції реальних кіберзагроз. Завдання дослідження: — провести аналіз сучасних методів і засобів захисту мережевої інфраструктури; — розробити імітаційну модель корпоративної мережі з сегментацією VLAN, ACL, NAT, VPN та периметровим захистом ASA firewall; — налаштувати комплекс механізмів безпеки на основі фаєрвола Cisco ASA та мережевих політик; — змоделювати типові кібератаки (DDoS/ICMP-flood, Brute-Force, спроби несанкціонованого доступу) та дослідити реакцію системи; — здійснити аналіз продуктивності та визначити ефективність реалізованих механізмів захисту; — сформувати рекомендації щодо подальшого вдосконалення моделі. Об’єкт дослідження — корпоративна мережева інфраструктура та її компоненти. Предмет дослідження — імітаційна модель системи захисту мережевої інфраструктури від кібератак та її поведінка під час надмірного навантаження. Практична цінність отриманих результатів полягає у створенні повноцінної моделі, що дозволяє досліджувати кіберзагрози без ризику для реальних систем, оцінювати ефективність політик безпеки, відтворювати сценарії атак і тестувати реакцію фаєрвола, ACL, VPN та Syslog-журналювання. Розроблена модель може бути використана не лише як навчальна або дослідницька платформа, але й як практичний інструмент для попереднього тестування політик безпеки, оцінювання кібервитривалості та планування модернізації реальних корпоративних мереж. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на XIV Міжнародній науково-практичній конференції «Прикладна геометрія, інженерна графіка та об’єкти інтелектуальної власності», 21 травня 2025, м. Київ, Україна [1]. Структура роботи. Дисертація складається зі вступу, п’яти розділів, висновків, списку використаних джерел та додатків. Повний обсяг роботи становить 100 сторінок, включаючи 46 рисунків, 15 таблиць та 36 джерел у списку літератури. Розроблене програмне забезпечення являє собою імітаційну модель корпоративної мережі, реалізовану у середовищі Cisco Packet Tracer з використанням маршрутизатора, комутаторів, VLAN-сегментації та міжмережевого екрана Cisco ASA. ПЗ забезпечує відтворення типових мережевих процесів, моделювання кібератак (ICMP-flood, DDoS, brute-force, несанкціонований доступ), а також оцінку роботи механізмів захисту — ACL, NAT, VPN, IDS/IPS та Syslog-моніторингу. Система дозволяє запускати експерименти, фіксувати реакцію мережі, аналізувати логи та порівнювати ефективність різних конфігурацій безпеки, що робить її зручним інструментом для дослідження стійкості інфраструктури до атак у контрольованих умовах.
  • ДокументВідкритий доступ
    Автоматизація процесу закупівель енергетичного обладнання
    (КПІ ім. Ігоря Сікорського, 2025) Середа, Владислав Олександрович; Тарнавський, Юрій Адамович
    Сфера закупівель енергетичного обладнання стрімко переходить до цифрових рішень, оскільки традиційні паперові або напівавтоматизовані процеси не забезпечують достатньої швидкості, прозорості та точності під час взаємодії підприємств із постачальниками. Актуальність теми обумовлена зростанням потреби в ефективних ІТ-інструментах, здатних оптимізувати формування замовлень, контроль залишків, облік транзакцій, аналітику закупівель та подальшу взаємодію з постачальниками. Автоматизація цих процесів дає змогу зменшити людський фактор, прискорити ухвалення рішень та підвищити економічну ефективність підприємств енергетичного сектору. Мета роботи полягає у розробленні веб-системи для автоматизації процесу закупівель енергетичного обладнання з використанням сучасних веб-технологій, механізмів обробки даних та інтеграції безпечних онлайн-платежів. Завдання дослідження включають: визначення ключових бізнес-процесів у сфері закупівель енергообладнання; вибір технологій та інструментів для побудови надійної веб-платформи; розроблення модулів оформлення замовлень, аналітики, обліку та взаємодії з постачальниками; інтеграцію сервісу онлайн-платежів LiqPay; проведення тестування продуктивності та оптимізацію системи під реальні навантаження. Об’єктом дослідження є процес організації та виконання закупівель енергетичного обладнання. Предметом дослідження є методи та програмні засоби автоматизації закупівельних процесів у веб-середовищі. Методи дослідження включають аналіз бізнес-процесів, проєктування архітектури інформаційних систем, застосування фреймворку Spring, моделювання бази даних, інтеграцію зовнішніх API, а також тестування продуктивності та функціональне тестування веб-додатку. Апробація результатів дослідження. Основні положення роботи представлено на XXII-й міжнародній науково-практичній конференції молодих вчених та студентів “Сучасні проблеми наукового забезпечення енергетики”. Робота складається зі вступу, п’яти розділів, загальних висновків, списку використаних джерел і додатків. Загальний обсяг роботи становить 96 сторінок, включає 3 таблиці, 34 рисунка і 27 використаних джерел. Розроблена веб-платформа автоматизує ключові процеси закупівель енергетичного обладнання, забезпечуючи зручну взаємодію користувачів із системою. Функціонал передбачає роботу в режимі гостя та авторизованого користувача: зареєстровані користувачі отримують доступ до оформлення закупівель та регулярних підписок, керування кошиком, здійснення онлайн-платежів та перегляду хроніки операцій. Гості можуть ознайомлюватися з асортиментом обладнання та характеристиками товарів без необхідності авторизації. Платформа має інтуїтивно зрозумілий інтерфейс, що спрощує початкову навігацію та користування сервісом. Система розгорнута на публічному домені та пройшла перевірку працездатності, що підтверджує готовність до навантажень у реальних умовах експлуатації.
  • ДокументВідкритий доступ
    Оптимізація базових операцій з текстовими даними з використанням кешування
    (КПІ ім. Ігоря Сікорського, 2025) Кізіріді, Михайло Олександрович; Михайлова, Ірина Юріївна
    Актуальність теми. Сучасні веб-застосунки працюють з великими обсягами текстових даних і мільйонними потоками запитів, що призводить до значного навантаження на серверну інфраструктуру та бази даних. Часті повторні звернення створюють затримки, погіршують масштабованість і знижують загальну продуктивність систем. Одним з найефективніших способів оптимізації доступу до даних є кешування – збереження часто використовуваної інформації у швидкодоступних пам’ятевих сховищах. Використання Redis як розподіленого кеша дозволяє суттєво зменшити обсяг звернень до бази даних, прискорити роботу веб-застосунків і підвищити їх стійкість до навантажень, що обумовлює актуальність даної роботи. Мета роботи – розробити методи та засоби оптимізації процесів читання й оновлення текстових даних у веб-застосунку шляхом інтеграції механізмів кешування на основі Redis. Завдання дослідження: проаналізувати особливості роботи з текстовими даними у веб-застосунках; дослідити існуючі підходи до кешування та керування кешем; спроєктувати архітектуру веб-системи з використанням розподіленого кешу Redis; реалізувати механізми кешування текстових даних, лічильників переглядів і «лайків»; провести експериментальне порівняння роботи системи з кешуванням та без нього; оцінити отримане прискорення та зменшення навантаження на базу даних. Об’єкт дослідження – методи оптимізації зберігання та доступу до текстових даних. Предмет дослідження – методи та засоби кешування, що використовуються для оптимізації зберігання та доступу до текстової інформації. Методи дослідження. У роботі застосовано методи системного та порівняльного аналізу, профілювання навантаження, інструментальні методи вимірювання продуктивності, а також практичні підходи програмної інженерії при розробці кеш-рішень. Наукова новизна. Запропоновано комплексний підхід до кешування даних у веб-застосунку, який поєднує синхронні та асинхронні моделі оновлення для різних типів даних. Реалізація комбінованого підходу дозволяє одночасно забезпечити високу швидкодію для читання статичних матеріалів і точність відображення динамічних показників, зберігаючи узгодженість між Redis та PostgreSQL. Практичне значення. Розроблений механізм кешування дозволив зменшити середній час відповіді API у 3,5 раза, а кількість звернень до бази даних – більш ніж удвічі. Запропоновану архітектуру може бути використано для оптимізації будь-яких контент-орієнтованих систем, особливо тих, що працюють з великими масивами текстових даних. Апробація результатів. Основні положення, наукові результати та практичні напрацювання магістерської роботи були представлені й обговорені на VIII Всеукраїнській науково-практичній інтернет-конференції молодих вчених та студентів «Сучасні інформаційні системи та технології», що відбулася 24 листопада 2025 р. у Херсонському національному технічному університеті на базі кафедри комп’ютерних систем та мереж за тематикою «Сучасні комп’ютерні системи та мережі в управлінні». За матеріалами роботи було підготовлено та опубліковано тезу доповіді на тему «Методи оптимізації зберігання та доступу до текстових даних із використанням кешування» у збірнику матеріалів зазначеної конференції. Структура та обсяг магістерської роботи. Робота складається зі вступу, п’яти розділів, висновків, списку використаних джерел і додатків. Загальний обсяг становить 105 сторінки, містить 9 таблиць, 25 рисунків та 40 джерел. Розроблена система є багаторівневим веб-застосунком, побудованим за принципами клієнт–серверної архітектури. Основні компоненти системи: клієнтська частина – реалізована з використанням React.js, відповідає за відображення інтерфейсу користувача, відправлення запитів до сервера через HTTP-протокол та обробку отриманих відповідей; серверна частина (Backend API) – створена на основі ASP.NET Core, реалізує бізнес-логіку, забезпечує обробку запитів від клієнта, звернення до бази даних та керування кешем; система кешування Redis – використовується для зберігання часто запитуваних даних (метаданих статей, коментарів, станів «лайків» тощо), що дозволяє зменшити кількість звернень до бази даних і підвищити швидкодію; сховище Amazon S3 – використовується для зберігання текстових матеріалів (HTML-файлів статей) та зображень; база даних PostgreSQL – виступає постійним джерелом даних, у якому зберігається основна інформація про користувачів, статті, категорії, коментарі, теги та інші сутності. Система побудована з урахуванням принципів розділення відповідальності та масштабованості, що дозволяє легко розширювати її функціональність або адаптувати під нові вимоги. Взаємодія між компонентами реалізована за допомогою HTTP-запитів та AWS SDK для роботи з хмарними сервісами.
  • ДокументВідкритий доступ
    Удосконалення SWOT-аналізу впровадження штучного інтелекту у вищу освіту
    (КПІ ім. Ігоря Сікорського, 2025) Лень, Владислав Віталійович; Кублій, Лариса Іванівна
    У сучасному світі система вищої освіти зіштовхується з необхідністю модернізації на фоні стрімкого впровадження технологій штучного інтелекту, які мають значний потенціал для підвищення якості навчання та оптимізації адміністративних процесів. Проте застосування ШІ пов’язане з новими викликами та ризиками, що потребує ефективних інструментів стратегічного планування. Наявні методи SWOT-аналізу часто характеризуються суб’єктивністю експертних оцінок і відсутністю інструментів для пріоритизації факторів. Це створює потребу в удосконаленні аналітичного інструментарію шляхом інтеграції методів експертної оцінки та автоматизації процесів прийняття рішень. Значущість теми дослідження обумовлена необхідністю забезпечення закладів вищої освіти науково обґрунтованими інструментами для розробки стратегій цифрової трансформації. Мета роботи полягає в удосконаленні інформаційно-аналітичного інструментарію SWOT-аналізу впровадження штучного інтелекту у вищу освіту. Завдання дослідження: — проаналізувати можливості й загрози впровадження ШІ в освіту; — обґрунтувати доцільність використання SWOT-аналізу як інструменту стратегічного планування; — провести порівняльний аналіз наявного програмного забезпечення; — розробити методику інтеграції коефіцієнта конкордації Кендалла в структуру SWOT-аналізу; — спроєктувати архітектуру та реалізувати веб-застосунок з автоматизованими розрахунками.. Об’єктом дослідження є інформаційно-аналітичні інструменти стратегічного менеджменту. Предметом дослідження є інформаційно-аналітичні інструменти SWOT-аналізу впровадження штучного інтелекту у вищу освіту. Методи дослідження включають системний аналіз, методи SWOT-аналізу, методи експертного оцінювання (зокрема, розрахунок коефіцієнта конкордації), об’єктно-орієнтоване проєктування, програмну реалізацію веб-застосунків. Практичне значення отриманих результатів полягає в розробці системи для ранжирування ризиків і можливостей на основі методів експертної оцінки, що спрощує процес прийняття обґрунтованих адміністративних рішень у закладах освіти. Апробація результатів дослідження. Основні положення роботи доповідалися на ХХІІ Міжнародній науково-практичній конференції молодих вчених і студентів (м. Київ, 22‒25 квітня 2025 року),та опубліковані у журналі «Вісник Херсонського національного технічного університету» (№ 3, 2025). Робота складається зі вступу, п’яти розділів, висновків, списку використаних джерел і додатків. Загальний обсяг роботи становить 116 сторінок, включає 26 таблиць, 22 рисунки та 47 джерел літератури.
  • ДокументВідкритий доступ
    Підвищення безпеки захисту даних при використанні контекстно-залежної автентифікації
    (КПІ ім. Ігоря Сікорського, 2025) Гармаш, Діана Віталіївна; Отрох, Сергій Іванович
    Магістерська дисертація виконана на 81 сторінках, містить 10 ілюстрацій, 2 додатки, 20 джерел у переліку посилань. Робота присвячена розробці системи контекстно-залежної автентифікації для підвищення безпеки захисту даних у веб-застосунках. Проведено аналіз традиційних методів автентифікації та їх обмежень, досліджено переваги контекстно-адаптивного підходу. Мета роботи – створення програмного забезпечення, що використовує сучасні технології серверної розробки для впровадження системи контекстно-адаптивної автентифікації користувачів у веб-додатках. Методи та засоби: Java 17, Spring Boot, Spring Security, Spring Data JPA, Spring AOP, PostgreSQL, JWT (JSON Web Tokens), BCrypt, Maven, Thymeleaf, Bootstrap, Hibernate, IntelliJ IDEA. Результат – програмна система контекстно-залежного контролю доступу з веб-інтерфейсом для адміністрування та моніторингу безпеки. Розроблено систему контекстно-адаптивної автентифікації на основі Spring Boot для підвищення безпеки доступу до веб-застосунків. Система аналізує контекстуальні параметри (IP-адреса, тип пристрою, браузер, операційна система, геолокація, часові патерни) для динамічного визначення рівня довіри користувача. Основні функціональні можливості: управління користувачами та тегами, управління ресурсами, створення правил доступу на основі контексту, перевірка доступу в реальному часі, моніторинг спроб автентифікації, адаптивна багатофакторна автентифікація.
  • ДокументВідкритий доступ
    Методи інтеграції інструментів штучного інтелекту для автоматизованого аналізу ефективності роботи підприємства на основі обробки структурованих фінансових даних
    (КПІ ім. Ігоря Сікорського, 2025) Демидович, Демид Петрович; Кублій, Лариса Іванівна
    Актуальність теми. Складність і трудомісткість ручної обробки значних обсягів фінансових даних, які накопичуються в типових інформаційних системах керування, ускладнює своєчасне прийняття обґрунтованих управлінських рішень, особливо для малих підприємств і користувачів без спеціальної підготовки. Використання методів машинного навчання дає можливість автоматизувати ці процеси, зменшуючи вплив людського фактора і сприяє виконанню своєчасних управлінських рішень. Метою роботи є дослідження методів інтеграції ШІ в автоматизовані системи і розробка концептуального підходу до інтеграції інструментів штучного інтелекту в систему фінансового моніторингу підприємства для автоматизації оцінювання його ефективності. Завдання дослідження: — проаналізувати наявні методи інтеграції інструментів штучного інтелекту у веб-застосунки; — розробити алгоритми для агрегації даних формування єдиної таблиці фінансових потоків; — інтегрувати LLM для інтерпретації та автоматизації аналізу фінансових даних; — створити аналітичний модуль для розрахунку основних фінансових показників і модуль виявлення аномальних даних; — створити інтегральний показник для наочного відображення поточного фінансового стану підприємства; — провести тестування розробленого програмного продукту. Об’єкт дослідження — методи інтеграції інструментів штучного інтелекту. Предмет дослідження — автоматизований аналіз структурованих фінансових даних, прогнозування фінансових показників і виявлення аномальних даних на основі інтеграції інструментів штучного інтелекту. Практична цінність отриманих в роботі результатів полягає у створенні комплексної, автоматизованої гібридної системи аналізу фінансового потоку, яка забезпечує користувачам, зокрема малому й середньому бізнесу без розвинутого фінансового відділу, можливість отримувати достовірну й доступну аналітику для оперативного контролю, прогнозування, виявлення аномалій і підтримки обґрунтованих управлінських рішень. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на: Науково-технічній конференції молодих вчених «Актуальні проблеми інформаційних технологій» (APIT-2025), 23 жовтня 2025 року, м. Київ, Україна; VIІI Всеукраїнській науково-практичній інтернет-конференції студентів, аспірантів та молодих вчених, «Сучасні комп’ютерні системи та технології», 24 листопада, 2025 м. Херсон, м. Хмельницький, Україна. Подано статтю в науковий журнал «Вісник Кременчуцького національного університету імені Михайла Остроградського» (№ 5, 2025). Дисертація складається зі вступу, п’яти розділів та висновків. Повний обсяг дисертації становить 113 сторінок, у тому числі 90 сторінок основного тексту, 19 таблиць, 51 рисунок, 5 сторінок списку використаних джерел у кількості 36 найменувань.
  • ДокументВідкритий доступ
    Фреймворк для тестування панелей світлодіодів з використанням бібліотек NumPy, SciPy
    (КПІ ім. Ігоря Сікорського, 2025) Гевліч, Тарас Вікторович; Кузьменко, Ігор Миколайович
    Актуальність теми У сучасному масовому виробництві електроніки забезпечення якості світлодіодної індикації є критичним фактором. Існуючі методи ручного контролю є суб’єктивними, повільними та нездатними фіксувати високочастотні дефекти (ШІМ-мерехтіння). Автоматизація цього процесу з використанням сучасних методів обробки сигналів та наукових бібліотек (NumPy, SciPy) є актуальним науково-практичним завданням, що дозволяє підвищити точність діагностики. Мета роботи Підвищення ефективності та достовірності контролю якості світлодіодних панелей шляхом створення програмного фреймворку для автоматизованого аналізу, генерації еталонів та верифікації динамічних патернів індикації. Завдання дослідження: 1. Провести аналіз предметної області контролю якості в електроніці, виявити недоліки існуючих методів та обґрунтувати доцільність використання інструментального аналізу сигналів фотодатчиків. 2. Розробити математичні моделі генерації еталонів та алгоритми комплексного порівняння сигналів у часовій і частотній областях. 3. Реалізувати програмне забезпечення фреймворку з модульною архітектурою (ETL, аналітичне ядро, веб-інтерфейс) для автоматизованої обробки даних. 4. Провести експериментальну валідацію розробленої системи та порівняльний аналіз її ефективності відносно існуючих аналогів. 5. Розробити стартап-проєкт для комерціалізації створеного програмного продукту. Об’єкт дослідження – процес автоматизованого контролю та діагностики функціонування світлодіодних інтерфейсів. Предмет дослідження – методи, алгоритми та програмні засоби обробки, аналізу та порівняння часових рядів сигналів світлодіодної індикації. Методи дослідження: системний аналіз (для визначення вимог), цифрова обробка сигналів (лінійна інтерполяція, FFT), математична статистика (кореляційний аналіз, агрегація), об’єктно-орієнтоване проєктування. Наукова новизна: вдосконалено метод верифікації динамічних світлових сигналів шляхом поєднання аналізу в часовій та частотній областях (FFT), що, на відміну від аналогів, дозволяє з високою точністю детектувати дефекти частоти мерехтіння та часові розбіжності без використання дороговартісного обладнання машинного зору. Практичне значення: розроблений програмний комплекс led_testing_toolkit та веб-додаток забезпечують автоматизацію створення «золотих стандартів» якості, пакетну обробку лог-файлів та візуалізацію результатів, що скорочує час перевірки продукції та виключає вплив людського фактору. Апробація результатів дисертації. Основні положення роботи доповідались на XI Міжнародній науковій та практичній конференції "Global Trends in Science and Education", 17-19 листопада 2025 р., м. Київ, Україна. Дисертація складається з вступу, п’яти розділів та висновків. Повний обсяг дисертації складає 96 сторінок, в тому числі 83 сторінки основного тексту, 16 таблиць, 12 рисунків, 5 cторінок списку використаних джерел у кількості 65 найменувань.
  • ДокументВідкритий доступ
    Методи розпізнавання української мови в NLP-системах
    (КПІ ім. Ігоря Сікорського, 2025) Грищенко, Валерія Володимирівна; Онисько, Андрій Ілліч
    Магістерська робота присвячена дослідженню, порівнянню та впровадженню сучасних методів розпізнавання української мови в NLP-системах. У роботі розглянуто повний цикл автоматизованої обробки текстової інформації, який включає етапи очищення, нормалізації, токенізації, морфологічного аналізу, лематизації, виділення іменованих сутностей (NER), тематичної класифікації та аналізу тональності. Особливу увагу приділено специфіці української мови, її морфологічній багатоваріантності, проблемам контекстної багатозначності та складності побудови адекватних моделей для коректної інтерпретації тексту. У межах роботи проведено порівняльне дослідження трансформерних моделей mBERT, XLM-R та RoBERTa-uk, які є найефективнішими сучасними інструментами для роботи з українськими текстами. Проаналізовано їх архітектуру, особливості навчання, мовне покриття та точність на різних NLP-задачах. На основі отриманих результатів створено програмний комплекс із модульною архітектурою, що дозволяє інтегрувати різні алгоритми, масштабувати систему та використовувати її в інформаційно-аналітичних платформах. Сформований програмний конвеєр забезпечує автоматизовану інтерпретацію великих масивів україномовних текстів, що робить його придатним для застосування у задачах моніторингу, аналізу подій, інформаційної безпеки, журналістики даних та інтелектуальних сервісів підтримки прийняття рішень. Проведені експериментальні дослідження підтверджують ефективність обраних методів та демонструють високу якість роботи системи.
  • ДокументВідкритий доступ
    Моніторинг стану розумного будинку за технологією IoT
    (КПІ ім. Ігоря Сікорського, 2025) Защитинська, Марія Олександрівна; Отрох, Сергій Іванович
    Актуальність теми. Зростаюча потреба у створенні інтелектуальних систем безпеки, здатних автономно контролювати стан будинку та оперативно реагувати на потенційні загрози, вимагає використання ефективних підходів до їхнього проєктування. Передпроєктне моделювання архітектури таких систем дає змогу заздалегідь перевірити взаємодію компонентів і знизити ризики технічних помилок під час реального впровадження розумного будинку. Тому дослідження та реалізація систем моніторингу розумного будинку є актуальними та мають практичне значення. Метою роботи є розробка та дослідження моделі системи моніторингу розумного будинку на основі технології IoT. Завдання дослідження: ̶ провести аналіз технологій побудови системи моніторингу розумного будинку; ̶ дослідити архітектуру IoT-системи, принципів взаємодії сенсорів і мікроконтролера; ̶ реалізувати програмну модель системи моніторингу розумного будинку; ̶ провести апробацію розробленої програмної системи, експериментально довести її коректність. Об’єкт дослідження – процес збору, обробки та передачі даних між сенсорами, мікроконтролером MCU та виконавчими пристроями в системі безпеки розумного будинку. Предмет дослідження – методи моніторингу та автоматичного реагування в системах розумного будинку на основі технології IoT. Практична цінність отриманих у роботі результатів полягає в можливості відтворення роботи системи моніторингу розумного будинку без необхідності будувати реальну апаратну інфраструктуру. Запропонована модель дозволяє тестувати поведінку сенсорів, алгоритмів обробки даних та логіку реагування системи в умовах, максимально наближених до реальних, що мінімізує ризики помилок на етапі впровадження. Апробація результатів дисертації. Основні положення даної роботи доповідались та обговорювались на: ̶ 2 Міжнародній науково-практичній конференції «Innovative Research in Science and Economy», 3-5 грудня, 2025, м. Брюссель, Бельгія. Також до публікації подано статтю до журналу «Системи та технології. Випуск 1, 2026». Дисертація складається з вступу, п’яти розділів та висновків. Повний обсяг дисертації складає 91 сторінки, в тому числі 71 сторінка основного тексту, 8 таблиць, 10 рисунків, 3 сторінки списку використаних джерел у кількості 24 найменування.
  • ДокументВідкритий доступ
    Інтелектуальна система оцінювання економічних та екологічних збитків регіону від воєнних дій
    (КПІ ім. Ігоря Сікорського, 2025) Іващук, Владислав Андрійович; Полягушко, Любов Григорівна
    Магістерська робота присвячена розробленню інтелектуальної веборієнтованої системи оцінювання економічних та екологічних збитків регіону від воєнних дій. Актуальність теми зумовлена необхідністю оперативного та достовірного документування наслідків воєнної агресії, оскільки руйнування промислових об’єктів, забруднення довкілля, пошкодження ґрунтів, водних ресурсів і лісових масивів формують складні просторові порушення, що потребують цифрових інструментів аналізу. Метою роботи є створення інтелектуальної системи, яка забезпечує автоматизовану підготовку просторових даних і параметрів для розрахунку економічних та екологічних збитків природним ресурсам відповідно до чинних нормативних методик України. Завдання дослідження: аналіз впливу воєнних дій на довкілля; дослідження нормативної бази щодо оцінювання збитків; огляд існуючих інформаційних систем екологічного моніторингу; розроблення архітектурної моделі системи; проєктування бази даних; створення клієнтської та серверної частин; розроблення механізмів валідації геометрії та параметрів; тестування системи та оцінювання її ефективності; порівняння функціональності з аналогічними рішеннями. Об’єкт дослідження – методи оцінювання екологічних і економічних збитків, спричинених воєнними діями. Предмет дослідження – методи, моделі та програмні засоби для автоматизованої обробки просторових даних і підготовки параметрів відповідно до нормативних методик. У дослідженні застосовано методи геоінформаційного моделювання, аналізу нормативних документів, математичного опрацювання просторових даних, методи проєктування програмних систем, алгоритми валідації геометрії та засоби PostGIS для обробки даних. Апробація результатів дослідження здійснювалася на восьмій Всеукраїнській науково-практичній інтернет-конференції молодих вчених та студентів «Сучасні інформаційні системи та технології», що відбулася 24 листопада 2025 року у Херсонському національному технічному університеті на базі кафедри комп’ютерних систем та мереж за тематикою: «Сучасні комп’ютерні системи та мережі в управлінні» [38]. Структура магістерської роботи включає вступ, чотири розділи, висновки, список використаних джерел. У першому розділі наведено аналіз стану проблеми, нормативних методик і огляд екологічних систем. Другий розділ присвячено теоретичним основам розрахунків за методиками. У третьому розділі подано архітектуру, моделі даних і реалізацію компонентів системи. У четвертому розділі представлено інсталяцію програмного забезпечення, демонстрацію функціоналу, сценарії використання та результати експериментів. В п’ятому розділі подано ідею реалізації стартап-проєкту на основі виконаних досліджень.
  • ДокументВідкритий доступ
    Відеоспостереження на базі WebRTC з розпізнаванням облич
    (КПІ ім. Ігоря Сікорського, 2025) Пінчук, Максим Леонідович; Аушева, Наталія Миколаївна
    Актуальність теми. Актуальність проєкту зумовлена зростаючою потребою у доступних і надійних технологіях контролю доступу, відеоспостереження та автоматичної ідентифікації користувачів. Мета роботи. Створення програмної системи розпізнавання облич у реальному часі з використанням WebRTC та нейромережевих методів комп’ютерного зору, а також проведення порівняльного аналізу її точності та продуктивності відносно класичних алгоритмічних методів. Завдання дослідження: Завдання які покладаються на цю роботу наступні: дослідити сучасні методи й моделі для розпізнавання облич; проаналізувати алгоритмічні та нейромережеві підходи; розробити архітектуру програмного забезпечення; створити модулі детекції, embedding та ідентифікації облич; реалізувати передачу відеопотоку за допомогою WebRTC; розробити базу даних користувачів та журнал подій; провести експериментальне дослідження продуктивності та точності; виконати порівняння роботи алгоритмічного та DNN-підходів. Об’єкт дослідження — процес розпізнавання облич у системах відеоаналітики реального часу. Предмет дослідження — методи та програмні засоби нейромережевого розпізнавання облич при передачі відеопотоку через WebRTC. Методи дослідження: у роботі використано системний аналіз (для дослідження архітектур та методів розпізнавання облич), методи комп’ютерного зору (для детекції та нормалізації зображень), нейромережеві методи (для побудови embedding-векторів та оцінки подібності), об’єктно-орієнтоване проектування (для розробки клієнт–серверної архітектури системи), статистичні методи (для аналізу точності, FPS та впливу порогу розпізнавання), а також методи порівняльного аналізу (для оцінки переваг DNN над алгоритмічними підходами HOG+SVM). Наукова новизна: вдосконалення підходу до веборієнтованого розпізнавання облич шляхом інтеграції технології WebRTC з нейромережевими моделями SSD ResNet-10 та OpenFace у єдину клієнт–серверну систему реального часу. На відміну від існуючих рішень, які зазвичай потребують спеціалізованого програмного забезпечення або локальної обробки, запропонований підхід забезпечує низьку затримку, високу точність розпізнавання та можливість роботи безпосередньо в браузері. Система також поєднує потокову передачу відеоданих, серверну DNN-обробку та векторну ідентифікацію, що розширює можливості застосування обличчевої біометрії у вебсередовищі. Практичне значення: створення функціональної системи, здатної виконувати розпізнавання облич у реальному часі зі швидкістю 15–22 FPS та точністю 93–97%. Розроблена технологія може бути інтегрована у системи контролю доступу, відеоаналітики, онлайн-ідентифікації, корпоративні вебпортали та освітні платформи. Створений стартап-проєкт FacePass Cloud демонструє можливість комерціалізації розробки, пропонуючи масштабоване хмарне рішення для розпізнавання облич, яке може застосовуватися у фінансових, логістичних, сервісних та безпекових сферах. Апробація результатів дисертації. Основні положення роботи доповідались на 2-й Міжнародній науково-практичній конференції «Прогресивні підходи в науці та техніці» (Progressive Approaches in Science and Engineering), м. Копенгаген, Данія, 2025 р., секція «Інформаційні технології та кібербезпека». Дисертація складається зі вступу, п'яти розділів та висновків. Повний обсяг дисертації складає 125 сторінок, в тому числі 104 сторінок основного тексту, 32 таблиць, 18 рисунків, 3 сторінки списку використаних джерел у кількості 40 найменувань.
  • ДокументВідкритий доступ
    Методи аналітики та прогнозування електроспоживання підприємствами
    (КПІ ім. Ігоря Сікорського, 2025) Топалова, Ольга Євгенівна; Шалденко, Олексій Вікторович
    Магістерська робота присвячена дослідженню, порівнянню та впровадженню методів аналітики й прогнозування електроспоживання підприємств на основі історичних даних та математичних моделей часових рядів. У роботі розглянуто повний цикл обробки енергетичних даних, включаючи етапи їх очищення, нормалізації, аналізу структури часового ряду, виявлення сезонності та побудови прогнозних моделей. Особливу увагу приділено специфіці промислового та комерційного електроспоживання, яке характеризується вираженими коливаннями, залежністю від режимів роботи підприємства та впливом зовнішніх чинників. У межах дослідження проведено порівняльний аналіз класичних статистичних підходів, моделей ARIMA-групи та сучасних методів машинного навчання, з визначенням їх сильних та слабких сторін. Обґрунтовано вибір моделі SARIMAX як базового методу прогнозування завдяки її здатності враховувати сезонні закономірності та екзогенні змінні, характерні для задач енергетичного менеджменту. На основі отриманих результатів створено веб-застосунок, що реалізує автоматизовану обробку та прогнозування електроспоживання, включає модуль побудови тарифних сценаріїв та систему інтерактивної візуалізації. Розроблений програмний інструмент може застосовуватися у задачах оперативного та стратегічного планування енергоспоживання, оптимізації витрат, підвищення енергоефективності та підтримки управлінських рішень на підприємствах різних типів. Проведені експериментальні дослідження підтверджують ефективність обраних методів і демонструють високу точність прогнозування у порівнянні з базовими моделями.
  • ДокументВідкритий доступ
    Методи штучного інтелекту для адаптивної персоналізації веб інтерфейсів у реальному часі
    (КПІ ім. Ігоря Сікорського, 2025) Червоняк, Андрій Богданович; Сліпченко, Володимир Георгійович
    Актуальність теми. У сучасному цифровому середовищі статичні веб-інтерфейси не враховують індивідуальні потреби користувачів, що призводить до зниження залученості та конверсії. Методи штучного інтелекту дозволяють створювати адаптивні інтерфейси, які динамічно налаштовуються під поведінку в реальному часі, без використання персональних даних. Критичний аналіз показує обмеженість rule-based систем та залежність сучасних рішень (Amazon, Netflix) від історичних даних, що робить актуальним розробку анонімної реал-тайм персоналізації на основі сесійних метрик. Мета роботи. Визначення ефективних методів штучного інтелекту для адаптивної персоналізації веб-інтерфейсів у реальному часі та встановлення їх практичної застосовності для підвищення показників залученості користувачів. Завдання дослідження. Дослідження підходів до персоналізації та ML-методів класифікації намірів; аналіз датасету поведінки онлайн-покупців з feature engineering; розробка та порівняння шести ML-моделей для сегментації; проектування архітектури real-time системи з інтеграцією ML; реалізація ПЗ з збором даних, API інференсу та адаптацією UI. Об’єкт дослідження. Процес моделювання поведінки користувачів веб-інтерфейсів для прогнозування намірів та сегментації на основі анонімних сесійних даних. Предмет дослідження. Методи машинного навчання для класифікації користувачів за рівнем наміру та алгоритми динамічної адаптації компонентів веб-інтерфейсу в реальному часі. Методи дослідження. Аналітичні: порівняльний аналіз шести алгоритмів ML за метриками accuracy, F1-score, AUC-ROC, аналіз важливості ознак Random Forest. Експериментальні: навчання моделей на датасеті "Online Shoppers Purchasing Intention" зі стратифікованим поділом 80/20, SMOTE-балансуванням, StandardScaler-масштабуванням. Моделювання: розробка RESTful API на FastAPI (latency <100 мс), архітектура Clean Architecture, збір даних Intersection Observer API та sessionStorage. Апробація результатів роботи. Результати апробовано під час переддипломної практики на кафедрі цифрових технологій в енергетиці КПІ ім. І. Сікорського, з демонстрацією системи та оцінкою продуктивності. Структура та обсяг магістерської дисертації. Робота складається з вступу, чотирьох розділів, висновків, списку джерел (26 позицій) та додатків. Обсяг - 91 сторінка, 18 рисунків, 15 таблиць. Публікації. Публікація представлена на 23-й Міжнародній науково-практичній конференції «Математичне та програмне забезпечення інтелектуальних систем»
  • ДокументВідкритий доступ
    Методи перевірки коректності відповідей агентів штучного інтелекту
    (КПІ ім. Ігоря Сікорського, 2025) Юрченко, Василь Олександрович; Михайлова, Ірина Юріївна
    Актуальність теми. Стрімкий розвиток великих мовних моделей (LLM) призвів до їх широкого впровадження в різноманітні сфери діяльності. Однак, проблема галюцинацій — генерації правдоподібних, але фактично неправильних відповідей — залишається критичною перешкодою для застосування ШІ в областях, що вимагають високої точності та надійності. Розробка ефективних методів верифікації відповідей агентів штучного інтелекту є актуальним завданням, вирішення якого сприятиме підвищенню довіри до ШІ-систем та розширенню сфер їх безпечного застосування. Мета роботи. Розробка та дослідження методу багатоагентної верифікації відповідей штучного інтелекту CrossCheck AI для зменшення кількості галюцинацій та підвищення надійності генерованих відповідей. Завдання дослідження: Провести комплексний аналіз проблеми галюцинацій у великих мовних моделях, дослідити існуючі методи виявлення та виправлення неточностей у відповідях ШІ-агентів. Розробити концептуальну модель та формалізувати математичний апарат багатоагентної системи верифікації з трьохкомпонентною архітектурою Responder-Verifier-Corrector. Спроектувати та реалізувати програмну систему CrossCheck AI з використанням сучасних LLM моделей (GPT-4, Claude 3, Gemini Pro) та можливістю гнучкої конфігурації агентів. Провести експериментальне дослідження ефективності різних конфігурацій агентів на репрезентативному наборі тестових завдань. Об'єкт дослідження — процеси верифікації та корекції відповідей великих мовних моделей у системах підтримки прийняття рішень на основі штучного інтелекту. Предмет дослідження — методи та алгоритми багатоагентної перевірки коректності відповідей з використанням трьохкомпонентної архітектури Responder-Verifier-Corrector. Методи дослідження: системний аналіз (для дослідження проблеми галюцинацій), об'єктно-орієнтоване проектування (для розробки архітектури системи), методи машинного навчання (для оптимізації промптів), статистичні методи (для аналізу результатів експериментів), методи порівняльного аналізу (для оцінки ефективності різних конфігурацій). Наукова новизна: вдосконалено метод верифікації відповідей штучного інтелекту шляхом застосування багатоагентної архітектури з гетерогенними LLM моделями, що, на відміну від існуючих підходів (Self-Consistency, Chain-of-Thought, RAG), забезпечує підвищення точності на 18 відсоткових пунктів без необхідності зовнішньої бази знань. Практичне значення: розроблена програмна система CrossCheck AI забезпечує автоматизовану верифікацію та корекцію відповідей ШІ-агентів, підвищуючи точність з 71% до 89.3%. Система може бути інтегрована в існуючі рішення через REST API та використана в критичних застосуваннях медичної, юридичної, фінансової та освітньої сфер. Апробація результатів дисертації. Основні положення роботи доповідались на 2-й Міжнародній науково-практичній конференції «Прогресивні підходи в науці та техніці» (Progressive Approaches in Science and Engineering), м. Копенгаген, Данія, 2025 р., секція «Інформаційні технології та кібербезпека». Дисертація складається зі вступу, п'яти розділів та висновків. Повний обсяг дисертації складає 95 сторінок, в тому числі 88 сторінок основного тексту, 19 таблиць, 25 рисунків, 4 сторінки списку використаних джерел у кількості 30 найменувань.
  • ДокументВідкритий доступ
    Методи адаптивного підбору та захисту даних веб-порталів з використанням штучного інтелекту
    (КПІ ім. Ігоря Сікорського, 2025) Багній, Антон Іванович; Михайлова, Ірина Юріївна
    Актуальність теми. Розвиток електронної комерції супроводжується зростанням кіберзагроз, зокрема атак ботів, які складають до 60% трафіку. Існуючі рішення часто занадто дорогі для малого бізнесу, а традиційні методи не забезпечують балансу між безпекою та зручністю. Актуальність роботи зумовлена необхідністю створення доступної комплексної системи, що поєднує адаптивний захист та персоналізацію на основі штучного інтелекту. Мета роботи — розробити методи адаптивного підбору та захисту даних веб-порталів з використанням штучного інтелекту для підвищення рівня безпеки та персоналізації користувацького досвіду. Завдання дослідження — проаналізувати кіберзагрози та методи захисту у сучасних веб-сервісах; дослідити математичні методи виявлення загроз, криптографії та побудови рекомендацій; розробити архітектуру семирівневої системи захисту (WAF, анти-бот, 2FA, ризик-менеджмент); реалізувати гібридну систему рекомендацій на основі матричної факторизації та фільтрації; протестувати систему та оцінити ефективність рішень. Об’єкт дослідження — методи забезпечення безпеки та персоналізації даних у веб-порталах електронної комерції. Предмет дослідження — методи адаптивного захисту даних, алгоритми виявлення автоматизованих систем та методи персоналізованих рекомендацій. Методи дослідження: поведінковий аналіз (для ботів); метод EWMA (управління ризиками); криптографічні методи (AES-256, bcrypt, TOTP); матричну факторизацію (SVD, SGD), TF-IDF та косинусну схожість (рекомендації). Наукова новизна одержаних результатів. Запропоновано комплексний підхід до захисту e-commerce, що інтегрує 7 рівнів безпеки з адаптивним управлінням ризиками (EWMA). Розроблено гібридний алгоритм рекомендацій, що поєднує методи фільтрації через rank-based blending. Удосконалено метод виявлення ботів за рахунок динамічного ризик-скору. Практичне значення одержаних результатів. Створено програмне забезпечення, що поєднує захист та персоналізацію. Система розгорнута у виробничому середовищі, а власна реалізація алгоритмів забезпечила оптимізацію витрат. Апробація результатів дисертації. Основні положення доповідалися на науковій конференції «Science of XXI century: development, main theories and achievements» (м. Гаага, 31.10.2025). Структура та обсяг роботи. Дисертація складається зі вступу, п’яти розділів, висновків, списку джерел та додатків. Загальний обсяг дисертації — 119 сторінок. Основний вміст викладено на 114 сторінках. Робота містить 36 рисунків, 10 таблиць. Список джерел — 30 найменувань .
  • ДокументВідкритий доступ
    Методи штучного інтелекту для визначення властивостей харчових продуктів на основі зображень
    (КПІ ім. Ігоря Сікорського, 2025) Бондарев, Максим Михайлович; Сегеда, Ірина Василівна
    Актуальність роботи зумовлена технічною складністю автоматичного розпізнавання харчових продуктів через високу варіативність їх зовнішнього вигляду, обмеженнями класичних підходів на основі згорткових нейронних мереж, що потребують великих обсягів маркованих даних, та відсутністю комерційних рішень з підтримкою української мови для харчового моніторингу. Мета роботи — дослідження методів штучного інтелекту для автоматичного визначення властивостей харчових продуктів на основі зображень та створення системи харчового моніторингу з підтримкою української локалізації. Завдання дослідження: — Дослідити можливості застосування мультимодальних моделей CLIP для zero-shot розпізнавання харчових продуктів без попереднього навчання на конкретних класах. — Розробити алгоритм автоматичної сегментації окремих інгредієнтів на зображеннях складних страв з використанням моделі Segment Anything Model (SAM). — Інтегрувати систему з базою даних USDA FoodData Central для отримання достовірної інформації про поживну цінність понад 400,000 харчових продуктів. — Реалізувати алгоритм розрахунку поживної цінності на основі автоматично розпізнаних інгредієнтів. — Розробити мобільний застосунок з повною українською локалізацією для iOS та Android платформ. Об'єкт дослідження — автоматичне визначення властивостей харчових продуктів на основі зображень з використанням методів штучного інтелекту. Предмет дослідження — методи машинного навчання для розпізнавання харчових продуктів, алгоритми сегментації зображень та розрахунку поживної цінності на основі мультимодальних нейронних мереж. Практична цінність результатів полягає у створенні першої україномовної системи автоматичного харчового моніторингу, яка здатна розпізнавати національні українські страви. Розроблена система може застосовуватися для персонального харчового моніторингу, клінічних застосувань у дієтології та спортивного харчування. Апробація результатів роботи. Бондарев М.М., Сегеда І.В. Методи штучного інтелекту для визначення властивостей харчових продуктів на основі зображень. The VIII International scientific and practical conference «Modern technologies in education, work and science», October 20-22, 2025, Krakow, Poland, р.71-76, ISBN — 979-8-89814-226-1. Програма розроблена для автоматичного визначення поживної цінності харчових продуктів на основі візуального аналізу зображень з використанням методів штучного інтелекту. Основною метою є створення системи харчового моніторингу з підтримкою української та англійської локалізацій, яка спрощує процес відстеження споживання їжі. Основні функції програми: • Автоматичне розпізнавання харчових продуктів через AI-сканування фотографій страв з використанням мультимодальної моделі CLIP для zero-shot класифікації. • Автоматична сегментація окремих інгредієнтів на зображеннях складних страв за допомогою моделі SAM (Segment Anything Model). • Інтеграція з базою даних USDA FoodData Central для отримання достовірної інформації про поживну цінність понад 400,000 харчових продуктів. • Розрахунок поживної цінності з детальною інформацією про макро- та мікронутрієнти. • Мобільний застосунок з повною українською локалізацією, що підтримує розпізнавання національних українських страв. Програма є масштабованою та має модульну архітектуру, що дозволяє легко адаптувати її до нових вимог. Вона може служити основою для подальших досліджень у сфері комп'ютерного зору та застосування AI-технологій для харчового моніторингу.
  • ДокументВідкритий доступ
    Розподілена система зберігання файлів із адресацією вмісту
    (КПІ ім. Ігоря Сікорського, 2025) Гуменюк, Андрій Олександрович; Отрох, Сергій Іванович
    Дисертація присвячена розробці та впровадженню розподіленої системи зберігання файлів з адресацією вмісту з поєднанням пірингових мереж для досягнення масштабованого та відмовостійкого рішення для зберігання даних. Актуальність теми визначена зростанням потреби до масштабування систем для зберігання файлів, яку неможливо повністю досягнути за допомогою традиційних централізованих архітектур. Використання пірингових мереж та адресації файлів за вмістом дозволяє покращити доступність та забезпечити цілісність даних і загальну відмовостійкість масштабованої системи. Метою роботи є визначення та обґрунтування архітектурних принципів і механізмів для побудови ефективної розподіленої системи зберігання файлів, що забезпечує високу доступність та швидкий доступ до даних за ідентифікаторами вмісту. Для досягнення мети були визначені наступні задачі: — провести аналіз існуючих розподілених систем зберігання файлів; — дослідити алгоритми маршрутизації та пошуку даних у пірингових мережах; — спроєктувати та реалізувати розподілену систему зберігання файлів з адресацією вмісту; — виконати експериментальний аналіз розробленої програмної системи. Об’єктом дослідження є процес розподіленого зберігання та доступу до файлів із адресацією вмісту у пірингових мережах. Предметом дослідження є методи та алгоритми, що забезпечують адресацію, маршрутизацію, реплікацію та відмовостійкість розподіленої системи зберігання файлів із адресацією вмісту. Методи дослідження включають аналіз існуючих розподілених файлових систем і алгоритмів маршрутизації в пірингових мережах, моделювання та проєктування програмного забезпечення для побудови архітектури системи, а також експериментальні дослідження для оцінки її ефективності. Основні положення роботи були апробовані в рамках III Міжнародної науково-практичної конференції «Innovations in Science: From Theoretical Foundations to Practical Impact», 2025, та у статті «Підвищення доступності даних у пірингових системах з адресацією вмісту за рахунок проактивної реплікації», прийнятій до друку в журналі «Systems and Technologies» (перше видання, 2026). Програма є реалізацією розподіленої системи зберігання файлів із адресацією вмісту, у якій дані ідентифікуються за криптографічними хешами (CID), а їх збереження та пошук здійснюється через пірингову мережу на основі розподіленої хеш-таблиці (DHT) та алгоритму маршрутизації Кадемлія. Кожен екземпляр програми функціонує як вузол децентралізованої мережі та виконує наступні завдання: зберігання блоків даних локально у структурі Меркл-графу; оголошення та пошук провайдерів блоків у DHT; маршрутизація RPC-запитів; реконструкція файлів із фрагментів, завантажених з різних вузлів; управління кешем, реплікацією та механізмами закріплення даних. Програма підтримує роботу вузлів за NAT за допомогою сервера ретранслятора, інтегрується із systemd та може функціонувати як самостійна децентралізована платформа зберігання та обміну файлами. Програмний комплекс складається з: — фонового сервісу-вузла із локальним сховищем; — CLI-утиліти для додавання, отримання та адміністрування даних; — настільного застосунку, що забезпечує графічний інтерфейс для роботи з файлами, моніторингу вузлів та керування фоновим сервісом. Обсяг дисертації становить 95 сторінки та містить 15 рисунків, 22 таблиці, 24 використаних джерел та 1 додаток. Основний вміст викладено на 88 сторінках.