Магістерські роботи (ЦТЕ)
Постійне посилання зібрання
У зібранні розміщено магістерські дисертації на здобуття ступеня магістра.
Переглянути
Нові надходження
Документ Відкритий доступ Інструментальні засоби розробки систем оповіщення населення про якість повітря та радіаційну небезпеку(КПІ ім. Ігоря Сікорського, 2025) Чуйко, Дмитро Сергійович; Тарнавський, Юрій АдамовичАктуальність теми: зростання рівня забруднення атмосферного повітря та епізодичні випадки підвищення радіаційного фону створюють суттєві ризики для здоров’я населення, особливо для вразливих груп. Сучасні інструменти моніторингу не завжди забезпечують достатню точність, зручність і рівень персоналізації, необхідні для оперативного реагування на зміни стану довкілля. Тому розробка мобільного застосунку, який поєднує інформування про якість повітря та радіаційний фон із можливістю персонального налаштування сповіщень, є актуальною науковою та практичною задачею. Мета роботи: створення мобільного додатку для відстеження стану атмосферного повітря та радіаційного фону, який забезпечує користувачам оперативний доступ до достовірної інформації та персоналізовані сповіщення у разі погіршення екологічної ситуації. Завдання дослідження: — дослідити особливості моніторингу атмосферного повітря та радіаційного фону, проаналізувати основні забруднювачі та офіційні рекомендації щодо їх допустимих концентрацій; — вивчити сучасні програмні рішення, що вже існують на ринку; — обґрунтувати вибір технологій для розробки застосунку: мови програмування, фреймворку, системи керування базами даних і сервісів автентифікації; — оцінити постачальників даних про якість повітря та радіаційний фон; — реалізувати мобільний застосунок із функціями моніторингу та персонального інформування. Об’єкт дослідження: інформування населення про зміни у стані якості повітря та радіаційного фону. Предмет дослідження: методи та програмні засоби для побудови системи відстеження стану якості повітря і радіаційного фону та персонального інформування користувачів про їх зміни. Практична цінність роботи: Розроблений мобільний застосунок може використовуватися широким колом користувачів для щоденного моніторингу стану якості повітря та радіаційного фону. Для чутливих груп населення він забезпечує персоналізовані попередження та рекомендації, що дає змогу мінімізувати негативний вплив забрудненого повітря та підвищеного радіаційного фону. Розроблене рішення може бути використане як окремий продукт або як компонент комплексних систем екологічного моніторингу. Апробація результатів роботи: тези дипломної роботи були представлені в: — науковому журналі в галузі технічних наук “Технічна інженерія”; — ХХІІ міжнародній науково-практичній конференції молодих вчених та студентів “Сучасні проблеми наукового забезпечення енергетики”. Зокрема, за активну участь в конференції автор був нагороджений дипломом 3 ступеня. Структура та обсяг роботи: дисертація складається з вступу, пʼяти розділів та висновків. Повний обсяг дисертації складає 118 сторінок, в тому числі 94 сторінки основного тексту, 6 таблиць, 30 рисунків, список використаних джерел у кількості 25 найменувань.Документ Відкритий доступ Методи та засоби пошуку закладів освіти на основі багатокритеріальної оптимізації(КПІ ім. Ігоря Сікорського, 2025) Яценко, Мирослав Ігорович; Тихоход, Володимир ОлександровичСтруктура та обсяг кваліфікаційної роботи. Магістерська дисертація складається з вступу, п’яти розділів, висновків та додатку. Робота містить посилання на 30 джерел, 22 таблиць та 31 ілюстрацій. Основна частина роботи викладена на 89 сторінках. Загальний обсяг роботи 98 сторінок. Актуальність. У сучасних умовах абітурієнти стикаються з різноманіттям навчальних програмам та навчальних закладів, що ускладнює процес вибору оптимального варіанту здобуття освіти. Процес прийняття рішення про вступ до закладу освіти передбачає врахування низки чинників — від академічної репутації та вартості навчання до географічного розташування, наявності інфраструктури та перспектив працевлаштування. Традиційні методи вибору, які ґрунтуються на одному або двох критеріях, не забезпечують комплексної оцінки та не враховують індивідуальних пріоритетів користувача. У зв’язку з цим актуальним є застосування методів багатокритеріальної оптимізації, що дають змогу одночасно аналізувати кілька параметрів і формувати збалансовані рішення з урахуванням різних аспектів якості освітніх послуг. Метою роботи є розроблення підходу до формування системи пошуку закладів освіти на основі методів багатокритеріальної оптимізації, що забезпечує персоналізований вибір за сукупністю критеріїв. Для досягнення поставленої мети виконано такі завдання: — провести аналіз існуючих рішень пошуку закладів освіти; — проаналізувати критерії пошуку закладів освіти та сформувати основні для використання у системі; — розробити структуру баз даних; — спроектувати архітектуру програмного забезпечення; — розробити серверну та клієнтську частину застосунку; — провести дослідження розробленої системи. Об’єктом дослідження є процес пошуку закладів освіти абітурієнтами та дослідження основних критеріїв, що впливають на прийняття рішення. Предметом дослідження є програмне забезпечення для пошуку закладів освіти на основі багатокритеріальної оптимізації. Методи дослідження включають аналіз, проектування, програмування, тестування. Практичне значення роботи полягає у розробці веб-застосунку для абітурієнтів, учнів, який спрощуватиме пошук за допомогою багатокритеріальної оптимізації. А також дасть адміністрації навчальних закладів платформу для поширювання інформації про заклад та його здобутки. Апробація результатів дисертації. Основні положення роботи було опубліковано та обговорено на: IX Міжнародна науково-практична конференція «EDUCATION AND SCIENCE OF TODAY: INTERSECTORAL ISSUES AND DEVELOPMENT OF SCIENCES», 28 листопада, Кембридж, Великобританія.Документ Відкритий доступ Фреймворк для масштабованої обробки великих даних про продажі(КПІ ім. Ігоря Сікорського, 2025) Безрукий, Микола Ярославович; Шаповалова, Світлана ІгорівнаАктуальність теми В умовах стрімкого зростання обсягів даних у сфері роздрібної торгівлі та електронної комерції виникає нагальна потреба в оперативній обробці інформації про продажі для підтримки прийняття рішень. Традиційні пакетні системи та існуючі потокові архітектури (Лямбда, Каппа) часто не забезпечують необхідного балансу між низькою затримкою, простотою розробки та гнучкістю управління складною бізнес-логікою. Об’єкт дослідження – процеси обробки великих потокових даних у розподілених аналітичних системах. Предмет дослідження – методи реалізації програмного фреймворку для масштабованої трансформації даних про продажі. Мета роботи Створення програмного фреймворку побудови пайплайнів для забезпечення масштабованої, відмовостійкої обробки великих обсягів складних ієрархічних даних у режимі, близькому до реального часу. Завдання дослідження: 1. Провести аналіз існуючих архітектурних підходів та програмних засобів обробки великих даних. 2. Дослідити принципи побудови ETL-систем, керованих метаданими. 3. Розробити концептуальну архітектуру фреймворку. 4. Створити програмний прототип фреймворку. 5. Провести експериментальне дослідження продуктивності та масштабованості розробленого рішення. Методи дослідження: методи системного аналізу для проектування архітектури; методи теорії баз даних та реляційної алгебри для розробки алгоритмів трансформації; методи об’єктно-орієнтованого проектування для створення програмної моделі; методи імітаційного моделювання та комп’ютерного експерименту для оцінки продуктивності системи. Практичне значення: розроблений фреймворк дозволяє уніфікувати та прискорити розробку пайплайнів обробки даних, забезпечуючи надійність та низьку затримку. Результати можуть бути використані для побудови сучасних аналітичних платформ у рітейлі. Апробація результатів дисертації: основні положення роботи доповідалися на III Міжнародній науковій та практичній конференції “Innovative Approaches in Modern Science and Technology”, 12-14 листопада, 2025, м. Лісабон, Португалія. Структура та обсяг магістерської дисертації: дисертація складається зі вступу, п’яти розділів та висновків. Повний обсяг дисертації складає 109 сторінок, в тому числі 96 сторінок основного тексту, 6 таблиць, 14 рисунків, 8 сторінок списку використаних джерел у кількості 73 найменувань. Розроблений програмний продукт є фреймворком для побудови високонавантажених систем обробки даних, що реалізує концепцію Lakehouse. Його архітектура базується на мікро-пакетній обробці (Spark Structured Streaming) та транзакційному зберіганні даних, що забезпечує гарантії ACID та низьку затримку (Near Real-Time). Ключовою особливістю системи є декларативна модель керування: вся бізнес-логіка (фільтрація, парсинг вкладених структур, агрегація) описується у зовнішніх TOML-файлах. Це дозволяє динамічно генерувати оптимізовані плани виконання, забезпечуючи гнучкість, масштабованість та значне скорочення часу на розробку нових вітрин даних.Документ Відкритий доступ Методи машинного навчання для визначення біологічного віку серця на основі ЕКГ(КПІ ім. Ігоря Сікорського, 2025) Антонкін, Дмитро Олександрович; Сліпченко, Володимир ГеоргійовичАктуальність теми. Серцево-судинні захворювання (ССЗ) продовжують займати перше місце серед причин смертності у глобальному масштабі, що зумовлює гостру потребу в удосконаленні методів ранньої діагностики. Традиційні маркери ризику, такі як хронологічний вік, часто не відображають реального фізіологічного зносу серцево-судинної системи, оскільки процеси старіння є індивідуальними та гетерогенними. У цьому контексті концепція «біологічного віку серця» (Heart Age) набуває критичного значення як інтегральний показник здоров'я. Існуючі діагностичні методи є або інвазивними, або дороговартісними, або залежать від суб'єктивної оцінки лікаря. Стрімкий розвиток методів штучного інтелекту, зокрема глибокого навчання (Deep Learning), відкриває унікальні можливості для автоматизованого аналізу електрокардіограм (ЕКГ), дозволяючи виявляти приховані нелінійні патерни старіння, недоступні для візуальної інтерпретації. Мета роботи полягає у підвищенні ефективності та точності оцінювання біологічного віку людини шляхом розробки інтелектуальної програмної системи, що базується на передових архітектурах та підходах машинного навчання та глибоких нейронних мереж. Завдання дослідження: • Провести системний аналіз існуючих методів визначення біологічного віку та дослідити репрезентативні набори біомедичних даних (зокрема, базу Jena University Hospital). • Розробити та програмно реалізувати алгоритми попередньої обробки сигналів ЕКГ, включаючи цифрову фільтрацію шумів, адаптивну сегментацію, нормалізацію та аугментацію даних для покращення навчання моделей. • Дослідити та порівняти ефективність різних підходів машинного навчання: класичних моделей на основі інженерії ознак (Logistic Regression, Random Forest) та нейромережевих архітектур (Autoencoder, RNN, CNN) в умовах дисбалансу класів. • Розробити та оптимізувати удосконалену архітектуру глибокої нейронної мережі (Advanced CNN), що поєднує залишкові з'єднання (ResNet) та механізм уваги (Attention), для досягнення високої точності класифікації. • Створити повнофункціональний клієнт-серверний програмний прототип системи для демонстрації практичного застосування розробленої моделі в клінічних умовах. Об’єкт дослідження: методи, моделі та алгоритми глибокого навчання, зокрема згорткові нейронні мережі (CNN), рекурентні мережі (RNN) та механізми уваги, що застосовуються для класифікації біологічного віку за даними багатоканальної ЕКГ. Предмет дослідження: класифікація біологічного віку серця на основі моделей Logistic Regression, Random Forest, Autoencoder, RNN та CNN із використанням даних електрокардіографії. Методи дослідження. У роботі використано методи цифрової обробки сигналів (смугова фільтрація Баттерворта, метод Велча) для очищення та частотного аналізу даних; методи статистичного аналізу для дослідження розподілу ознак; методи машинного навчання та глибокого навчання (градієнтний спуск, зворотне поширення помилки) для тренування прогностичних моделей; методи програмної інженерії та веб-розробки (React, Node.js) для створення архітектури додатку. Наукова новизна одержаних результатів. Вперше обґрунтовано та експериментально підтверджено ефективність застосування архітектури Advanced CNN, посиленої механізмом уваги (Attention) та залишковими зв'язками (ResNet), для вирішення задачі 15-класової класифікації біологічного віку на вкрай незбалансованому наборі даних. Доведено, що запропонований end-to-end підхід дозволяє досягти точності класифікації у 87%, перевершуючи існуючі аналоги, що базуються на ручному розрахунку варіабельності серцевого ритму. Практичне значення отриманих результатів. Розроблено, протестовано та впроваджено у вигляді веб-додатку інтелектуальну систему «BioAge-ECG AI». Система забезпечує автоматизований аналіз ЕКГ, визначаючи біологічний вік серця з наданням оцінки впевненості прогнозу. Створений продукт може бути використаний як ефективний інструмент підтримки прийняття рішень у кардіологічній практиці, превентивній медицині та системах телемоніторингу пацієнтів. Апробація результатів роботи. Основні теоретичні положення та практичні результати дисертаційної роботи доповідались та обговорювались на Всеукраїнській Інтернет-конференції молодих учених і студентів «Інформаційні технології в освіті, техніці та промисловості» (ІТОТП-2025). Структура та обсяг магістерської дисертації. Робота складається зі вступу, п'яти розділів, висновків, списку використаних джерел та додатків. Повний обсяг роботи становить 114 сторінок. Публікації. За темою дисертації опубліковано 1 наукову працю. Розроблений програмний комплекс, зокрема клієнт-серверний застосунок, демонструє готовий до впровадження прототип системи підтримки прийняття клінічних рішень. Він може бути використаний лікарями для швидкого скринінгу пацієнтів та ідентифікації осіб з прискореним біологічним старінням серця, що потребують поглибленої діагностики. Розроблено на Python (pytorch, scikit-learn) для backend та Next.js (React, TypeScript) для frontend.Документ Відкритий доступ Адаптивна система збору даних з динамічною зміною параметрів доступу(КПІ ім. Ігоря Сікорського, 2025) Ключук, Владислав Петрович; Отрох, Сергій ІвановичСфери сучасного світу досить часто напряму залежать від стабільного функціонування систем, що забезпечують збір великої кількості інформації із багатьох джерел. Особливо це актуально в умовах глобальної цифровізації, де тисячі онлайн ресурсів та сервісів з’являються щодня. Однак реальне інтернет-середовище часто змінює ключові правила доступу. Змінюються захисні механізми, виникають обмеження, сервери працюють нестабільно тощо. Такі проблеми ускладнюють роботу стандартних підходів та знижують їх ефективність і надійність. Актуальність теми зумовлена потребою у постійному та надійному зборі інформації з веб ресурсів, для отримання своєчасного аналізу у сферах економіки, бізнесу, аналітики, медіа тощо. Використання надійних систем на основі даних методів дозволяє покращити відсоток доступності до цільових ресурсів та покращити точність необхідних метрик. Це, у свою чергу, сприятиме покращенню якості аналітики, зниженню бізнес ризиків та можливості розглядати конкретні сценарії з багатьох сторін. Мета роботи полягає у встановлені методів та архітектури надійної системи збору даних, яка здатна ефективно взаємодіяти із веб ресурсами в умовах змін доступності, мережевих збоїв і нестабільності із сторони цільових серверів. На основі розроблених підходів реалізовано систему збору новин, що виконує автоматичний збір та аналіз контенту для визначення згадок сутностей та формування метрик для подальшого аналізу. Об’єктом дослідження є процес збору та аналізу даних із веб сайтів у майже реальному часі за умов активного захисту. Предметом дослідження є методи та алгоритми, спрямовані на забезпечення надійного збору даних і їх інтеграцію в єдину надійну систему. Методи дослідження передбачають аналіз наявних підходів до адаптивного управління процесом збору даних, порівняльний аналіз існуючих рішень, а також експериментальні методи для тестування ефективності системи в різних умовах на основі новинних сайтів. Практичне значення отриманих результатів полягає у створенні прототипу надійної систему збору даних із відкритих веб ресурсів, яка здатна самостійно та стабільно функціонувати навіть у випадках часткових відмов та блокування. Даний підхід може допомогти отримувати безперервний та надійний доступ до важливої інформації у сферах аналітики, медіа, економіки тощо. Публікації Отрох С., Ключук В. Розширення методів web scraping для надійного збору та аналізу даних. СУЧАСНI ТЕХНОЛОГIЇ РОЗРОБКИ КОМП’ЮТЕРИЗОВАНИХ СИСТЕМ КЕРУВАННЯ РУХОМ : НАУКОВО-ТЕХНIЧНА КОНФЕРЕНЦIЯ, м. Київ, 28–29 листоп. 2023 р. Київ, 2023. С. 65–66. Данильченко В. М., Отрох С. І., Ключук В. П., Сарафанніков О. В. Прискорення збору та аналізу даних за допомогою інструментів асинхронного програмування у Web Scraping. Зв’язок. 2024. Т. 169, № 3. URL: https://doi.org/10.31673/2412-9070.2024.032327. Otrokh S.I., Kliuchuk V.P. An adaptive approach to building reliable data collection systems from open web resources. – Прийнято до публікації. Структура роботи складається зі вступу, п’яти розділів, загальних висновків, списку використаних джерел і додатків. Загальний обсяг роботи становить 112 сторінок, включає 22 таблиці, 23 рисунки та 47 найменувань літератури. Розроблений програмний продукт включає комплекс механізмів для надійного збору, обробки та аналітики даних із відкритих веб-ресурсів із подальшою візуалізацією на платформі, що містить бекенд та фронтенд компоненти. Підсистема збору даних базується на адаптивному алгоритмі, який реалізує механізми повторних спроб із експоненційною затримкою, ротацію проксі-серверів із зваженим розподілом, а також динамічну ротацію HTTP-заголовків. Для підвищення стабільності та продуктивності система також забезпечує логування операцій і кешування отриманих даних. Обробка зібраної інформації виконується із застосуванням методів штучного інтелекту через OpenAI API, що дозволяють ідентифікувати сутності в текстах, формувати відповідні метрики та здійснювати їх порівняння для подальшого аналітичного опрацювання. Користувачі мають змогу переглядати новинний контент, аналізувати виявлені сутності та їх показники через інтерфейс платформи.Документ Відкритий доступ Аналіз та передбачення погодних умов на основі машинного навчання з інтеграцією веб-технологій(КПІ ім. Ігоря Сікорського, 2025) Постернак, Антон Володимирович; Отрох, Сергій ІвановичАктуальність теми. Зростання ролі погодної аналітики посилює потребу в доступних засобах базового дослідницького аналізу погодних даних і швидкого отримання передбачень, а також у простих освітньо-демонстраційних інструментах для ознайомлення користувачів із основними методами машинного навчання без необхідності спеціалізованих технічних знань. Метою роботи є розроблення інтегрованого веб-орієнтованого застосунку, який реалізує повний цикл опрацювання погодних даних: імпорт табличних вибірок, базовий дослідницький аналіз та формування передбачень на основі моделей контрольованого машинного навчання з фіксованими гіперпараметрами. Завдання дослідження: – здійснити аналіз предметної області та наявних підходів до опрацювання погодних даних і побудови прогнозів; – оцінити придатність та ефективність основних моделей машинного навчання з учителем для передбачення погодних параметрів і обґрунтувати вибір; – розробити архітектуру веб-застосунку та визначити функціональну взаємодію його компонентів; – реалізувати модулі обробки та організації даних, базового дослідницького аналізу та формування передбачень і провести тестування їх роботи у межах єдиного програмного середовища; – оцінити ринкові перспективи впровадження розробленого застосунку. Об’єкт дослідження – процеси опрацювання, аналізу та передбачення погодних даних у веб-орієнтованих інформаційних системах. Предмет дослідження – методи та алгоритмічні підходи машинного навчання і засоби їх інтеграції у веб-орієнтоване програмне середовище для класифікації та передбачення параметрів погодних даних. Практична цінність отриманих результатів полягає у створенні веб-орієнтованого застосунку, що забезпечує можливості завантаження, базовий дослідницький аналіз і передбачення погодних даних у єдиному інтерфейсі без потреби в поглиблених технічних знаннях. Отриманий інструмент може використовуватися для швидкого отримання передбачень у прикладних задачах невисокої складності, а також як наочний засіб ознайомлення користувачів з основами машинного навчання на прикладі погодних даних. Методи дослідження включають аналіз наукових джерел та наявних рішень з обробки та прогнозування погодних даних, методи передбачення на основі моделей машинного навчання, порівняльний аналіз та оцінювання якості моделей з використанням кількісних метрик, а також експериментальне тестування розробленого веб-орієнтованого застосунку. Апробація результатів дисертації. Основні результати роботи доповідалися на 2-й Міжнародній науково-практичній конференції «Scientific Research: Emerging Theories and Practical Breakthroughs» (17–19 листопада 2025 р., Единбург, Шотландія). Дисертація складається з переліку умовних позначень, скорочень і термінів; вступу; шести розділів та висновків. Загальний обсяг роботи становить 113 сторінок, з них 91 сторінка основного тексту. Список використаних джерел має обсяг 5 сторінки та містить 43 найменування, додатки займають 17 сторінок. Публікації. Основні положення дисертації відображено в таких публікаціях: – Otrokh S., Posternak A. Web-based System for Weather Data Analysis and Prediction with Machine Learning. Scientific Research: Emerging Theories and Practical Breakthroughs : тези доп. 2-ї Міжнар. наук.-практ. конф. (Единбург, 17–19 листоп. 2025 р.) / European Open Science Space. Единбург, 2025. С. 104–107; – Мельник Ю. В., Отрох С. І., Постернак А. В. Аналіз та передбачення погодних умов на основі машинного навчання з інтеграцією веб-технологій // Наукові записки Державного університету інформаційно-комунікаційних технологій. 2025. № 2.Документ Відкритий доступ Технології інтеграції застосунків ASP.NET Core з сучасними фронтенд-інструментами(КПІ ім. Ігоря Сікорського, 2025) Падалко, Денис Романович; Тарнавський, Юрій АдамовичУ даній роботі було представлено інтеграцію застосунків ASP.NET Core із сучасними фронтенд-інструментами. Проведено огляд актуальних методів обміну даними між клієнтськими та серверними частинами веб-застосунків, розглянуто підходи REST API, GraphQL, gRPC, SignalR, а також особливості роботи SPA-фреймворків і технології Blazor. На основі проведеного аналізу розроблено та реалізовано приклад програмного рішення, яке демонструє практичні механізми взаємодії між серверною частиною ASP.NET Core та кількома фронтенд-клієнтами. Описано архітектуру системи, модель даних, процес реалізації REST API, а також принципи обробки клієнтських запитів. Наведено інструкції з встановлення, запуску і тестування застосунку, а також представлено приклад інтеграції різних клієнтів із єдиним серверним API. Додатково у роботі сформовано стартап-проєкт, у межах якого виконано аналіз ринку, конкурентів, визначено бізнес-модель, ризики та перспективи подальшого розвитку продукту. Даний програмний застосунок реалізує платформу для створення та обслуговування інтернет-магазинів із використанням API-орієнтованої архітектури. Система забезпечує роботу з товарами, категоріями, замовленнями, користувачами, а також підтримує інтеграцію з різними фронтенд-клієнтами. Програма включає серверну частину на базі ASP.NET Core, REST API, модуль авторизації з використанням JWT, засоби адміністрування та тестовий веб-інтерфейс. Застосунок розроблено для подальшого розгортання у хмарному або локальному середовищі та може використовуватися як основа для побудови масштабованих e-commerce рішень. Робота містить 103 сторінки, 6 рисунків, 3 таблиці, 13 джерел та 1 додаток.Документ Відкритий доступ Методи підвищення якості відеозв’язку в системах дистанційного консультування(КПІ ім. Ігоря Сікорського, 2025) Ткачук, Анна Юріївна; Полягушко, Любов ГригорівнаАктуальність теми. Забезпечення стабільного та якісного відеозв’язку є необхідним для ефективної взаємодії між користувачами в системах дистанційного консультування. Від якості відео- та аудіопотоку залежить точність переданої інформації, можливість проведення первинної діагностики, а також комфорт і результативність спілкування між лікарем і пацієнтом. У реальних умовах мережі (мобільний інтернет, перевантажений Wi-Fi, нестабільні канали зв’язку) виникають значні перешкоди, що призводять до втрат пакетів, збільшення затримки, падіння бітрейту, погіршення чіткості зображення та звуку. Тому дослідження та реалізація методів підвищення якості відеозв’язку в умовах нестабільних мереж є актуальними та мають важливе практичне значення для розвитку сучасних систем дистанційного обслуговування та телемедичних сервісів. Метою роботи є дослідження методів підвищення якості відеозв’язку, розробка веб-системи для дистанційного консультування на основі технології WebRTC, з використанням запропонованих методів та метрик QoS (Quality of Service) і QoE (Quality of Experience) для об’єктивної оцінки ефективності роботи системи у різних умовах мережі. Завдання дослідження: провести аналіз сучасних систем для проведення дистанційних консультацій та виявити їх основні функціональні можливості та визначити типові проблеми якості відеозв’язку; дослідити метрики QoS (Quality of Service) і QoE (Quality of Experience) та встановити їх кореляцію; обґрунтувати вибір методів для покращення якості відео- та аудіопотоку, включаючи адаптивну зміну бітрейту та роздільності, компенсацію втрат пакетів (FEC), оптимізацію jitter buffer, підвищення якості аудіо за допомогою шумозаглушення (Noise Suppression) та усунення ефекту ехо (Echo Cancellation), а також покращення зображення з використанням алгоритмів AI Upscaling; розробити прототип системи дистанційного консультування на основі технології WebRTC, який забезпечує відео- та аудіозв’язок у реальному часі між користувачами; реалізувати обрані методи підвищення якості відеозв’язку у прототипі веб-системи дистанційного консультування; провести експериментальні дослідження в різних мережевих сценаріях, включаючи локальні мережі (LAN), бездротові Wi-Fi та мобільні 3G і 4G; виконати порівняльний аналіз результатів «до» та «після» застосування методів покращення якості відеозв’язку та оцінити ефективність впроваджених алгоритмів. Об’єкт дослідження – моделі процесів передачі аудіо- та відеопотоків у системах відеозв'язку реального часу на базі WebRTC. Предмет дослідження – методи та алгоритми підвищення якості відеозв'язку в системах дистанційного консультування, включаючи компенсацію втрат пакетів, адаптивну передачу відео, оптимізацію буферизації та застосування штучного інтелекту для покращення роздільності відеопотоку. Практична цінність роботи полягає у можливості інтеграції отриманих результатів у різні системи дистанційного консультування та комунікації, зокрема у телемедичні платформи, онлайн-освітні сервіси, психологічну допомогу, юридичні консультації, бізнес-комунікації, HR-співбесіди, технічну підтримку та інші сервіси, що використовують відеозв’язок у реальному часі. Запропоновані методи та алгоритми, включаючи адаптивне керування параметрами медіапотоків, компенсацію втрат пакетів та оптимізацію аудіо- і відеопотоків, дозволяють значно підвищити стабільність та якість відеокомунікації навіть за умов нестабільних мереж. Це робить систему ефективною та практично придатною для широкого спектру застосувань, де важлива безперервність та точність переданої інформації. Апробація результатів дисертації. Основні положення даної роботи на тему «Методи підвищення якості відеозв’язку в системах дистанційного консультування» доповідались та обговорювались на 3 Міжнародній науково-практичній конференції «Innovative Approaches is Modern Science and Technology», що проходила 12-14 листопада 2025 року у м. Лісабон, Португалія. Дисертація складається зі вступу, п’ятьох розділів та висновків. Повний обсяг дисертації складає 90 сторінок, в тому числі 80 сторінок основного тексту, 10 таблиць, 16 рисунків, 4 сторінки списку використаних джерел у кількості 35 найменувань.Документ Відкритий доступ Інформаційна система відображення логістичних метрик із BI-візуалізацією(КПІ ім. Ігоря Сікорського, 2025) Радчук, Ігор Валерійович; Аушева, Наталія МиколаївнаМагістерська робота присвячена дослідженню, розробленню та впровадженню комплексної інформаційної системи для аналізу, прогнозування та BI-візуалізації логістичних метрик. У роботі розглянуто повний цикл автоматизованої обробки логістичних даних, який охоплює їх збирання, очищення, трансформацію, аналітичні розрахунки, сегментацію клієнтів методом RFM, побудову прогнозів часових рядів та формування текстових управлінських висновків за допомогою моделей штучного інтелекту. Особливу увагу приділено проблемам фрагментації даних у логістичних компаніях, необхідності оперативного прийняття управлінських рішень та інтеграції сучасних технологій аналітики в єдину цифрову платформу. У межах роботи проаналізовано можливості BI-інструментів і визначено оптимальні засоби для побудови аналітичної системи, серед яких PostgreSQL як основне сховище даних, FastAPI як серверна частина для реалізації REST API, бібліотеки Pandas, NumPy та Prophet для виконання аналітичних операцій і прогнозування. Проведено інтеграцію з OpenAI API для автоматичного формування текстових аналітичних висновків. На основі отриманих результатів створено програмний комплекс із модульною архітектурою, що забезпечує масштабованість, гнучкість та можливість подальшого розширення. Розроблене програмне забезпечення надає повну автоматизацію обробки логістичних даних і представлення результатів у вигляді інтерактивних дашбордів Power BI, що робить систему придатною для операційного моніторингу, стратегічного аналізу, управління клієнтськими сегментами та прогнозування бізнес-показників.Документ Відкритий доступ Статистичні моделі аналізу тренувальних факторів і прогнозування спортивних результатів(КПІ ім. Ігоря Сікорського, 2025) Холодницька, Аріна Юріївна; Кублій, Лариса ІванівнаАктуальність теми. Підвищення спортивних результатів залежить не тільки від обсягу й характеру фізичних навантажень, а й від індивідуальних особливостей людини — генетичних, фізіологічних, поведінкових тощо. Проблемою постає розуміння того, який саме фактор і якою мірою впливає на індивідуальний результат спортсмена. З огляду на це актуальним є виявлення й кількісна оцінка впливу різних факторів на спортивний результат особистості. Метою роботи є розробка програмного інструменту, який забезпечує аналіз впливу тренувальних факторів і прогнозування спортивних результатів. Завдання дослідження: — проаналізувати сучасні підходи і статистичні методи, які застосовуються для аналізу спортивних показників; — розробити математичну модель для аналізу залежностей між тренувальними факторами й спортивними результатами; — створити веб-застосунок для візуалізації результатів моделювання. Об’єкт дослідження — статистичні методи й алгоритми аналізу даних, які використовуються для виявлення залежностей і побудови прогнозів. Предмет дослідження — статистичні методи для оцінки впливу тренувальних факторів і прогнозування спортивних показників. Методи дослідження: кореляційний аналіз для виявлення й відбору найбільш значущих факторів, які впливають на спортивні результати; множинна лінійна регресія з оцінкою параметрів методом найменших квадратів; перевірка статистичної значущості коефіцієнтів регресії за допомогою критерію Стьюдента; перевірка адекватності моделі за допомогою критерію Фішера-Снедекора. Практична цінність розробленого програмного інструменту полягає в можливості аналізу впливу різних факторів на результативність спортсменів. Результати аналізу можуть бути використані для вдосконалення й персоналізації тренувального процесу. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на ХХІІ Міжнародній науково-практичній конференції молодих вчених і студентів «Сучасні проблеми наукового забезпечення енергетики», м. Київ, 22-25 квітня 2025 року. Результати дослідження опубліковані в науковому журналі «Вісник Херсонського національного технічного університету», № 3, 2025. Дисертація складається зі вступу, п’яти розділів і висновків. Загальний обсяг роботи становить 106 сторінок, з яких 84 сторінки — основний текст. Робота містить 6 таблиць, 42 рисунки, список використаних джерел, який налічує 47 найменувань. Дисертація демонструє розробку програмного інструменту для аналізу впливу тренувальних факторів на результативність спортсменів із можливістю прогнозування результатів на основі виявлених залежностей. Програмний інструмент реалізовано у вигляді веб-застосунку на основі клієнт-серверної архітектури, де клієнтська частина розроблена з використанням фреймворку Angular (TypeScript), серверна частина з використанням фреймворку NestJS (TypeScript), а як систему керування базами даних використано PostgreSQL. У роботі застосовано такі статистичні методи, як кореляційний аналіз, множинна лінійна регресія, критерій Стьюдента, критерій Фішера-Снедекора. Веб-застосунок забезпечує користувачам можливість аналізувати вплив факторів на результат за стандартним або власним показником, прогнозувати результат на основі виявлених залежностей на обрану майбутню дату й вести щоденник тренувань.Документ Відкритий доступ Web-платформа підтримки ментального здоров’я з інтеграцією технологій машинного навчання(КПІ ім. Ігоря Сікорського, 2025) Хороших, Олександр Леонідович; Сегеда, Ірина ВасилівнаСтруктура та обсяг кваліфікаційної роботи. Магістерська дисертація складається зі вступу, шести розділів, висновків та додатка. Робота містить посилання на 33 джерела, 15 таблиць, 26 ілюстрацій. Основна частина викладена на 110 сторінках, загальний обсяг роботи 122 сторінки. Актуальність. У сучасному цифровому суспільстві зростає усвідомлення важливості ментального здоров’я як одного з ключових чинників загального добробуту людини. Стрес, тривожність і емоційне вигорання стають поширеними проблемами, особливо серед молоді та осіб, що перебувають у кризових умовах. Однак доступ до кваліфікованої психологічної допомоги часто є обмеженим через брак фахівців, стигматизацію теми або фінансові бар’єри. У зв’язку з цим актуальним є створення цифрових інструментів самодопомоги, які поєднують простоту використання, доступність і персоналізацію. Одним з перспективних напрямів є розробка веб-платформ, здатних не лише фіксувати психоемоційний стан користувача, а й надавати індивідуальні рекомендації на основі аналізу текстів і поведінкових даних. Застосування алгоритмів машинного навчання, зокрема TF-IDF та cosine similarity, дозволяє сформувати релевантні поради, враховуючи індивідуальні особливості користувача, його емоційні коливання та взаємодію з платформою . Метою роботи є розробка веб-платформи підтримки ментального здоров’я, яка забезпечує персоналізовану взаємодію з користувачем на основі алгоритмів машинного навчання, дозволяє вести щоденник, фіксувати настрій, переглядати аналітику та отримувати рекомендації й навчальний контент для емоційної самопідтримки. Для досягнення поставленої мети виконано такі завдання: — проаналізовано сучасні цифрові сервіси у сфері ментального здоров’я; — досліджено математичні основи NLP-моделей, алгоритмів TF-IDF та cosine similarity; — спроєктовано архітектуру клієнтсько-серверної веб-платформи; — розроблено серверну частину на основі Nest.js та базу даних у PostgreSQL; — реалізовано клієнтську частину з використанням Next.js, Tailwind CSS і React Query; — створено функціональні модулі: щоденник, трекер настрою, навчальні вправи, чат і система рекомендацій; — проведено дослідження розробленої системи. Об’єкт дослідження — процес цифрової підтримки ментального здоров’я користувачів у веб-середовищі. Предмет дослідження — веб-платформа з модульною архітектурою, що реалізує фіксацію емоційного стану, персоналізовані рекомендації та навчальний контент. Методи дослідження — аналіз, NLP, векторне подання текстів, проєктування, програмування, валідація, REST API, тестування. Практичне значення роботи полягає у створенні повнофункціонального веб-застосунку, який може бути використаний як цифровий інструмент самодопомоги для покращення ментального стану користувача. Платформа також є адаптивною до впровадження у навчальні, корпоративні чи медичні середовища для моніторингу емоційного стану та надання рекомендацій. Апробація результатів дисертації. Основні положення магістерської роботи були опубліковані та презентовані на: XIII Міжнародна науково-практична конференція «Modern digital technologies and problems of their use» Технічні науки, 24 листопада, Прага, Чехія. Результати дослідження представлені у 1 науковій публікації. Розроблена веб-платформа підтримки ментального здоров’я реалізована як клієнтсько-серверний застосунок із використанням фреймворків Nest.js для серверної частини та Next.js для клієнтського інтерфейсу. Для взаємодії з базою даних використано ORM Sequelize та реляційну СКБД PostgreSQL, що забезпечує ефективне зберігання психологічних даних користувачів, їхніх записів настрою, журналів та історії рекомендацій. Система має модульну архітектуру й охоплює ключові функціональні блоки: щоденник, трекер настрою, аналітику, чат-бот та модуль персоналізованих рекомендацій, що працює на базі алгоритмів TF-IDF та косинусної подібності. Користувачі отримують можливість фіксувати свій емоційний стан, спостерігати динаміку змін за допомогою графіків (реалізованих через Chart.js), а також взаємодіяти з інтерфейсом через зручний дизайн, створений на Tailwind CSS. Завдяки використанню сучасного технологічного стеку, система відзначається високою продуктивністю, масштабованістю, безпекою та зручністю адаптації до потреб різних цільових груп. Це дозволяє не лише підвищити рівень саморефлексії користувачів, а й створити надійну основу для подальшого впровадження платформи в освітні, корпоративні або медичні середовища.Документ Відкритий доступ Методи штучного інтелекту для розпізнавання рослин на зображеннях для реалізації Android-додатків(КПІ ім. Ігоря Сікорського, 2025) Степаненко, Микола Федорович; Сегеда, Ірина ВасилівнаТрадиційні методи ботанічної ідентифікації вимагають глибоких знань систематики та багаторічного досвіду. Більшість існуючих мобільних рішень для розпізнавання рослин потребують постійного інтернет-з’єднання та не підтримують одночасну ідентифікацію декількох об’єктів на зображенні. Актуальність роботи обумовлена потребою в доступних інструментах для ботанічної освіти та екологічного моніторингу. Застосування архітектури MobileNetV2 з квантизацією моделі забезпечує баланс між точністю класифікації та обчислювальною ефективністю на пристроях з обмеженими ресурсами. Мета роботи полягає у розробці методів штучного інтелекту для автоматичного розпізнавання рослин на зображеннях та реалізації Android-додатку з повною офлайн функціональністю і підтримкою детекції множинних об’єктів. Завдання дослідження включають: 1) аналіз існуючих методів комп’ютерного зору для класифікації рослин. 2) розробку архітектури згорткової нейронної мережі на базі MobileNetV2; 3) підготовку датасету шляхом об’єднання Oxford Flowers 102 та Kaggle Flower Recognition; 4) навчання моделі з трансферним навчанням та INT8 квантизацією; 5) розробку Android-додатку з інтеграцією TensorFlow Lite та ML Kit; 6) проведення тестування системи та аналіз точності розпізнавання. Об’єктом дослідження є процес автоматичної класифікації рослин на основі візуальних ознак зображень. Предметом дослідження є методи глибокого навчання для розпізнавання квітів на мобільних платформах Android. Методи дослідження включають машинне навчання на базі згорткових нейронних мереж, трансферне навчаня для адаптації попередньо навчених моделей, квантизацію моделей для оптимізації швидкості інференсу, методи комп’ютерного зору для детекції множинних об’єктів, експериментальне тестування на реальних пристроях. Практичне значення отриманих результатів полягає у створенні повнофункціонального мобільного додатку для офлайн розпізнавання рослин, який може застосовуватися в ботанічній освіті для навчання видового різноманіття без залучення експертів, екологічних дослідженнях для документування флори у віддалених локаціях, туристичних подорожах для швидкої ідентифікації рослин, а також любительському садівництві для визначення декоративних видів. Апробація результатів дослідження. Основні положення роботи представлено на VIII Міжнародній науково-практичній конференції «Modern technologies in education, work and science». Робота складається зі вступу, п’яти розділів, загальних висновків, списку використаних джерел та додатків. Загальний обсяг становить 116 сторінок, включає 32 таблиці, 16 рисунків та 43 джерел літератури. Мобільний Android-додаток для офлайн розпізнавання квітів на зображеннях. Програма використовує згорткову нейронну мережу MobileNetV2 з INT8 квантизацією для класифікації 101 виду квітів. Підтримує детекцію множинних об'єктів на одному зображенні за допомогою ML Kit Object Detection. Реалізовано функції журналювання ідентифікацій з геолокацією, інтерактивну карту, довідник квітів та двомовний інтерфейс (українська/англійська). Розмір моделі: 2,76 МБ, точність класифікації: 96%.Документ Відкритий доступ Імітаційна модель системи захисту мережевої інфраструктури від кібератак(КПІ ім. Ігоря Сікорського, 2025) Снігур, Вероніка Василівна; Лабжинський, Володимир АнатолійовичАктуальність теми. Сучасні корпоративні мережі повинні бути здатними функціонувати в умовах постійно зростаючих кіберзагроз, серед яких найбільш поширеними типами є DDoS-атаки, Brute-force, несанкціонований доступ, а також втручання у мережеві протоколи. За відсутності сегментації, налаштованих політик доступу, централізованого журналювання та систем для виявлення загроз мережі стають критично вразливими. Тому розробка імітаційних моделей захисту мережевої інфраструктури є актуальним завданням, що має значну практичну цінність у галузі кібербезпеки. Метою роботи є створення імітаційної моделі корпоративної мережі та проведення експериментального оцінювання ефективності систем захисту в умовах симуляції реальних кіберзагроз. Завдання дослідження: — провести аналіз сучасних методів і засобів захисту мережевої інфраструктури; — розробити імітаційну модель корпоративної мережі з сегментацією VLAN, ACL, NAT, VPN та периметровим захистом ASA firewall; — налаштувати комплекс механізмів безпеки на основі фаєрвола Cisco ASA та мережевих політик; — змоделювати типові кібератаки (DDoS/ICMP-flood, Brute-Force, спроби несанкціонованого доступу) та дослідити реакцію системи; — здійснити аналіз продуктивності та визначити ефективність реалізованих механізмів захисту; — сформувати рекомендації щодо подальшого вдосконалення моделі. Об’єкт дослідження — корпоративна мережева інфраструктура та її компоненти. Предмет дослідження — імітаційна модель системи захисту мережевої інфраструктури від кібератак та її поведінка під час надмірного навантаження. Практична цінність отриманих результатів полягає у створенні повноцінної моделі, що дозволяє досліджувати кіберзагрози без ризику для реальних систем, оцінювати ефективність політик безпеки, відтворювати сценарії атак і тестувати реакцію фаєрвола, ACL, VPN та Syslog-журналювання. Розроблена модель може бути використана не лише як навчальна або дослідницька платформа, але й як практичний інструмент для попереднього тестування політик безпеки, оцінювання кібервитривалості та планування модернізації реальних корпоративних мереж. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на XIV Міжнародній науково-практичній конференції «Прикладна геометрія, інженерна графіка та об’єкти інтелектуальної власності», 21 травня 2025, м. Київ, Україна [1]. Структура роботи. Дисертація складається зі вступу, п’яти розділів, висновків, списку використаних джерел та додатків. Повний обсяг роботи становить 100 сторінок, включаючи 46 рисунків, 15 таблиць та 36 джерел у списку літератури. Розроблене програмне забезпечення являє собою імітаційну модель корпоративної мережі, реалізовану у середовищі Cisco Packet Tracer з використанням маршрутизатора, комутаторів, VLAN-сегментації та міжмережевого екрана Cisco ASA. ПЗ забезпечує відтворення типових мережевих процесів, моделювання кібератак (ICMP-flood, DDoS, brute-force, несанкціонований доступ), а також оцінку роботи механізмів захисту — ACL, NAT, VPN, IDS/IPS та Syslog-моніторингу. Система дозволяє запускати експерименти, фіксувати реакцію мережі, аналізувати логи та порівнювати ефективність різних конфігурацій безпеки, що робить її зручним інструментом для дослідження стійкості інфраструктури до атак у контрольованих умовах.Документ Відкритий доступ Автоматизація процесу закупівель енергетичного обладнання(КПІ ім. Ігоря Сікорського, 2025) Середа, Владислав Олександрович; Тарнавський, Юрій АдамовичСфера закупівель енергетичного обладнання стрімко переходить до цифрових рішень, оскільки традиційні паперові або напівавтоматизовані процеси не забезпечують достатньої швидкості, прозорості та точності під час взаємодії підприємств із постачальниками. Актуальність теми обумовлена зростанням потреби в ефективних ІТ-інструментах, здатних оптимізувати формування замовлень, контроль залишків, облік транзакцій, аналітику закупівель та подальшу взаємодію з постачальниками. Автоматизація цих процесів дає змогу зменшити людський фактор, прискорити ухвалення рішень та підвищити економічну ефективність підприємств енергетичного сектору. Мета роботи полягає у розробленні веб-системи для автоматизації процесу закупівель енергетичного обладнання з використанням сучасних веб-технологій, механізмів обробки даних та інтеграції безпечних онлайн-платежів. Завдання дослідження включають: визначення ключових бізнес-процесів у сфері закупівель енергообладнання; вибір технологій та інструментів для побудови надійної веб-платформи; розроблення модулів оформлення замовлень, аналітики, обліку та взаємодії з постачальниками; інтеграцію сервісу онлайн-платежів LiqPay; проведення тестування продуктивності та оптимізацію системи під реальні навантаження. Об’єктом дослідження є процес організації та виконання закупівель енергетичного обладнання. Предметом дослідження є методи та програмні засоби автоматизації закупівельних процесів у веб-середовищі. Методи дослідження включають аналіз бізнес-процесів, проєктування архітектури інформаційних систем, застосування фреймворку Spring, моделювання бази даних, інтеграцію зовнішніх API, а також тестування продуктивності та функціональне тестування веб-додатку. Апробація результатів дослідження. Основні положення роботи представлено на XXII-й міжнародній науково-практичній конференції молодих вчених та студентів “Сучасні проблеми наукового забезпечення енергетики”. Робота складається зі вступу, п’яти розділів, загальних висновків, списку використаних джерел і додатків. Загальний обсяг роботи становить 96 сторінок, включає 3 таблиці, 34 рисунка і 27 використаних джерел. Розроблена веб-платформа автоматизує ключові процеси закупівель енергетичного обладнання, забезпечуючи зручну взаємодію користувачів із системою. Функціонал передбачає роботу в режимі гостя та авторизованого користувача: зареєстровані користувачі отримують доступ до оформлення закупівель та регулярних підписок, керування кошиком, здійснення онлайн-платежів та перегляду хроніки операцій. Гості можуть ознайомлюватися з асортиментом обладнання та характеристиками товарів без необхідності авторизації. Платформа має інтуїтивно зрозумілий інтерфейс, що спрощує початкову навігацію та користування сервісом. Система розгорнута на публічному домені та пройшла перевірку працездатності, що підтверджує готовність до навантажень у реальних умовах експлуатації.Документ Відкритий доступ Оптимізація базових операцій з текстовими даними з використанням кешування(КПІ ім. Ігоря Сікорського, 2025) Кізіріді, Михайло Олександрович; Михайлова, Ірина ЮріївнаАктуальність теми. Сучасні веб-застосунки працюють з великими обсягами текстових даних і мільйонними потоками запитів, що призводить до значного навантаження на серверну інфраструктуру та бази даних. Часті повторні звернення створюють затримки, погіршують масштабованість і знижують загальну продуктивність систем. Одним з найефективніших способів оптимізації доступу до даних є кешування – збереження часто використовуваної інформації у швидкодоступних пам’ятевих сховищах. Використання Redis як розподіленого кеша дозволяє суттєво зменшити обсяг звернень до бази даних, прискорити роботу веб-застосунків і підвищити їх стійкість до навантажень, що обумовлює актуальність даної роботи. Мета роботи – розробити методи та засоби оптимізації процесів читання й оновлення текстових даних у веб-застосунку шляхом інтеграції механізмів кешування на основі Redis. Завдання дослідження: проаналізувати особливості роботи з текстовими даними у веб-застосунках; дослідити існуючі підходи до кешування та керування кешем; спроєктувати архітектуру веб-системи з використанням розподіленого кешу Redis; реалізувати механізми кешування текстових даних, лічильників переглядів і «лайків»; провести експериментальне порівняння роботи системи з кешуванням та без нього; оцінити отримане прискорення та зменшення навантаження на базу даних. Об’єкт дослідження – методи оптимізації зберігання та доступу до текстових даних. Предмет дослідження – методи та засоби кешування, що використовуються для оптимізації зберігання та доступу до текстової інформації. Методи дослідження. У роботі застосовано методи системного та порівняльного аналізу, профілювання навантаження, інструментальні методи вимірювання продуктивності, а також практичні підходи програмної інженерії при розробці кеш-рішень. Наукова новизна. Запропоновано комплексний підхід до кешування даних у веб-застосунку, який поєднує синхронні та асинхронні моделі оновлення для різних типів даних. Реалізація комбінованого підходу дозволяє одночасно забезпечити високу швидкодію для читання статичних матеріалів і точність відображення динамічних показників, зберігаючи узгодженість між Redis та PostgreSQL. Практичне значення. Розроблений механізм кешування дозволив зменшити середній час відповіді API у 3,5 раза, а кількість звернень до бази даних – більш ніж удвічі. Запропоновану архітектуру може бути використано для оптимізації будь-яких контент-орієнтованих систем, особливо тих, що працюють з великими масивами текстових даних. Апробація результатів. Основні положення, наукові результати та практичні напрацювання магістерської роботи були представлені й обговорені на VIII Всеукраїнській науково-практичній інтернет-конференції молодих вчених та студентів «Сучасні інформаційні системи та технології», що відбулася 24 листопада 2025 р. у Херсонському національному технічному університеті на базі кафедри комп’ютерних систем та мереж за тематикою «Сучасні комп’ютерні системи та мережі в управлінні». За матеріалами роботи було підготовлено та опубліковано тезу доповіді на тему «Методи оптимізації зберігання та доступу до текстових даних із використанням кешування» у збірнику матеріалів зазначеної конференції. Структура та обсяг магістерської роботи. Робота складається зі вступу, п’яти розділів, висновків, списку використаних джерел і додатків. Загальний обсяг становить 105 сторінки, містить 9 таблиць, 25 рисунків та 40 джерел. Розроблена система є багаторівневим веб-застосунком, побудованим за принципами клієнт–серверної архітектури. Основні компоненти системи: клієнтська частина – реалізована з використанням React.js, відповідає за відображення інтерфейсу користувача, відправлення запитів до сервера через HTTP-протокол та обробку отриманих відповідей; серверна частина (Backend API) – створена на основі ASP.NET Core, реалізує бізнес-логіку, забезпечує обробку запитів від клієнта, звернення до бази даних та керування кешем; система кешування Redis – використовується для зберігання часто запитуваних даних (метаданих статей, коментарів, станів «лайків» тощо), що дозволяє зменшити кількість звернень до бази даних і підвищити швидкодію; сховище Amazon S3 – використовується для зберігання текстових матеріалів (HTML-файлів статей) та зображень; база даних PostgreSQL – виступає постійним джерелом даних, у якому зберігається основна інформація про користувачів, статті, категорії, коментарі, теги та інші сутності. Система побудована з урахуванням принципів розділення відповідальності та масштабованості, що дозволяє легко розширювати її функціональність або адаптувати під нові вимоги. Взаємодія між компонентами реалізована за допомогою HTTP-запитів та AWS SDK для роботи з хмарними сервісами.Документ Відкритий доступ Удосконалення SWOT-аналізу впровадження штучного інтелекту у вищу освіту(КПІ ім. Ігоря Сікорського, 2025) Лень, Владислав Віталійович; Кублій, Лариса ІванівнаУ сучасному світі система вищої освіти зіштовхується з необхідністю модернізації на фоні стрімкого впровадження технологій штучного інтелекту, які мають значний потенціал для підвищення якості навчання та оптимізації адміністративних процесів. Проте застосування ШІ пов’язане з новими викликами та ризиками, що потребує ефективних інструментів стратегічного планування. Наявні методи SWOT-аналізу часто характеризуються суб’єктивністю експертних оцінок і відсутністю інструментів для пріоритизації факторів. Це створює потребу в удосконаленні аналітичного інструментарію шляхом інтеграції методів експертної оцінки та автоматизації процесів прийняття рішень. Значущість теми дослідження обумовлена необхідністю забезпечення закладів вищої освіти науково обґрунтованими інструментами для розробки стратегій цифрової трансформації. Мета роботи полягає в удосконаленні інформаційно-аналітичного інструментарію SWOT-аналізу впровадження штучного інтелекту у вищу освіту. Завдання дослідження: — проаналізувати можливості й загрози впровадження ШІ в освіту; — обґрунтувати доцільність використання SWOT-аналізу як інструменту стратегічного планування; — провести порівняльний аналіз наявного програмного забезпечення; — розробити методику інтеграції коефіцієнта конкордації Кендалла в структуру SWOT-аналізу; — спроєктувати архітектуру та реалізувати веб-застосунок з автоматизованими розрахунками.. Об’єктом дослідження є інформаційно-аналітичні інструменти стратегічного менеджменту. Предметом дослідження є інформаційно-аналітичні інструменти SWOT-аналізу впровадження штучного інтелекту у вищу освіту. Методи дослідження включають системний аналіз, методи SWOT-аналізу, методи експертного оцінювання (зокрема, розрахунок коефіцієнта конкордації), об’єктно-орієнтоване проєктування, програмну реалізацію веб-застосунків. Практичне значення отриманих результатів полягає в розробці системи для ранжирування ризиків і можливостей на основі методів експертної оцінки, що спрощує процес прийняття обґрунтованих адміністративних рішень у закладах освіти. Апробація результатів дослідження. Основні положення роботи доповідалися на ХХІІ Міжнародній науково-практичній конференції молодих вчених і студентів (м. Київ, 22‒25 квітня 2025 року),та опубліковані у журналі «Вісник Херсонського національного технічного університету» (№ 3, 2025). Робота складається зі вступу, п’яти розділів, висновків, списку використаних джерел і додатків. Загальний обсяг роботи становить 116 сторінок, включає 26 таблиць, 22 рисунки та 47 джерел літератури.Документ Відкритий доступ Підвищення безпеки захисту даних при використанні контекстно-залежної автентифікації(КПІ ім. Ігоря Сікорського, 2025) Гармаш, Діана Віталіївна; Отрох, Сергій ІвановичМагістерська дисертація виконана на 81 сторінках, містить 10 ілюстрацій, 2 додатки, 20 джерел у переліку посилань. Робота присвячена розробці системи контекстно-залежної автентифікації для підвищення безпеки захисту даних у веб-застосунках. Проведено аналіз традиційних методів автентифікації та їх обмежень, досліджено переваги контекстно-адаптивного підходу. Мета роботи – створення програмного забезпечення, що використовує сучасні технології серверної розробки для впровадження системи контекстно-адаптивної автентифікації користувачів у веб-додатках. Методи та засоби: Java 17, Spring Boot, Spring Security, Spring Data JPA, Spring AOP, PostgreSQL, JWT (JSON Web Tokens), BCrypt, Maven, Thymeleaf, Bootstrap, Hibernate, IntelliJ IDEA. Результат – програмна система контекстно-залежного контролю доступу з веб-інтерфейсом для адміністрування та моніторингу безпеки. Розроблено систему контекстно-адаптивної автентифікації на основі Spring Boot для підвищення безпеки доступу до веб-застосунків. Система аналізує контекстуальні параметри (IP-адреса, тип пристрою, браузер, операційна система, геолокація, часові патерни) для динамічного визначення рівня довіри користувача. Основні функціональні можливості: управління користувачами та тегами, управління ресурсами, створення правил доступу на основі контексту, перевірка доступу в реальному часі, моніторинг спроб автентифікації, адаптивна багатофакторна автентифікація.Документ Відкритий доступ Методи інтеграції інструментів штучного інтелекту для автоматизованого аналізу ефективності роботи підприємства на основі обробки структурованих фінансових даних(КПІ ім. Ігоря Сікорського, 2025) Демидович, Демид Петрович; Кублій, Лариса ІванівнаАктуальність теми. Складність і трудомісткість ручної обробки значних обсягів фінансових даних, які накопичуються в типових інформаційних системах керування, ускладнює своєчасне прийняття обґрунтованих управлінських рішень, особливо для малих підприємств і користувачів без спеціальної підготовки. Використання методів машинного навчання дає можливість автоматизувати ці процеси, зменшуючи вплив людського фактора і сприяє виконанню своєчасних управлінських рішень. Метою роботи є дослідження методів інтеграції ШІ в автоматизовані системи і розробка концептуального підходу до інтеграції інструментів штучного інтелекту в систему фінансового моніторингу підприємства для автоматизації оцінювання його ефективності. Завдання дослідження: — проаналізувати наявні методи інтеграції інструментів штучного інтелекту у веб-застосунки; — розробити алгоритми для агрегації даних формування єдиної таблиці фінансових потоків; — інтегрувати LLM для інтерпретації та автоматизації аналізу фінансових даних; — створити аналітичний модуль для розрахунку основних фінансових показників і модуль виявлення аномальних даних; — створити інтегральний показник для наочного відображення поточного фінансового стану підприємства; — провести тестування розробленого програмного продукту. Об’єкт дослідження — методи інтеграції інструментів штучного інтелекту. Предмет дослідження — автоматизований аналіз структурованих фінансових даних, прогнозування фінансових показників і виявлення аномальних даних на основі інтеграції інструментів штучного інтелекту. Практична цінність отриманих в роботі результатів полягає у створенні комплексної, автоматизованої гібридної системи аналізу фінансового потоку, яка забезпечує користувачам, зокрема малому й середньому бізнесу без розвинутого фінансового відділу, можливість отримувати достовірну й доступну аналітику для оперативного контролю, прогнозування, виявлення аномалій і підтримки обґрунтованих управлінських рішень. Апробація результатів дисертації. Основні положення роботи доповідалися та обговорювалися на: Науково-технічній конференції молодих вчених «Актуальні проблеми інформаційних технологій» (APIT-2025), 23 жовтня 2025 року, м. Київ, Україна; VIІI Всеукраїнській науково-практичній інтернет-конференції студентів, аспірантів та молодих вчених, «Сучасні комп’ютерні системи та технології», 24 листопада, 2025 м. Херсон, м. Хмельницький, Україна. Подано статтю в науковий журнал «Вісник Кременчуцького національного університету імені Михайла Остроградського» (№ 5, 2025). Дисертація складається зі вступу, п’яти розділів та висновків. Повний обсяг дисертації становить 113 сторінок, у тому числі 90 сторінок основного тексту, 19 таблиць, 51 рисунок, 5 сторінок списку використаних джерел у кількості 36 найменувань.Документ Відкритий доступ Фреймворк для тестування панелей світлодіодів з використанням бібліотек NumPy, SciPy(КПІ ім. Ігоря Сікорського, 2025) Гевліч, Тарас Вікторович; Кузьменко, Ігор МиколайовичАктуальність теми У сучасному масовому виробництві електроніки забезпечення якості світлодіодної індикації є критичним фактором. Існуючі методи ручного контролю є суб’єктивними, повільними та нездатними фіксувати високочастотні дефекти (ШІМ-мерехтіння). Автоматизація цього процесу з використанням сучасних методів обробки сигналів та наукових бібліотек (NumPy, SciPy) є актуальним науково-практичним завданням, що дозволяє підвищити точність діагностики. Мета роботи Підвищення ефективності та достовірності контролю якості світлодіодних панелей шляхом створення програмного фреймворку для автоматизованого аналізу, генерації еталонів та верифікації динамічних патернів індикації. Завдання дослідження: 1. Провести аналіз предметної області контролю якості в електроніці, виявити недоліки існуючих методів та обґрунтувати доцільність використання інструментального аналізу сигналів фотодатчиків. 2. Розробити математичні моделі генерації еталонів та алгоритми комплексного порівняння сигналів у часовій і частотній областях. 3. Реалізувати програмне забезпечення фреймворку з модульною архітектурою (ETL, аналітичне ядро, веб-інтерфейс) для автоматизованої обробки даних. 4. Провести експериментальну валідацію розробленої системи та порівняльний аналіз її ефективності відносно існуючих аналогів. 5. Розробити стартап-проєкт для комерціалізації створеного програмного продукту. Об’єкт дослідження – процес автоматизованого контролю та діагностики функціонування світлодіодних інтерфейсів. Предмет дослідження – методи, алгоритми та програмні засоби обробки, аналізу та порівняння часових рядів сигналів світлодіодної індикації. Методи дослідження: системний аналіз (для визначення вимог), цифрова обробка сигналів (лінійна інтерполяція, FFT), математична статистика (кореляційний аналіз, агрегація), об’єктно-орієнтоване проєктування. Наукова новизна: вдосконалено метод верифікації динамічних світлових сигналів шляхом поєднання аналізу в часовій та частотній областях (FFT), що, на відміну від аналогів, дозволяє з високою точністю детектувати дефекти частоти мерехтіння та часові розбіжності без використання дороговартісного обладнання машинного зору. Практичне значення: розроблений програмний комплекс led_testing_toolkit та веб-додаток забезпечують автоматизацію створення «золотих стандартів» якості, пакетну обробку лог-файлів та візуалізацію результатів, що скорочує час перевірки продукції та виключає вплив людського фактору. Апробація результатів дисертації. Основні положення роботи доповідались на XI Міжнародній науковій та практичній конференції "Global Trends in Science and Education", 17-19 листопада 2025 р., м. Київ, Україна. Дисертація складається з вступу, п’яти розділів та висновків. Повний обсяг дисертації складає 96 сторінок, в тому числі 83 сторінки основного тексту, 16 таблиць, 12 рисунків, 5 cторінок списку використаних джерел у кількості 65 найменувань.Документ Відкритий доступ Методи розпізнавання української мови в NLP-системах(КПІ ім. Ігоря Сікорського, 2025) Грищенко, Валерія Володимирівна; Онисько, Андрій ІллічМагістерська робота присвячена дослідженню, порівнянню та впровадженню сучасних методів розпізнавання української мови в NLP-системах. У роботі розглянуто повний цикл автоматизованої обробки текстової інформації, який включає етапи очищення, нормалізації, токенізації, морфологічного аналізу, лематизації, виділення іменованих сутностей (NER), тематичної класифікації та аналізу тональності. Особливу увагу приділено специфіці української мови, її морфологічній багатоваріантності, проблемам контекстної багатозначності та складності побудови адекватних моделей для коректної інтерпретації тексту. У межах роботи проведено порівняльне дослідження трансформерних моделей mBERT, XLM-R та RoBERTa-uk, які є найефективнішими сучасними інструментами для роботи з українськими текстами. Проаналізовано їх архітектуру, особливості навчання, мовне покриття та точність на різних NLP-задачах. На основі отриманих результатів створено програмний комплекс із модульною архітектурою, що дозволяє інтегрувати різні алгоритми, масштабувати систему та використовувати її в інформаційно-аналітичних платформах. Сформований програмний конвеєр забезпечує автоматизовану інтерпретацію великих масивів україномовних текстів, що робить його придатним для застосування у задачах моніторингу, аналізу подій, інформаційної безпеки, журналістики даних та інтелектуальних сервісів підтримки прийняття рішень. Проведені експериментальні дослідження підтверджують ефективність обраних методів та демонструють високу якість роботи системи.