2024
Постійне посилання на фонд
Переглянути
Перегляд 2024 за Дата публікації
Зараз показуємо 1 - 20 з 23
Результатів на сторінці
Налаштування сортування
Документ Відкритий доступ Time portrait of the student’s behavior and possibilities of its use(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Poriev, V.Об’єктом дослідження, представленим у цій статі, є процес класифікації поведінки студентів на основі формалізованого опису виконання завдань впродовж певного циклу навчання. Метою дослідження є створення формалізованого опису поведінки студентів щодо виконання завдань впродовж певного циклу навчання задля покращення достовірності характеристики кожного студента при автоматизованому аналізі даних в інформаційних системах. Для того, щоб досягти цієї мети, запропоновано часовий портрет студента поведінки студента. Це стилізоване представлення часового ряду у вигляді лінії, форма якої репрезентує запізнення або випередження термінів виконання завдань при вивченні певної дисципліни. Виділено основні типи поведінки студентів. Кожному типу поведінки відповідає форма лінії на часовому портреті. Для наділення інформаційних систем можливостями аналізу поведінки досліджено питання класифікації портретів нейронними мережами. Запропоновано виконувати класифікацію з використанням багатошарової нейронної мережі. Задля прискорення навчання та зручності подальшої класифікації запропоновано розділити мережу на декілька субмереж, кожна з яких може навчатися окремо. Проаналізовані питання відповідного навчання нейронної мережі на основі датасетів реальних навчальних занять з групами студентів. Доведена здатність нейронної мережі класифікувати портрети поведінки студентів. Результати виконаного дослідження можуть бути використані для аналізу даних у комп’ютеризованих системах підтримки навчання.Документ Відкритий доступ Method of dynamic reconfiguration of software-defined networks(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Oboznyi Dmytro; Kulakov YuriyВ статті представлений метод динамічної реконфігурації бездротової програмно-конфігурованої мережі з використання випадкових геометричних графів перетину. Розмірність мереж і глобалізація бізнесу зростають, тому потреби в ефективному управлінні мережею та підвищенні швидкості та надійності передачі даних стають дедалі гострішими. Основним завданням ефективної роботи пристроїв є підвищення відмовостійкості мережі та покращення її швидкісних характеристик. Поширення віддаленої роботи вимагає адаптації компонентів інфраструктури на підприємствах для безпечної та швидкої переналаштування відповідно до потреб бізнесу. Тому розробка нових методів реконфігурації топології комп'ютерних мереж і поліпшення характеристик передачі даних є одними з найбільш актуальних проблем галузі. Метою даного дослідження є розробка методу реконфігурації програмно визначених бездротових мереж для підвищення відмовостійкості мережі та покращення характеристик передачі даних. Це дозволить продовжити передачу даних і запобігти втраті інформації при втраті певних каналів зв'язку або їх перевантаженні іншими мережами чи засобами впливу. Об’єктом дослідження є процес генерації топології програмно-конфігурованої мережі за допомогою теорії графів, а саме – випадкових геометричних графів перетину. Також об’єктом дослідження є вплив завантаженності бездротового каналу зв’язку на якісні характеристики каналів передачі даних. Для досягнення поставленої мети були поставлені наступні задачі: – розробити метод генерації топології мережі SDN за допомогою графа випадкового геометричного перетину. – визначити вплив показника завантаженності каналу бездротового зв’язку на швидкість передачі даних. Провести дослідження з різними типами налаштувань точок доступу в протоколах IEEE 802.11 n, ac, ax з різними режимами multi input multi output (MIMO). Порівняльний аналіз використання графів випадкових геометричних перетинів у порівнянні з графами Ердеша–Реньї та геометричним графом у мережах SDN теоретично обґрунтував переваги використання графа випадкових геометричних перетинів у методі генерації топології відмовостійкої мережі SDN. Також було досліджено вплив завантаженності каналу зв’язку в бездротових мережах. Встановлено, що параметр MIMO впливає на характеристики мережі більше ніж QAM та OFDMA. Результати практичних досліджень підтверджують правильність обраних методів для реконфігурації бездротових SDN мереж.Документ Відкритий доступ Method for mapping cyclo-dynamic dataflow into pipelined datapath(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Sergiyenko, Anatoliy; Mozghovyi, IvanУ статті представлено огляд систем високорівневого синтезу для проектування конвеєрних обчилювачів. Мета полягає в дослідженні методів відображення алгоритмів у конвеєрні обчилювачі, що реалізують циклічні алгоритми з графами потоків даних із динамічним розкладом. Граф циклодинамічних потоків даних (ГЦДПД) вибрано як виразну модель для опису широкої області алгоритмів обробки потоків даних. ГЦДПД відрізняється тим, що період алгоритму залежить від обчислених даних і має динамічний розклад. Сформульовано набір умов відображення, які забезпечують розклад ГЦДПД без взаємоблокувань, коли його відображають у конвеєрний обчислювач. Згідно з запропонованому методу, алгоритм представляється ГЦДПД і керуючими автоматами. Причому останні є підграфами ГЦДПД. ГЦДПД оптимізується за допомогою методів ресинхронізації та конвеєризації. Після цього ГЦДПД та його керуючі автомати описуються мовою опису обладнання, наприклад VHDL, так само, як описується граф синхронних потоків даних при синтезі конвеєрного обчислювача. Запропонований метод включає оптимізацію ГЦДПД та його опис на VHDL для реалізації в програмованих логічних інтегральних схемах. На прикладі проєктування детектора послідовностей детально показано реалізацію методу. Більш складне відображення алгоритму декомпресії LZW демонструє, що запропонований метод досить ефективний і дає в результаті синтезу конвеєрний обчислювач, ефективність якого порівнянна з ефективністю найкращого відомого апаратного рішення. Метод може бути реалізований в сучасних системах високорівневого синтезу.Документ Відкритий доступ Method of increasing data transmission stability in software defined network considering metrics of quality of service(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Cherevatenko Oleksii; Kulakov YuriiУ даній статті представлений опис методу підвищення стабільності передачі даних у програмно конфігурованій мережі (SDN) шляхом її динамічної реконфігурації з урахуванням параметрів якості обслуговування (QoS) каналів зв’язку та надійності вузлів. Існуючі алгоритми не забезпечують комплексне вирішення задачі визначення найоптимальнішого шляху, який би забезпечив з'єднання від вихідної точки до адресата. Ними враховуються лише окремі параметри мережі, в залежності від яких витрати часу на зв’язок між вузлами є меншими, ніж у випадку з іншими маршрутами. В умовах зростання кількості користувачів комп’ютерних мереж та кількості вузлових комутаторів, існує актуальна проблема підвищення стабільності передачі даних у розгалужених комп’ютерних мережах. Це пропонується вирішити через урахування параметрів якості обслуговування каналів зв’язку при побудові маршрутів. Метою дослідження є підвищення стійкості передачі даних у віртуальній програмно-конфігурованій мережі в умовах збоїв вузлів і збільшення навантаження на канали зв’язку. Першим завданням дослідження є створення методу пошуку множини непересічних оптимальних шляхів, що враховувала би різні метрики якості обслуговування каналів зв’язку. Другим завданням дослідження є розробка механізму динамічної реконфігурації для таблиць потоків комутаторів SDN, щоб мати можливість перенаправляти трафік у разі збою окремих вузлів. В ході дослідження перше завдання було виконане математичним обґрунтуванням побудови узагальненої вагової матриці переходів між вузлами графа мережі. При створенні запиту на визначення маршруту для трафіку у мережі її статус та показники оновлюються з метою збільшення точності даних про доступні ресурси та встановлення оптимального шляху, що відповідає критеріям якості обслуговування. Пропонується враховувати для побудови шляхів чотири метрики якості обслуговування: кількість переходів між вершинами, доступну смугу пропускання, часову затримку та відсоток втрачених пакетів. За допомогою узагальненої вагової матриці переходів, контролер SDN обирає найоптимальніший шлях серед набору альтернативних непересічних шляхів. Потім використовуючи коефіцієнти надійності вузлів як обмеження для вибору оптимального шляху між вершинами, контролер обирає основний маршрут з множини альтернатив згідно встановленій адміністратором вимозі до надійності вузлів, а інші маршрути вважає резервними. Друге завдання було вирішене пропозицією методу динамічної реконфігурації мережі з використанням відомих шляхів. Якщо у процесі передачі трафіку виникає збій у проміжних ланках мережі або каналах зв’язку між ними, то для реконфігурації та обходу проблемної ділянки використовуються моніторингові дані SDN контролера, що дозволяють оперативно обрати альтернативний шлях для надсилання трафіку і побудувати новий шлях на базі вже відомих даних про канали зв’язку в мережі. Отримані результати теоретичних досліджень свідчать про правильність обраних рішень та пропозицій для поставлених у статті задач.Документ Відкритий доступ Integration of blockchain technology into the Internet of Things (overview)(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Serebriakov, Roman; Tkachenko, Valentyna; Klymenko, IrynaОдним з сучасних напрямків розвитку інформаційно-комунікаційних технологій, які еволюціонували в парадигму Інтернет речей (ІоТ), є прогресивна ідея використання технології блокчейн в ІоТ. Цей напрямок описаний в великій кількості сучасних літературних джерел, які зазначають значні переваги використання блокчейну, в першу чергу пов’язані з децентралізацією, незмінністю, прозорістю та безпекою. Це дозволяє зробити висновок про високу актуальність впровадження технології блокчейн в інформаційно-комунікаційні системи ІоТ. Однак авторами багатьох досліджень описуються значні проблеми, серед яких як проблема масштабованості самого блокчейну, так і проблеми енергоефективності та обмеженості ресурсів в пристроях ІоТ. Через ці проблеми впровадження технології блокчейн в Інтернет речей стає певним викликом та обумовлює актуальність і доцільність дослідження заданої тематики та пошуку ефективних рішень, які пов’язані з інтеграцією двох дуже потужних технологій в сучасних інформаційно-комунікаційних системах. В статті представлений аналітичний огляд проблематики інтеграції технології блокчейн в ІоТ, зокрема питання використання в ІоТ алгоритму консенсусу Proof-of-Work (PoW) та застосування альтернативних протоколів блокчейну, серед яких IOTA, Ethereum Light Client та Litecoin, які дозволяють підвищити ефективність виконання поставлених задач у ІоТ-інфраструктурі з урахуванням обмеженості ресурсів пристроїв; існуючі проблеми та способи імплементації, такі як використання легких клієнтів та проксі серверів. Також розглядається доцільність використання повного вузла блокчейну на ІоТ-пристроях та способи збільшення ефективності системи за допомогою попередньої обробки даних перед їх відправленням до блокчейн мережі. В статті також висвітлюється проблема недостатнього впровадження технології блокчейн у різні сфери життя людини, а також пошук причин що зумовлюють дану проблему. Результати аналітичного огляду в цілому дозволяють обґрунтувати мету та переваги інтеграції технології блокчейн в Інтернет речей, а також узагальнити основну проблематику і обґрунтувати ряд задач для актуальних і прогресивних наукових досліджень в області сучасних інформаційно-комунікаційних систем.Документ Відкритий доступ Method of load balancing in distributed three-layer IoT architecture(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Haidai, Anatolii; Klymenko, IrynaУ зв’язку зі зростанням кількості IoT пристроїв і необхідністю швидкої обробки даних з мінімальними затримками, традиційні хмарні обчислення стають менш ефективними. Для вирішення цієї проблеми застосовується концепція граничних обчислень, яка, хоча й підвищує продуктивність, ускладнює управління системою та вимагає ефективного розподілу навантаження для забезпечення балансу між використанням ресурсів Edge-вузлів та швидкістю обчислень. Метою даної роботи було розроблення методу балансування навантаження в тришаровій архітектурі IoT-системи, враховуючи фактичне завантаження вузлів. Проведено огляд літератури та обрано архітектурну концепцію яка відповідає новим тенденціям та складається з трьох шарів: пристроїв, що генерують дані, граничних вузлів, що обробляють інформацію, та хмари, яка зберігає дані і надає їх користувачам. Було створено прототип системи, який включає кілька Edge-вузлів на базі операційної системи Ubuntu Server 24.04 та сервери даних на основі Raspberry Pi Desktop. Розроблено математичну модель, що дозволяє оцінити навантаження на вузли залежно від типу виконуваних завдань. На створеному прототипі проведено перевірку працездатності методу з використанням математичної моделі. Результати дослідження показали, що розроблений метод успішно розподіляє навантаження між Edge-вузлами за допомогою спеціальних скриптів та елементів системи моніторингу, що відображено на графіку навантаження серверів. Запропонований метод може підвищити продуктивність системи завдяки автоматичному розподілу навантаження між вузлами. Цей підхід може стати частиною більш комплексної стратегії підвищення продуктивності та надійності IoT-систем із використанням граничних обчислень. Використання компонентів системи моніторингу для різних платформ з різною потужністю дозволяє знизити вартість системи, застосовуючи дешевші та менш потужні обчислювальні пристрої.Документ Відкритий доступ Comparative review of drone simulators(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Mykola Nikolaiev, Mykhailo NovotarskyiШвидкий розвиток безпілотних літальних апаратів (БПЛА), особливо дронів, революціонізував різні сфери науки та промисловості, включаючи сільське господарство, картографію, пошуково-рятувальні операції та інші. Для відпрацювання алгоритмів реалізації складних еволюцій траєкторій при доставці посилок або при екологічному моніторингу виникає нагальна необхідність розробки середовищ моделювання для уникнення значних ризиків, пов'язаних з реальним тестуванням. Однак різноманітність і фрагментарність доступних інструментів ускладнює вибір симуляторів для вирішення конкретних завдань. Розробники змушені балансувати між такими компромісами, як швидкість моделювання, точність імітації фізичних законів, інтеграція сенсорів і якість інтерфейсу користувача. Відсутність універсального симулятора, який би включав високоточну фізику, комплексне моделювання сенсорів та масштабованість для моделювання рою дронів, є сьогодні певною проблемою. Відомі симулятори БПЛА мають певні переваги та недоліки, але жоден з них не забезпечує комплексного вирішення всіх вимог, які необхідні для сучасних досліджень і розробок. Інтеграція різних сенсорів, таких як веб-камери, LiDAR, GPS та IMU, у системи моделювання залишається технічною проблемою, що обмежує застосовність існуючих симуляторів. Крім того, доступність ефективних симуляторів і підтримка може значно відрізнятися, що також впливає на вибір та стійкість цих інструментів. Стандартизований підхід до моделювання БПЛА може підвищити ефективність порівняння результатів досліджень, спростити зусилля при виборі та створити єдину основу для оцінки продуктивності симуляторів. Прогрес в моделюванні аеродинаміки, особливо для квадрокоптерів та БПЛА, може покращити точність і реалістичність моделювання, що краще підтримуватиме розвиток передових технологій. Майбутні дослідження мають на меті розробку більш комплексних, високоточних та масштабованих середовищ для моделювання. Це включає інтеграцію інноваційних підходів моделювання сенсорів, покращення моделювання динаміки роїв і підвищення доступності та підтримки користувачів. Основні напрямки для покращення включають: інтеграцію сенсорів для моделювання їх широкого спектру, підвищення ефективності моделювання динаміки роїв у випадках складної поведінки та взаємодії між декількома дронами, спрощення інтерфейсів користувача, надання всебічної документації, забезпечення надійної підтримки спільноти, розробку стандартизованих критеріїв для порівняння та оцінки різних симуляторів, а також урахування детальних аеродинамічних принципів для покращення точності моделювання. Вирішення цих проблем при розробці симуляторів БПЛА є важливим для розвитку аероробототехніки. Таким чином, розробка середовищ для моделювання з інтегрованими можливостями сенсорів, покращеним моделюванням динаміки роїв та зручними інтерфейсами може підвищити ефективність та результативність розвитку БПЛА. Стандартизовані критерії оцінки та детальне моделювання аеродинаміки підтримуватимуть еволюцію технологій БПЛА, забезпечуючи більш безпечні, надійні та інноваційні застосування в різних сферах. Вони сприятимуть інноваціям, технологічному прогресу та операційній ефективності у реальних умовах.Документ Відкритий доступ Some aspects of improvement of the run length encoding compression method(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Poriev, V.Об’єктом дослідження, представленим у цій статі, є метод RLE та його застосування для компресії растрових зображень. Метою даного дослідження є винайдення більш досконалих форматів кодових слів для пакування ланцюжків повторюваних пікселів сумісно з кодуванням одиночних пікселів зображення задля підвищення ступеня компресії методом RLE. Для того, щоб досягти цієї мети, виконано узагальнення відомих форматів кодових слів у вигляді відповідної структурної моделі. Це дозволило знайти деякі напрямкі вдосконалення RLE кодування. Запропоновано декілька нових способів пакування ланцюжків пікселів разом з одиночними пікселами для підвищення ступеня компресії зображень порівняно з вже відомими версіями RLE. Вказані новітні способи включено до множини способів упаковки з назвою RLE_BP. Кодер RLE_BP автоматично шукає оптимальні параметри кодових слів задля досягнення мінімально можливого обсягу двійкового коду для конкретного зображення. Виконані експериментальні дослідження компресії растрів на основі синтетичних тестів для порівняння запропонованих способів кодування з відомими реалізаціями метода RLE. Запропоновані способи кодування дозволяють досягти більшої компресії окремих категорій растрових зображень високої роздільної здатності порівняно з відомими. Результати виконаного дослідження можуть бути використані для побудови широкого класу програмно-апаратних засобів.Документ Відкритий доступ Combined pretty good privacy and Role-Based Access Control model for confidential data protection(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Kolmahin, Danyl; Sergiyenko, AnatoliyУ даній статті представлено гранулярну модель захисту доступу до конфіденційної інформації яка об'єднує технології PGP (Pretty Good Privacy) та RBAC (Role-Based Access Control). Метою дослідження є розробка та обґрунтування моделі що забезпечує високий рівень безпеки завдяки ефективному шифруванню даних та гнучкому управлінню доступом на основі ролей. У статті розглянуто об'єкти дослідження які включають сучасні інформаційні системи що обробляють конфіденційні дані та предмет дослідження який охоплює методи шифрування та контролю доступу. Для досягнення поставленої мети проведено аналіз сучасних підходів до шифрування даних та управління доступом вивчено їхні переваги та недоліки а також виявлено поточні проблеми пов'язані із забезпеченням безпеки даних у стані спокою. Було розроблено модель захисту доступу що поєднує PGP і RBAC реалізовано її в реальних умовах та проведено тестування для оцінки ефективності та зручності використання. Використання PGP дозволяє забезпечити безпеку даних у стані спокою та під час передачі тоді як RBAC дозволяє гнучко налаштовувати права доступу для користувачів. Результати досліджень показали що запропонована модель забезпечує високий рівень безпеки гнучкість управління доступом а також покращену продуктивність системи. Використання публічних та приватних ключів для шифрування симетричних ключів додатково підвищує рівень захисту запобігаючи несанкціонованому доступу до даних. Визначення ролей та привілеїв для кожного користувача забезпечує авторизований доступ до конфіденційної інформації що мінімізує ризик випадкового або зловмисного доступу до даних. Незважаючи на складність процесів шифрування та управління ключами система продемонструвала високу продуктивність оптимізовані процеси шифрування та дешифрування даних а також ефективне управління ролями та привілеями користувачів. Запропонована модель довела свою ефективність у забезпеченні високого рівня безпеки та гнучкого управління доступом до конфіденційних даних.Документ Відкритий доступ The algorithm for selecting publications on a given topic considering keyword priorities(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Suprun, Olha; Zhurakovska, OksanaThe article investigates the problems that exist in existing search engines for scientific publications. The search algorithms used in various search engines for scientific publications are described. The aim of the article is to develop a method for selecting publications on a given topic based on assessing the relevance of keyword sets. A review of the literature that was analyzed during the research is presented. Among the publications studied were materials related to the theory of set similarity, namely the use of the Jacquard coefficient and editing distance. A measure for determining the similarity of keyword sets is presented, which is based on the Jacquard coefficient taking into account the weighting coefficients of keywords. An algorithm is presented that can be used to determine the degree of similarity of publications to a user's search query based on keyword sets with weighting coefficients. The algorithm is based on the measure of similarity presented by us and the editing distance presented by us. The algorithm can be used to rank search results in search engines for scientific publications, as well as to compare the efficiency of different search engines, assess the quality of the results they return. The algorithm can also be used in book and film recommendation systems based on user preferences. The article provides the pseudocode of the algorithm. It is demonstrated on a limited data set how the measure calculated by the algorithm changes depending on the distribution of keyword weights in the user's query and the number of keywords.Документ Відкритий доступ Depth-width type criteria approbation for tree shape control for the Monte Carlo tree search method(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Marchenko, Oleksii; Marchenko, OleksandrThis paper is devoted to the scientific problem of improvements of the Monte Carlo Tree Search (MCTS) method. The object of research is the process of performing a tree search using the MCTS. The subject of research is the MCST improvement technique with control of the search tree shape by usage of the previously proposed be the authors DWC (Depth/Width Criterion) and WDC (Width/Depth Criterion) criteria. This technique was named Monte Carlo Tree Search with Tree Shape Control (MCTS-TSC). The research methods are based on the theory of data structures and analysis methods. The aim of the study is to conduct extended study of the previously proposed MCTS-TSC technique for improvement of the MCTS method. In particular, the aim is to approve that the DWC and WDC tree shape control criteria ensure the better move selection and increasing player strength compared to the standard Monte Carlo Tree Search with Upper Confidence bounds applied to Trees (MCTS-UCT) technique. To achieve the aim, the following tasks were set: to conduct a set of experiments according to the developed approbation methodology to approve that the WDC criterion of the MCTS-TSC technique is able to improve the MCTS method; to conduct a set of experiments according to the developed approbation methodology to approve that the DWC criterion of the MCTS-TSC technique is able to improve the MCTS method. Both WDC and DWC criteria of the MCTS-TSC technique were tested on a series of games of Connect Four between a player, which used the MCTS-TSC technique, and a player which used the MCTS-UCT technique. Different parameters for tuning the formulas of the WDC and DWC criteria of the MCTS-TSC technique were used in the experiments. The paper describes the methodology of the approbation of the MCTS-TSC technique with usage of the WDC and DWC criteria compared to the MCTS-UCT technique and conducts comparative analysis of the results of the experiments. The MCTS-TSC player won from 30% to 70% more games than the MCTS-UCT player for some search tree shapes, when WDC criterion was used, and from 19% to 52% more games, when DWC criterion was used. So, ability of the proposed MCTS-TSC technique to improve the MCTS method was approved for both criteria, WDC and DWC.Документ Відкритий доступ Software for collecting and analyzing metrics in highly loaded applications based on the Prometheus monitoring system(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Stetsenko, Inna; Myroniuk, AntonThis paper emphasizes the importance of collecting metrics during application operation for early detection of potential problems. The undisputed leader in this area is the Prometheus monitoring system, which, combined with Grafana – a platform for visualizing collected data in numerous graphs – becomes an indispensable tool for programmers and site reliability engineers. However, the average value of a certain metric is often unrepresentative, because it does not reflect a comprehensive picture. Instead, collecting metrics in terms of various quantiles over a long period is useful to identify even single instabilities. Still, the use of standard tools in the Python ecosystem may require a lot of server resources and long preliminary analysis, which can be quite costly for businesses from a financial point of view. That is why the development of a new approach for collecting and analyzing metrics in highly loaded applications based on the Prometheus monitoring system is relevant. The research aims to improve the efficiency of storing metrics across different quantiles, which will create additional opportunities for further analysis. A review of existing approaches for calculating quantile values on large data sets was conducted. Their comparative characteristics in terms of speed and memory usage were also presented. The chosen method was adapted for use with the real-time data stream and implemented as a Python extension for the official Prometheus library. It opens up opportunities for comprehensive monitoring of highly loaded systems in terms of both server resource usage and the quantity and quality of collected useful data. This solution can be easily implemented on large projects requiring continuous tracking of various metrics to ensure stable and uninterrupted service operation.Документ Відкритий доступ Dynamic mathematical model for resource management and scheduling in cloud computing environments(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Kovalenko, Vladyslav; Zhdanova, OlenaThe object of the research is resource management and scheduling in Kubernetes clusters, in particular, data centers. It was determined that in many publications dedicated to optimization models of scheduling for Kubernetes, mathematical models either do not include constraints at all, or only have the constraints determined on the high level only. The purpose of the research is the creation of a dynamic low-level mathematical optimization model for resource management and scheduling in cloud computing environments that utilize Kubernetes. Examples of such environments include the data centers where the customers can rent both dedicated servers and resources of shared hosting servers that are allocated on demand. The suggested model was created using the principles of creation of mathematical models of discrete (combinatorial) optimization, and was given the name “dynamic” because it takes the time parameter into account. The model receives data about individual servers in the cluster and individual pods that should be launched as an input. The model aims to regulate not only individual assignments of pods to nodes, but also turning on and off the servers. The model has objectives of: minimization of the average number of shared hosting servers running; maximization of the average resource utilization coefficient on such servers; minimization of the number of occasions when the servers are turned on and off; minimization of resource utilization by the pods that are running on shared hosting servers but created by the customers renting the dedicated servers. The model considers resource constraints, among other limitations.Документ Відкритий доступ Method of horizontal pod scaling in Kubernetes to omit overregulation(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Rolik, Oleksandr; Volkov, VolodymyrThis paper describes the method of omitting the over-regulation effect that occurs under certain conditions by horizontal pod autoscaling microservices in the container application orchestration system Kubernetes. The effect was initially observed only for long-term HTTP WebSocket sessions, where it led to excessive use of computing resources, which reduced the efficiency of IT infrastructure management, and caused service failure. It was found that the overregulation effect is reproduced not only for connections with long-term HTTP sessions, such as HTTP WebSocket, but also for shorterterm REST HTTP sessions in case of increased delay in the metric collection cycle used for horizontal pod autoscaling. It is assumed that this effect happens due to the approach of implementing horizontal scaling controllers similar to the principles of proportional regulators in systems with negative feedback from the theory of automation and control. It is proposed to extend one of the methods used for optimizing the proportional controller to the problem consisting of reducing the time delay between scaling metrics collecting and upscale applied by the controller in Kubernetes. The applied method demonstrated its effectiveness, therefore, within the same methodology, an experiment was conducted on using the proportional-integral-differential controller for automatic horizontal scaling of pods. The results obtained showed why the proportional-integral-differential controller is not widespread among the overviewed Kubernetes solutions for horizontal automatic scaling. An assumption was made about the limitations of studying the downscaling process in Kubernetes due to the need to consider the quality of service when stopping pods and the need to collect indicator metrics using quality-of-service object management tools such as ISTIO.Документ Відкритий доступ Effectiveness of hybrid quantum-classical and quanvolutional neural networks for image classification(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Trochun, Yevhenii; Gordienko, YuriThe article focuses on studying the effectiveness of two different Hybrid Neural Networks (HNNs) architectures for solving real-world image classification problems. The first approach investigated in the research is a hybridization technique that allows creation of HNN based on a classical neural network by replacing a number of hidden layers of the neural network with a variational quantum circuit, which allows to reduce the complexity of the classical part of the neural network and move part of computations to a quantum device. The second approach is a hybridization technique based on utilizing quanvolutional operations for image processing as the first quantum convolutional layer of the hybrid neural network, thus building a Quanvolutional Neural Network (QNN). QNN leverages quantum phenomena to facilitate feature extraction, enabling the model to achieve higher accuracy metrics than its classical counterpart. The effectiveness of both architectures was tested on several image classification problems. The first one is a classical image classification problem of CIFAR10 images classification, widely used as a benchmark for various imagery-related tasks. Another problem used for the effectiveness study is the problem of geospatial data analysis. The second problem represents a real-world use case where quantum computing utilization can be very fruitful in the future. For studying the effectiveness, several models were assembled: HNN with a quantum device that replaces one of the hidden layers of the neural network, QNN based on quanvolutional operation and utilizes VGG-16 architecture as a classical part of the model, and also an unmodified VGG-16 was used as a reference model. Experiments were conducted to measure the models' key efficiency metrics: maximal accuracy, complexity of a quantum part of the model and complexity of a classical part of the model. The results of the research indicated the feasibility of both approaches for solving both proposed image classification problems. Results were analyzed to outline the advantages and disadvantages of every approach in terms of selected key metrics. Experiments showed that QNN architectures proved to be a feasible and effective solution for critical practical tasks requiring higher levels of model prediction accuracy and, simultaneously, can tolerate higher processing time and significantly increased costs due to a high number of quantum operations required. Also, the results of the experiments indicated that HNN architectures proved to be a feasible solution for time-critical practical tasks that require higher processing speed and can tolerate slightly decreased accuracy of model predictions.Документ Відкритий доступ Scientific article summarization model with unbounded input length(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Steblianko, Oleksandr; Shymkovych, Volodymyr; Kravets, Peter; Novatskyi, Anatolii; Shymkovych, LyubovIn recent years, the exponential growth of scientific literature has made it increasingly difficult for researchers and practitioners to keep up with new discoveries and developments in their fields. Thanks to this, text summarization has become one of the primary tasks of natural language processing. Abstractive summarization of long documents, such as scientific articles, requires large neural networks with high memory and computation requirements. Therefore, it is all the more important to find ways to increase the efficiency of long document summarization models. The objects of this research are long document summarization transformer models and the Unlimiformer cross-attention modification. The article reviews the basic principles of transformer attention, which constitutes the primary computational expense in transformer models. More efficient self-attention approaches used for long document summarization models are described, such as the global+sliding window attention used by Longformer. The cross-attention mechanism of Unlimiformer, which allows a model to have unbounded input length, is described in detail. The objective of the study is the development and evaluation of a long document summarization model using the Unlimiformer modification. To achieve this goal, a Longformer Decoder-Encoder model pretrained on the arXiv dataset is modified with Unlimiformer cross-attention. This modification can be applied without additional model fine-tuning, avoiding the cost of further training a large sequence length model. The developed model was evaluated on the arXiv dataset using the ROUGE-1, ROUGE-2 and ROUGE-L metrics. The developed model showed improved results compared to the baseline model, demonstrating the viability of using this approach to improve long document summarization models.Документ Відкритий доступ A method and software for license plate recognition(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Yakovlev, Anton; Lisovychenko, OlehThe article presents a method for license plate recognition using segmentation through the YOLO detection system combined with a task-oriented approach to training and the use of real-world variable data arrays. The development of metropolises and the constant increase in the number of vehicles on the roads have led to a new level of requirements for road safety systems. Automation, without exaggeration, is the most prioritized direction for the development of these systems. Only through automation can road safety systems process the vast amount of information generated on roads daily. Moreover, automation gradually reduces human involvement in tasks that computational systems can perform with equivalent or greater accuracy. These achievements aim to minimize the influence of the human factor and reduce operational costs. This is particularly important for megacities but also applies to the transportation system as a whole. The purpose of the research is to develop a method for automated license plate recognition to improve the accuracy of road safety systems by reducing error rates, minimizing the excessive use of computational resources during detection, and lowering the cost of such systems. The object of the study is the process of developing automated software systems for ensuring road safety with integrated vehicle identification functionality. To achieve the stated goal, the following objectives were defined: to develop a method for license plate recognition using a task-oriented approach to training combined with the YOLO detection system; to evaluate the impact of prior segmentation of license plates using a specially trained YOLO system on error rates and processing time, as well as to conduct experiments with the proposed training method on real-world images with variable environments to confirm its adequacy. A comparative analysis of the task-oriented training method for the YOLO v5 detection system with the commonly used Optical Character Recognition (OCR)-only approach confirmed the advantages of the task-oriented method for solving license plate recognition tasks. Additionally, the impact of blurring on detection results using the OCR method was investigated. The results of practical research confirm the correctness of the chosen methods for improving the efficiency of license plate recognition.Документ Відкритий доступ The automatic cryptocurrency trading system using a scalping strategy(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Beraudo, Elisa; Oliinyk, YuriiThe study focuses on the development and implementation of an automated system for scalping strategies in cryptocurrency markets. Scalping, a high-frequency trading strategy, aims to generate profits from small price fluctuations. The primary goal of the research is to create an automated trading bot that addresses critical issues such as latency, risk management, scalability, and reliability in real-world market conditions. To achieve this, the following objectives were defined: develop a novel scalping method, implement a software solution to integrate the method into an automated trading system, and evaluate its effectiveness through experimental testing. The research methodology utilized technical indicators, including the Exponential Moving Average (EMA) and Volume Weighted Average Price (VWAP). Pseudocode was created to illustrate the decision-making process, incorporating key parameters such as smoothing factors, time periods, and thresholds for trade execution. The software architecture consists of modules: Binance exchange integration, data collection and management, strategy analysis, trade execution, and historical data storage. Technologies such as PostgreSQL, Redis, WebSocket, and Python libraries (Pandas, NumPy, TA-Lib) were employed to ensure the robustness and efficiency of the system. Experiments were conducted using the BTC/USDT trading pair, known for its high liquidity and volatility. The system was tested on hardware featuring an Intel Core i7-10700K processor, 32 GB of RAM, and a 1 Gbps network connection. A comparative analysis between the scalping strategy and a trend-following strategy demonstrated the advantages of scalping in volatile markets. The scalping bot executed 15 trades (13 successful) within two hours, achieving a total profit of 120 USDT. Performance metrics, including latency (15–50 ms), signal processing time, CPU utilization (5–55%), and memory usage (120–2100 MB), were measured. The results confirmed the system's modular architecture and its ability to scale linearly with increasing trading volumes. The findings validate the effectiveness of the proposed method and the reliability of the developed system in real-world conditions. Future research may focus on optimizing algorithms to reduce resource consumption and integrating advanced risk management techniques to enhance performance.Документ Відкритий доступ Dynamic model of currency exchange based on investor behavior(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Miahkyi, MykhailoIn the modern financial environment, cryptocurrencies have gained significant popularity, becoming an important element of the global economy and financial markets. The dynamic development of blockchain technologies and decentralized financial instruments fosters increased interest from both private investors and institutional players. However, the high volatility of cryptocurrencies and the complexity of the mechanisms behind their price formation necessitate a detailed study of these processes. This paper models cryptocurrency exchange operations, analyzing price formation influenced by buying, selling, and introducing new crypto coins to the market. The system simulates investor behavior with individual parameters: initial balances, risk profiles, and profit-driven trading strategies over a specified period. The model takes into account the psychological aspects of investor behavior, their reaction to changing market conditions, and the impact of external factors such as news and regulatory changes. Special attention is paid to analyzing the impact of adding additional quantities of coins to the exchange at a reduced price during peak cryptocurrency price values. This creates conditions for activating trading operations, increasing liquidity, and affecting overall market dynamics, particularly volatility and price fluctuation trends. The study shows how such interventions can be used to stabilize the market or stimulate its further growth. The analysis of the obtained data allows for detailed observation of changes in the cryptocurrency’s value over time, identifying patterns and trends. Using statistical and analytical methods, the impact of different investor strategies on their financial results and the overall market situation was investigated. This enables assessing how investor decisions-timing, trade volume, and market reactions-impact profits and market dynamics. The research emphasizes the importance of a deep understanding of market mechanisms and trading psychology and can serve as a basis for developing effective trading strategies on cryptocurrency exchanges. The obtained results may be useful for traders, financial analysts, and developers of algorithmic trading systems, contributing to increased efficiency and stability of cryptocurrency markets. Moreover, the findings of the work can be applied to improve regulatory approaches and policies regarding cryptocurrencies.Документ Відкритий доступ Models and methods for forming service packages for solving of the problem of designing services in information systems of providers(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Chymshyr, Viacheslaw; Zhdanova, Olena; Havrylenko, Olena; Nowakowski, Grzegorz; Telenyk, SergiiToday, in the telecommunications industry, service is one of the fundamental concepts. Building a service architecture is a key stage in the service life cycle. Information systems of telecommunications providers are designed, implemented and supported by IT companies based on the End-to-End model. This requires the IT company to solve a number of complex problems. In these conditions, building a service architecture, implementing and providing a service are divided into subproblems. Solutions to subproblems must be integrated to determine the coordinated activities of both the IT company and the provider. In this case, it is necessary to take into account the goals of IT companies, providers and their customers in such a way that it is beneficial to all parties. One of such subproblems is the formation of service packages that the IT company offers to providers. The article proposes formal models for the subproblem of forming service packages that allow taking into account the interests of the IT company and providers. These are multi-criteria nonlinear mathematical programming models. To solve the subproblem of forming service packages, a two-stage algorithm and a modified version of the guided genetic algorithm are proposed. The use of these methods allows us to take into account the interests of the IT company and providers. Also, such important factors that affect the formation of packages as the base price of the service, service dependency, discount system, resource and other constraints of the IT company and providers are taken into account. The two-stage algorithm at the first stage uses classical algorithms for solving the knapsack problem, and at the second stage implements a compromise scheme to improve the solution. The second of the proposed methods uses three types of tools in combination. The first tool controls the convergence of the genetic algorithm. The second tool determines the choice of the best solutions taking into account the features of the multi-criteria problem. The third tool allows to obtain the best solutions to the optimization problem with the simultaneous choice of a discount strategy. Experimental studies have confirmed the effectiveness of the proposed methods. Their ability to form the basis of the technology of forming service packages as a component of the platform for supporting the life cycle of services is also confirmed.