2024
Постійне посилання на фонд
Переглянути
Перегляд 2024 за Назва
Зараз показуємо 1 - 20 з 23
Результатів на сторінці
Налаштування сортування
Документ Відкритий доступ A method and software for license plate recognition(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Yakovlev, Anton; Lisovychenko, OlehThe article presents a method for license plate recognition using segmentation through the YOLO detection system combined with a task-oriented approach to training and the use of real-world variable data arrays. The development of metropolises and the constant increase in the number of vehicles on the roads have led to a new level of requirements for road safety systems. Automation, without exaggeration, is the most prioritized direction for the development of these systems. Only through automation can road safety systems process the vast amount of information generated on roads daily. Moreover, automation gradually reduces human involvement in tasks that computational systems can perform with equivalent or greater accuracy. These achievements aim to minimize the influence of the human factor and reduce operational costs. This is particularly important for megacities but also applies to the transportation system as a whole. The purpose of the research is to develop a method for automated license plate recognition to improve the accuracy of road safety systems by reducing error rates, minimizing the excessive use of computational resources during detection, and lowering the cost of such systems. The object of the study is the process of developing automated software systems for ensuring road safety with integrated vehicle identification functionality. To achieve the stated goal, the following objectives were defined: to develop a method for license plate recognition using a task-oriented approach to training combined with the YOLO detection system; to evaluate the impact of prior segmentation of license plates using a specially trained YOLO system on error rates and processing time, as well as to conduct experiments with the proposed training method on real-world images with variable environments to confirm its adequacy. A comparative analysis of the task-oriented training method for the YOLO v5 detection system with the commonly used Optical Character Recognition (OCR)-only approach confirmed the advantages of the task-oriented method for solving license plate recognition tasks. Additionally, the impact of blurring on detection results using the OCR method was investigated. The results of practical research confirm the correctness of the chosen methods for improving the efficiency of license plate recognition.Документ Відкритий доступ CI/CD integration tools for automated code deployment and verification for training purposes(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Babenko, Viktoriia; Taraniuk, Viktoriia; Tkachenko, Valentyna; Klymenko, IrynaThe article is devoted to the study and application of modern tools for Continuous Integration and Continuous Deployment (CI/CD) in the educational field. Automating the processes of software deployment and testing is a relevant task for both improving the educational process and developing DevOps skills among students. Significant attention is given to studying the core principles of CI/CD, including automated testing, code quality monitoring, and integration with source code repositories. Popular CI/CD platform such as Jenkins is utilized to automate the educational process and train students. This tool enables the creation and deployment of applications using Docker technologies, which allow real-world scenarios to be modeled. A significant emphasis is placed on the scalability and adaptability of solutions, which enhance the efficiency of resource usage. A methodology for implementing CI/CD into an educational course is proposed, including integration with project management platforms and version control systems such as Git, with Gitea as an example. The main stages include setting up automated builds, testing, and deployment, which enable students to practice the principles of continuous integration and delivery. From the perspective of improving the efficiency of the educational process, the proposed methodology allows for the automation of assignment verification. The problems of Gitea and Jenkins integration are considered. A way for integrating these tools through locally installed Jenkins and Gitea with private code repositories has been proposed. Recommendations are provided for organizing the educational process through practical and laboratory work focused on real-world scenarios of software deployment and test automation. The results of the study confirm the effective use of CI/CD tools for educational purposes, ensuring the development of competencies required for working in modern IT teams. The use of CI/CD increases awareness of cybersecurity and optimizes DevOps processes.Документ Відкритий доступ Combined pretty good privacy and Role-Based Access Control model for confidential data protection(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Kolmahin, Danyl; Sergiyenko, AnatoliyУ даній статті представлено гранулярну модель захисту доступу до конфіденційної інформації яка об'єднує технології PGP (Pretty Good Privacy) та RBAC (Role-Based Access Control). Метою дослідження є розробка та обґрунтування моделі що забезпечує високий рівень безпеки завдяки ефективному шифруванню даних та гнучкому управлінню доступом на основі ролей. У статті розглянуто об'єкти дослідження які включають сучасні інформаційні системи що обробляють конфіденційні дані та предмет дослідження який охоплює методи шифрування та контролю доступу. Для досягнення поставленої мети проведено аналіз сучасних підходів до шифрування даних та управління доступом вивчено їхні переваги та недоліки а також виявлено поточні проблеми пов'язані із забезпеченням безпеки даних у стані спокою. Було розроблено модель захисту доступу що поєднує PGP і RBAC реалізовано її в реальних умовах та проведено тестування для оцінки ефективності та зручності використання. Використання PGP дозволяє забезпечити безпеку даних у стані спокою та під час передачі тоді як RBAC дозволяє гнучко налаштовувати права доступу для користувачів. Результати досліджень показали що запропонована модель забезпечує високий рівень безпеки гнучкість управління доступом а також покращену продуктивність системи. Використання публічних та приватних ключів для шифрування симетричних ключів додатково підвищує рівень захисту запобігаючи несанкціонованому доступу до даних. Визначення ролей та привілеїв для кожного користувача забезпечує авторизований доступ до конфіденційної інформації що мінімізує ризик випадкового або зловмисного доступу до даних. Незважаючи на складність процесів шифрування та управління ключами система продемонструвала високу продуктивність оптимізовані процеси шифрування та дешифрування даних а також ефективне управління ролями та привілеями користувачів. Запропонована модель довела свою ефективність у забезпеченні високого рівня безпеки та гнучкого управління доступом до конфіденційних даних.Документ Відкритий доступ Comparative review of drone simulators(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Mykola Nikolaiev, Mykhailo NovotarskyiШвидкий розвиток безпілотних літальних апаратів (БПЛА), особливо дронів, революціонізував різні сфери науки та промисловості, включаючи сільське господарство, картографію, пошуково-рятувальні операції та інші. Для відпрацювання алгоритмів реалізації складних еволюцій траєкторій при доставці посилок або при екологічному моніторингу виникає нагальна необхідність розробки середовищ моделювання для уникнення значних ризиків, пов'язаних з реальним тестуванням. Однак різноманітність і фрагментарність доступних інструментів ускладнює вибір симуляторів для вирішення конкретних завдань. Розробники змушені балансувати між такими компромісами, як швидкість моделювання, точність імітації фізичних законів, інтеграція сенсорів і якість інтерфейсу користувача. Відсутність універсального симулятора, який би включав високоточну фізику, комплексне моделювання сенсорів та масштабованість для моделювання рою дронів, є сьогодні певною проблемою. Відомі симулятори БПЛА мають певні переваги та недоліки, але жоден з них не забезпечує комплексного вирішення всіх вимог, які необхідні для сучасних досліджень і розробок. Інтеграція різних сенсорів, таких як веб-камери, LiDAR, GPS та IMU, у системи моделювання залишається технічною проблемою, що обмежує застосовність існуючих симуляторів. Крім того, доступність ефективних симуляторів і підтримка може значно відрізнятися, що також впливає на вибір та стійкість цих інструментів. Стандартизований підхід до моделювання БПЛА може підвищити ефективність порівняння результатів досліджень, спростити зусилля при виборі та створити єдину основу для оцінки продуктивності симуляторів. Прогрес в моделюванні аеродинаміки, особливо для квадрокоптерів та БПЛА, може покращити точність і реалістичність моделювання, що краще підтримуватиме розвиток передових технологій. Майбутні дослідження мають на меті розробку більш комплексних, високоточних та масштабованих середовищ для моделювання. Це включає інтеграцію інноваційних підходів моделювання сенсорів, покращення моделювання динаміки роїв і підвищення доступності та підтримки користувачів. Основні напрямки для покращення включають: інтеграцію сенсорів для моделювання їх широкого спектру, підвищення ефективності моделювання динаміки роїв у випадках складної поведінки та взаємодії між декількома дронами, спрощення інтерфейсів користувача, надання всебічної документації, забезпечення надійної підтримки спільноти, розробку стандартизованих критеріїв для порівняння та оцінки різних симуляторів, а також урахування детальних аеродинамічних принципів для покращення точності моделювання. Вирішення цих проблем при розробці симуляторів БПЛА є важливим для розвитку аероробототехніки. Таким чином, розробка середовищ для моделювання з інтегрованими можливостями сенсорів, покращеним моделюванням динаміки роїв та зручними інтерфейсами може підвищити ефективність та результативність розвитку БПЛА. Стандартизовані критерії оцінки та детальне моделювання аеродинаміки підтримуватимуть еволюцію технологій БПЛА, забезпечуючи більш безпечні, надійні та інноваційні застосування в різних сферах. Вони сприятимуть інноваціям, технологічному прогресу та операційній ефективності у реальних умовах.Документ Відкритий доступ Depth-width type criteria approbation for tree shape control for the Monte Carlo tree search method(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Marchenko, Oleksii; Marchenko, OleksandrThis paper is devoted to the scientific problem of improvements of the Monte Carlo Tree Search (MCTS) method. The object of research is the process of performing a tree search using the MCTS. The subject of research is the MCST improvement technique with control of the search tree shape by usage of the previously proposed be the authors DWC (Depth/Width Criterion) and WDC (Width/Depth Criterion) criteria. This technique was named Monte Carlo Tree Search with Tree Shape Control (MCTS-TSC). The research methods are based on the theory of data structures and analysis methods. The aim of the study is to conduct extended study of the previously proposed MCTS-TSC technique for improvement of the MCTS method. In particular, the aim is to approve that the DWC and WDC tree shape control criteria ensure the better move selection and increasing player strength compared to the standard Monte Carlo Tree Search with Upper Confidence bounds applied to Trees (MCTS-UCT) technique. To achieve the aim, the following tasks were set: to conduct a set of experiments according to the developed approbation methodology to approve that the WDC criterion of the MCTS-TSC technique is able to improve the MCTS method; to conduct a set of experiments according to the developed approbation methodology to approve that the DWC criterion of the MCTS-TSC technique is able to improve the MCTS method. Both WDC and DWC criteria of the MCTS-TSC technique were tested on a series of games of Connect Four between a player, which used the MCTS-TSC technique, and a player which used the MCTS-UCT technique. Different parameters for tuning the formulas of the WDC and DWC criteria of the MCTS-TSC technique were used in the experiments. The paper describes the methodology of the approbation of the MCTS-TSC technique with usage of the WDC and DWC criteria compared to the MCTS-UCT technique and conducts comparative analysis of the results of the experiments. The MCTS-TSC player won from 30% to 70% more games than the MCTS-UCT player for some search tree shapes, when WDC criterion was used, and from 19% to 52% more games, when DWC criterion was used. So, ability of the proposed MCTS-TSC technique to improve the MCTS method was approved for both criteria, WDC and DWC.Документ Відкритий доступ Dynamic mathematical model for resource management and scheduling in cloud computing environments(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Kovalenko, Vladyslav; Zhdanova, OlenaThe object of the research is resource management and scheduling in Kubernetes clusters, in particular, data centers. It was determined that in many publications dedicated to optimization models of scheduling for Kubernetes, mathematical models either do not include constraints at all, or only have the constraints determined on the high level only. The purpose of the research is the creation of a dynamic low-level mathematical optimization model for resource management and scheduling in cloud computing environments that utilize Kubernetes. Examples of such environments include the data centers where the customers can rent both dedicated servers and resources of shared hosting servers that are allocated on demand. The suggested model was created using the principles of creation of mathematical models of discrete (combinatorial) optimization, and was given the name “dynamic” because it takes the time parameter into account. The model receives data about individual servers in the cluster and individual pods that should be launched as an input. The model aims to regulate not only individual assignments of pods to nodes, but also turning on and off the servers. The model has objectives of: minimization of the average number of shared hosting servers running; maximization of the average resource utilization coefficient on such servers; minimization of the number of occasions when the servers are turned on and off; minimization of resource utilization by the pods that are running on shared hosting servers but created by the customers renting the dedicated servers. The model considers resource constraints, among other limitations.Документ Відкритий доступ Dynamic model of currency exchange based on investor behavior(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Miahkyi, MykhailoIn the modern financial environment, cryptocurrencies have gained significant popularity, becoming an important element of the global economy and financial markets. The dynamic development of blockchain technologies and decentralized financial instruments fosters increased interest from both private investors and institutional players. However, the high volatility of cryptocurrencies and the complexity of the mechanisms behind their price formation necessitate a detailed study of these processes. This paper models cryptocurrency exchange operations, analyzing price formation influenced by buying, selling, and introducing new crypto coins to the market. The system simulates investor behavior with individual parameters: initial balances, risk profiles, and profit-driven trading strategies over a specified period. The model takes into account the psychological aspects of investor behavior, their reaction to changing market conditions, and the impact of external factors such as news and regulatory changes. Special attention is paid to analyzing the impact of adding additional quantities of coins to the exchange at a reduced price during peak cryptocurrency price values. This creates conditions for activating trading operations, increasing liquidity, and affecting overall market dynamics, particularly volatility and price fluctuation trends. The study shows how such interventions can be used to stabilize the market or stimulate its further growth. The analysis of the obtained data allows for detailed observation of changes in the cryptocurrency’s value over time, identifying patterns and trends. Using statistical and analytical methods, the impact of different investor strategies on their financial results and the overall market situation was investigated. This enables assessing how investor decisions-timing, trade volume, and market reactions-impact profits and market dynamics. The research emphasizes the importance of a deep understanding of market mechanisms and trading psychology and can serve as a basis for developing effective trading strategies on cryptocurrency exchanges. The obtained results may be useful for traders, financial analysts, and developers of algorithmic trading systems, contributing to increased efficiency and stability of cryptocurrency markets. Moreover, the findings of the work can be applied to improve regulatory approaches and policies regarding cryptocurrencies.Документ Відкритий доступ Effectiveness of hybrid quantum-classical and quanvolutional neural networks for image classification(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Trochun, Yevhenii; Gordienko, YuriThe article focuses on studying the effectiveness of two different Hybrid Neural Networks (HNNs) architectures for solving real-world image classification problems. The first approach investigated in the research is a hybridization technique that allows creation of HNN based on a classical neural network by replacing a number of hidden layers of the neural network with a variational quantum circuit, which allows to reduce the complexity of the classical part of the neural network and move part of computations to a quantum device. The second approach is a hybridization technique based on utilizing quanvolutional operations for image processing as the first quantum convolutional layer of the hybrid neural network, thus building a Quanvolutional Neural Network (QNN). QNN leverages quantum phenomena to facilitate feature extraction, enabling the model to achieve higher accuracy metrics than its classical counterpart. The effectiveness of both architectures was tested on several image classification problems. The first one is a classical image classification problem of CIFAR10 images classification, widely used as a benchmark for various imagery-related tasks. Another problem used for the effectiveness study is the problem of geospatial data analysis. The second problem represents a real-world use case where quantum computing utilization can be very fruitful in the future. For studying the effectiveness, several models were assembled: HNN with a quantum device that replaces one of the hidden layers of the neural network, QNN based on quanvolutional operation and utilizes VGG-16 architecture as a classical part of the model, and also an unmodified VGG-16 was used as a reference model. Experiments were conducted to measure the models' key efficiency metrics: maximal accuracy, complexity of a quantum part of the model and complexity of a classical part of the model. The results of the research indicated the feasibility of both approaches for solving both proposed image classification problems. Results were analyzed to outline the advantages and disadvantages of every approach in terms of selected key metrics. Experiments showed that QNN architectures proved to be a feasible and effective solution for critical practical tasks requiring higher levels of model prediction accuracy and, simultaneously, can tolerate higher processing time and significantly increased costs due to a high number of quantum operations required. Also, the results of the experiments indicated that HNN architectures proved to be a feasible solution for time-critical practical tasks that require higher processing speed and can tolerate slightly decreased accuracy of model predictions.Документ Відкритий доступ Improving the effectiveness of monolith architecture to microservices migration using existing migration methods(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Kornaha, Yaroslav; Oleksandr, HubarievThe theme of the transition from monolithic architecture to microservice is one of the key challenges of modern software engineering. This transformation allows for greater flexibility, scalability and adaptability of systems, but requires careful planning and consideration of numerous factors that affect the efficiency of migration. This study aims to improve the algorithm for determining the effectiveness of using methods for migrating monolithic systems to microservice architecture. Migration from monolithic architecture to microservice is a complex process involving significant technical and organizational challenges. Since monolithic systems often have a complex structure and relationships between components, the transition to a microservice architecture requires careful planning and selection of effective migration methods. The lack of a unified approach to assessing the effectiveness of different migration patterns makes the transition process difficult and risky. The article is aimed at improving the algorithm for determining the efficiency of using migration methods from monolithic architecture to microservices. To do this, we compare existing migration patterns, such as the Strangler Fig Pattern, Branch by Abstraction, Parallel Run, Decorating Collaborator and Change Data Capture, according to the criteria: implementation time, test complexity, error risk, performance degradation and efficiency. The study uses methods of comparative analysis and quantitative evaluation of the effectiveness of migration patterns. For this, criteria are applied to assess the implementation time, testing complexity, possible risks, as well as the impact on system performance. In addition, scenarios are analyzed in which each template is most effective, which allows you to determine the optimal approaches to migration depending on the specifics of the project. The obtained results allow not only a deeper understanding of the advantages and disadvantages of different approaches to migration, but also to form recommendations for choosing the optimal pattern, depending on the specifics of the system and business needs. The scientific novelty of the study is to create an algorithm that integrates these criteria to increase the efficiency of migration processes. The results of the work can be useful for software engineers, architects and managers planning the transition to microservice architecture, providing a structured methodology for evaluating and selecting migration methods.Документ Відкритий доступ Integration of blockchain technology into the Internet of Things (overview)(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Serebriakov, Roman; Tkachenko, Valentyna; Klymenko, IrynaОдним з сучасних напрямків розвитку інформаційно-комунікаційних технологій, які еволюціонували в парадигму Інтернет речей (ІоТ), є прогресивна ідея використання технології блокчейн в ІоТ. Цей напрямок описаний в великій кількості сучасних літературних джерел, які зазначають значні переваги використання блокчейну, в першу чергу пов’язані з децентралізацією, незмінністю, прозорістю та безпекою. Це дозволяє зробити висновок про високу актуальність впровадження технології блокчейн в інформаційно-комунікаційні системи ІоТ. Однак авторами багатьох досліджень описуються значні проблеми, серед яких як проблема масштабованості самого блокчейну, так і проблеми енергоефективності та обмеженості ресурсів в пристроях ІоТ. Через ці проблеми впровадження технології блокчейн в Інтернет речей стає певним викликом та обумовлює актуальність і доцільність дослідження заданої тематики та пошуку ефективних рішень, які пов’язані з інтеграцією двох дуже потужних технологій в сучасних інформаційно-комунікаційних системах. В статті представлений аналітичний огляд проблематики інтеграції технології блокчейн в ІоТ, зокрема питання використання в ІоТ алгоритму консенсусу Proof-of-Work (PoW) та застосування альтернативних протоколів блокчейну, серед яких IOTA, Ethereum Light Client та Litecoin, які дозволяють підвищити ефективність виконання поставлених задач у ІоТ-інфраструктурі з урахуванням обмеженості ресурсів пристроїв; існуючі проблеми та способи імплементації, такі як використання легких клієнтів та проксі серверів. Також розглядається доцільність використання повного вузла блокчейну на ІоТ-пристроях та способи збільшення ефективності системи за допомогою попередньої обробки даних перед їх відправленням до блокчейн мережі. В статті також висвітлюється проблема недостатнього впровадження технології блокчейн у різні сфери життя людини, а також пошук причин що зумовлюють дану проблему. Результати аналітичного огляду в цілому дозволяють обґрунтувати мету та переваги інтеграції технології блокчейн в Інтернет речей, а також узагальнити основну проблематику і обґрунтувати ряд задач для актуальних і прогресивних наукових досліджень в області сучасних інформаційно-комунікаційних систем.Документ Відкритий доступ Method for mapping cyclo-dynamic dataflow into pipelined datapath(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Sergiyenko, Anatoliy; Mozghovyi, IvanУ статті представлено огляд систем високорівневого синтезу для проектування конвеєрних обчилювачів. Мета полягає в дослідженні методів відображення алгоритмів у конвеєрні обчилювачі, що реалізують циклічні алгоритми з графами потоків даних із динамічним розкладом. Граф циклодинамічних потоків даних (ГЦДПД) вибрано як виразну модель для опису широкої області алгоритмів обробки потоків даних. ГЦДПД відрізняється тим, що період алгоритму залежить від обчислених даних і має динамічний розклад. Сформульовано набір умов відображення, які забезпечують розклад ГЦДПД без взаємоблокувань, коли його відображають у конвеєрний обчислювач. Згідно з запропонованому методу, алгоритм представляється ГЦДПД і керуючими автоматами. Причому останні є підграфами ГЦДПД. ГЦДПД оптимізується за допомогою методів ресинхронізації та конвеєризації. Після цього ГЦДПД та його керуючі автомати описуються мовою опису обладнання, наприклад VHDL, так само, як описується граф синхронних потоків даних при синтезі конвеєрного обчислювача. Запропонований метод включає оптимізацію ГЦДПД та його опис на VHDL для реалізації в програмованих логічних інтегральних схемах. На прикладі проєктування детектора послідовностей детально показано реалізацію методу. Більш складне відображення алгоритму декомпресії LZW демонструє, що запропонований метод досить ефективний і дає в результаті синтезу конвеєрний обчислювач, ефективність якого порівнянна з ефективністю найкращого відомого апаратного рішення. Метод може бути реалізований в сучасних системах високорівневого синтезу.Документ Відкритий доступ Method of dynamic reconfiguration of software-defined networks(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Oboznyi Dmytro; Kulakov YuriyВ статті представлений метод динамічної реконфігурації бездротової програмно-конфігурованої мережі з використання випадкових геометричних графів перетину. Розмірність мереж і глобалізація бізнесу зростають, тому потреби в ефективному управлінні мережею та підвищенні швидкості та надійності передачі даних стають дедалі гострішими. Основним завданням ефективної роботи пристроїв є підвищення відмовостійкості мережі та покращення її швидкісних характеристик. Поширення віддаленої роботи вимагає адаптації компонентів інфраструктури на підприємствах для безпечної та швидкої переналаштування відповідно до потреб бізнесу. Тому розробка нових методів реконфігурації топології комп'ютерних мереж і поліпшення характеристик передачі даних є одними з найбільш актуальних проблем галузі. Метою даного дослідження є розробка методу реконфігурації програмно визначених бездротових мереж для підвищення відмовостійкості мережі та покращення характеристик передачі даних. Це дозволить продовжити передачу даних і запобігти втраті інформації при втраті певних каналів зв'язку або їх перевантаженні іншими мережами чи засобами впливу. Об’єктом дослідження є процес генерації топології програмно-конфігурованої мережі за допомогою теорії графів, а саме – випадкових геометричних графів перетину. Також об’єктом дослідження є вплив завантаженності бездротового каналу зв’язку на якісні характеристики каналів передачі даних. Для досягнення поставленої мети були поставлені наступні задачі: – розробити метод генерації топології мережі SDN за допомогою графа випадкового геометричного перетину. – визначити вплив показника завантаженності каналу бездротового зв’язку на швидкість передачі даних. Провести дослідження з різними типами налаштувань точок доступу в протоколах IEEE 802.11 n, ac, ax з різними режимами multi input multi output (MIMO). Порівняльний аналіз використання графів випадкових геометричних перетинів у порівнянні з графами Ердеша–Реньї та геометричним графом у мережах SDN теоретично обґрунтував переваги використання графа випадкових геометричних перетинів у методі генерації топології відмовостійкої мережі SDN. Також було досліджено вплив завантаженності каналу зв’язку в бездротових мережах. Встановлено, що параметр MIMO впливає на характеристики мережі більше ніж QAM та OFDMA. Результати практичних досліджень підтверджують правильність обраних методів для реконфігурації бездротових SDN мереж.Документ Відкритий доступ Method of horizontal pod scaling in Kubernetes to omit overregulation(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Rolik, Oleksandr; Volkov, VolodymyrThis paper describes the method of omitting the over-regulation effect that occurs under certain conditions by horizontal pod autoscaling microservices in the container application orchestration system Kubernetes. The effect was initially observed only for long-term HTTP WebSocket sessions, where it led to excessive use of computing resources, which reduced the efficiency of IT infrastructure management, and caused service failure. It was found that the overregulation effect is reproduced not only for connections with long-term HTTP sessions, such as HTTP WebSocket, but also for shorterterm REST HTTP sessions in case of increased delay in the metric collection cycle used for horizontal pod autoscaling. It is assumed that this effect happens due to the approach of implementing horizontal scaling controllers similar to the principles of proportional regulators in systems with negative feedback from the theory of automation and control. It is proposed to extend one of the methods used for optimizing the proportional controller to the problem consisting of reducing the time delay between scaling metrics collecting and upscale applied by the controller in Kubernetes. The applied method demonstrated its effectiveness, therefore, within the same methodology, an experiment was conducted on using the proportional-integral-differential controller for automatic horizontal scaling of pods. The results obtained showed why the proportional-integral-differential controller is not widespread among the overviewed Kubernetes solutions for horizontal automatic scaling. An assumption was made about the limitations of studying the downscaling process in Kubernetes due to the need to consider the quality of service when stopping pods and the need to collect indicator metrics using quality-of-service object management tools such as ISTIO.Документ Відкритий доступ Method of increasing data transmission stability in software defined network considering metrics of quality of service(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Cherevatenko Oleksii; Kulakov YuriiУ даній статті представлений опис методу підвищення стабільності передачі даних у програмно конфігурованій мережі (SDN) шляхом її динамічної реконфігурації з урахуванням параметрів якості обслуговування (QoS) каналів зв’язку та надійності вузлів. Існуючі алгоритми не забезпечують комплексне вирішення задачі визначення найоптимальнішого шляху, який би забезпечив з'єднання від вихідної точки до адресата. Ними враховуються лише окремі параметри мережі, в залежності від яких витрати часу на зв’язок між вузлами є меншими, ніж у випадку з іншими маршрутами. В умовах зростання кількості користувачів комп’ютерних мереж та кількості вузлових комутаторів, існує актуальна проблема підвищення стабільності передачі даних у розгалужених комп’ютерних мережах. Це пропонується вирішити через урахування параметрів якості обслуговування каналів зв’язку при побудові маршрутів. Метою дослідження є підвищення стійкості передачі даних у віртуальній програмно-конфігурованій мережі в умовах збоїв вузлів і збільшення навантаження на канали зв’язку. Першим завданням дослідження є створення методу пошуку множини непересічних оптимальних шляхів, що враховувала би різні метрики якості обслуговування каналів зв’язку. Другим завданням дослідження є розробка механізму динамічної реконфігурації для таблиць потоків комутаторів SDN, щоб мати можливість перенаправляти трафік у разі збою окремих вузлів. В ході дослідження перше завдання було виконане математичним обґрунтуванням побудови узагальненої вагової матриці переходів між вузлами графа мережі. При створенні запиту на визначення маршруту для трафіку у мережі її статус та показники оновлюються з метою збільшення точності даних про доступні ресурси та встановлення оптимального шляху, що відповідає критеріям якості обслуговування. Пропонується враховувати для побудови шляхів чотири метрики якості обслуговування: кількість переходів між вершинами, доступну смугу пропускання, часову затримку та відсоток втрачених пакетів. За допомогою узагальненої вагової матриці переходів, контролер SDN обирає найоптимальніший шлях серед набору альтернативних непересічних шляхів. Потім використовуючи коефіцієнти надійності вузлів як обмеження для вибору оптимального шляху між вершинами, контролер обирає основний маршрут з множини альтернатив згідно встановленій адміністратором вимозі до надійності вузлів, а інші маршрути вважає резервними. Друге завдання було вирішене пропозицією методу динамічної реконфігурації мережі з використанням відомих шляхів. Якщо у процесі передачі трафіку виникає збій у проміжних ланках мережі або каналах зв’язку між ними, то для реконфігурації та обходу проблемної ділянки використовуються моніторингові дані SDN контролера, що дозволяють оперативно обрати альтернативний шлях для надсилання трафіку і побудувати новий шлях на базі вже відомих даних про канали зв’язку в мережі. Отримані результати теоретичних досліджень свідчать про правильність обраних рішень та пропозицій для поставлених у статті задач.Документ Відкритий доступ Method of load balancing in distributed three-layer IoT architecture(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Haidai, Anatolii; Klymenko, IrynaУ зв’язку зі зростанням кількості IoT пристроїв і необхідністю швидкої обробки даних з мінімальними затримками, традиційні хмарні обчислення стають менш ефективними. Для вирішення цієї проблеми застосовується концепція граничних обчислень, яка, хоча й підвищує продуктивність, ускладнює управління системою та вимагає ефективного розподілу навантаження для забезпечення балансу між використанням ресурсів Edge-вузлів та швидкістю обчислень. Метою даної роботи було розроблення методу балансування навантаження в тришаровій архітектурі IoT-системи, враховуючи фактичне завантаження вузлів. Проведено огляд літератури та обрано архітектурну концепцію яка відповідає новим тенденціям та складається з трьох шарів: пристроїв, що генерують дані, граничних вузлів, що обробляють інформацію, та хмари, яка зберігає дані і надає їх користувачам. Було створено прототип системи, який включає кілька Edge-вузлів на базі операційної системи Ubuntu Server 24.04 та сервери даних на основі Raspberry Pi Desktop. Розроблено математичну модель, що дозволяє оцінити навантаження на вузли залежно від типу виконуваних завдань. На створеному прототипі проведено перевірку працездатності методу з використанням математичної моделі. Результати дослідження показали, що розроблений метод успішно розподіляє навантаження між Edge-вузлами за допомогою спеціальних скриптів та елементів системи моніторингу, що відображено на графіку навантаження серверів. Запропонований метод може підвищити продуктивність системи завдяки автоматичному розподілу навантаження між вузлами. Цей підхід може стати частиною більш комплексної стратегії підвищення продуктивності та надійності IoT-систем із використанням граничних обчислень. Використання компонентів системи моніторингу для різних платформ з різною потужністю дозволяє знизити вартість системи, застосовуючи дешевші та менш потужні обчислювальні пристрої.Документ Відкритий доступ Models and methods for forming service packages for solving of the problem of designing services in information systems of providers(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Chymshyr, Viacheslaw; Zhdanova, Olena; Havrylenko, Olena; Nowakowski, Grzegorz; Telenyk, SergiiToday, in the telecommunications industry, service is one of the fundamental concepts. Building a service architecture is a key stage in the service life cycle. Information systems of telecommunications providers are designed, implemented and supported by IT companies based on the End-to-End model. This requires the IT company to solve a number of complex problems. In these conditions, building a service architecture, implementing and providing a service are divided into subproblems. Solutions to subproblems must be integrated to determine the coordinated activities of both the IT company and the provider. In this case, it is necessary to take into account the goals of IT companies, providers and their customers in such a way that it is beneficial to all parties. One of such subproblems is the formation of service packages that the IT company offers to providers. The article proposes formal models for the subproblem of forming service packages that allow taking into account the interests of the IT company and providers. These are multi-criteria nonlinear mathematical programming models. To solve the subproblem of forming service packages, a two-stage algorithm and a modified version of the guided genetic algorithm are proposed. The use of these methods allows us to take into account the interests of the IT company and providers. Also, such important factors that affect the formation of packages as the base price of the service, service dependency, discount system, resource and other constraints of the IT company and providers are taken into account. The two-stage algorithm at the first stage uses classical algorithms for solving the knapsack problem, and at the second stage implements a compromise scheme to improve the solution. The second of the proposed methods uses three types of tools in combination. The first tool controls the convergence of the genetic algorithm. The second tool determines the choice of the best solutions taking into account the features of the multi-criteria problem. The third tool allows to obtain the best solutions to the optimization problem with the simultaneous choice of a discount strategy. Experimental studies have confirmed the effectiveness of the proposed methods. Their ability to form the basis of the technology of forming service packages as a component of the platform for supporting the life cycle of services is also confirmed.Документ Відкритий доступ Neural network model for autonomous navigation of a water drone(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Chekmezov, Hlib; Molchanov, OleksiiWater drones have significant potential for use in environmental monitoring, search and rescue operations, and marine infrastructure inspection, but the specific conditions of the water environment make it difficult to implement stable autonomous navigation. The object of research presented in this paper is the machine learning process for autonomous navigation of a water drone model in a simulated water environment. The purpose of the study is to implement a neural network model for autonomous navigation of a water drone using a reinforcement learning method that provides improved obstacle avoidance and adaptation to water currents. To achieve this purpose, a new neural network model for autonomous drone navigation in the water environment based on the reinforcement learning method is proposed, which differs from the existing ones in that it uses an improved drone control algorithm that takes into account the speed and direction of the water current, which makes it possible to stabilize the process of generating neural network coefficients. To ensure an effective learning process and optimization of the model, a simulation training environment was developed using the USVSim simulator, which contains various factors that interfere with the drone's movement, such as water current and the presence of other objects. The water drone, acting as an agent, gradually learns to choose the most effective actions to maximize positive rewards through trial and error, interacting with the environment and adapting to changing conditions. This process takes place through the use of a Deep Q-Network: the drone provides the value of its current state to a deep neural network; the neural network processes the data, predicts the value of the most effective action, and gives it to the agent. The current state of the drone is information in the form of a set of sensor readings measuring the distance to the nearest obstacles, drone’s heading and current distance to goal. The value of the effective action received from the neural network is converted into a command for the rudder that the drone can understand. The value of the drone's thruster power is calculated by separate formulas using trigonometric functions. The results of the study showed that the use of the proposed model allows the drone to make decisions in a dynamic water environment when rapid adaptation to changes is required. The model successfully adapted its strategy based on feedback from the environment, so it can be concluded that the implemented model shows significant potential for further research and applications in the field of autonomous water drones, especially in changing and unpredictable environments.Документ Відкритий доступ Scientific article summarization model with unbounded input length(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Steblianko, Oleksandr; Shymkovych, Volodymyr; Kravets, Peter; Novatskyi, Anatolii; Shymkovych, LyubovIn recent years, the exponential growth of scientific literature has made it increasingly difficult for researchers and practitioners to keep up with new discoveries and developments in their fields. Thanks to this, text summarization has become one of the primary tasks of natural language processing. Abstractive summarization of long documents, such as scientific articles, requires large neural networks with high memory and computation requirements. Therefore, it is all the more important to find ways to increase the efficiency of long document summarization models. The objects of this research are long document summarization transformer models and the Unlimiformer cross-attention modification. The article reviews the basic principles of transformer attention, which constitutes the primary computational expense in transformer models. More efficient self-attention approaches used for long document summarization models are described, such as the global+sliding window attention used by Longformer. The cross-attention mechanism of Unlimiformer, which allows a model to have unbounded input length, is described in detail. The objective of the study is the development and evaluation of a long document summarization model using the Unlimiformer modification. To achieve this goal, a Longformer Decoder-Encoder model pretrained on the arXiv dataset is modified with Unlimiformer cross-attention. This modification can be applied without additional model fine-tuning, avoiding the cost of further training a large sequence length model. The developed model was evaluated on the arXiv dataset using the ROUGE-1, ROUGE-2 and ROUGE-L metrics. The developed model showed improved results compared to the baseline model, demonstrating the viability of using this approach to improve long document summarization models.Документ Відкритий доступ Software for collecting and analyzing metrics in highly loaded applications based on the Prometheus monitoring system(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Stetsenko, Inna; Myroniuk, AntonThis paper emphasizes the importance of collecting metrics during application operation for early detection of potential problems. The undisputed leader in this area is the Prometheus monitoring system, which, combined with Grafana – a platform for visualizing collected data in numerous graphs – becomes an indispensable tool for programmers and site reliability engineers. However, the average value of a certain metric is often unrepresentative, because it does not reflect a comprehensive picture. Instead, collecting metrics in terms of various quantiles over a long period is useful to identify even single instabilities. Still, the use of standard tools in the Python ecosystem may require a lot of server resources and long preliminary analysis, which can be quite costly for businesses from a financial point of view. That is why the development of a new approach for collecting and analyzing metrics in highly loaded applications based on the Prometheus monitoring system is relevant. The research aims to improve the efficiency of storing metrics across different quantiles, which will create additional opportunities for further analysis. A review of existing approaches for calculating quantile values on large data sets was conducted. Their comparative characteristics in terms of speed and memory usage were also presented. The chosen method was adapted for use with the real-time data stream and implemented as a Python extension for the official Prometheus library. It opens up opportunities for comprehensive monitoring of highly loaded systems in terms of both server resource usage and the quantity and quality of collected useful data. This solution can be easily implemented on large projects requiring continuous tracking of various metrics to ensure stable and uninterrupted service operation.Документ Відкритий доступ Some aspects of improvement of the run length encoding compression method(National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", 2024) Poriev, V.Об’єктом дослідження, представленим у цій статі, є метод RLE та його застосування для компресії растрових зображень. Метою даного дослідження є винайдення більш досконалих форматів кодових слів для пакування ланцюжків повторюваних пікселів сумісно з кодуванням одиночних пікселів зображення задля підвищення ступеня компресії методом RLE. Для того, щоб досягти цієї мети, виконано узагальнення відомих форматів кодових слів у вигляді відповідної структурної моделі. Це дозволило знайти деякі напрямкі вдосконалення RLE кодування. Запропоновано декілька нових способів пакування ланцюжків пікселів разом з одиночними пікселами для підвищення ступеня компресії зображень порівняно з вже відомими версіями RLE. Вказані новітні способи включено до множини способів упаковки з назвою RLE_BP. Кодер RLE_BP автоматично шукає оптимальні параметри кодових слів задля досягнення мінімально можливого обсягу двійкового коду для конкретного зображення. Виконані експериментальні дослідження компресії растрів на основі синтетичних тестів для порівняння запропонованих способів кодування з відомими реалізаціями метода RLE. Запропоновані способи кодування дозволяють досягти більшої компресії окремих категорій растрових зображень високої роздільної здатності порівняно з відомими. Результати виконаного дослідження можуть бути використані для побудови широкого класу програмно-апаратних засобів.