Перегляд за Автор "Momot, A."
Зараз показуємо 1 - 6 з 6
Результатів на сторінці
Налаштування сортування
Документ Відкритий доступ Analysis of the influence of the threshold level of binarization on the efficiency of segmentation of images of surface defects in steel by the U-NET network(КПІ ім. Ігоря Сікорського, 2023) Momot, A.; Steshenko, Y.Документ Відкритий доступ Analysis of U-NET architecture modifications for automated ultrasound image segmentation(КПІ ім. Ігоря Сікорського, 2023) Momot, A.; Zabolueva, M.Документ Відкритий доступ Areas of application of the YOLOv8 deep learning model in non-destructive testing(КПІ ім. Ігоря Сікорського, 2024) Momot, A.; Zemliakov, O.Документ Відкритий доступ Automated segmentation of ultrasound medical images using the Attention U-Net model(2024) Momot, A.; Zaboluieva, M.; Galagan, R.The article deals with the method of automated semantic segmentation of ultrasound medical images using the Attention U-Net deep learning model. The advantages of using Attention blocks in neural network architectures for segmentation tasks are analyzed. To test the described algorithms, the Breast Ultrasound Images training dataset was chosen. The method described in the article allows for automating the process of detecting and preliminary classification of breast tumors based on the analysis of ultrasound images. As a result of training the Attention U-Net model, the Mean IOU value of 49.2% was obtained on the test set. The network can automatically classify the detected neoplasm as benign or malignant with an F1 Score of 0.87. The results indicate the prospects of using the Attention U-Net model in the tasks of analyzing ultrasound medical images. Ways to further improve the considered method are proposedДокумент Відкритий доступ The use of efficientnet models in infrared image classification(КПІ ім. Ігоря Сікорського, 2022) Momot, A.; Skladchykov, I.Документ Відкритий доступ The use of magnetometric gradiometers in explosive ordnance detection(КПІ ім. Ігоря Сікорського, 2024) Momot, A.; Yakotiuk, V.