Training Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rate

dc.contributor.authorRomanuke, Vadim V.
dc.contributor.authorРоманюк, Вадим Васильович
dc.contributor.authorРоманюк, Вадим Васильевич
dc.date.accessioned2018-07-23T10:41:54Z
dc.date.available2018-07-23T10:41:54Z
dc.date.issued2016
dc.description.abstractenBackground. Due to that the preceding approaches for improving the MNIST image dataset error rate do not have a clear structure which could let repeat it in a strengthened manner, the formalization of the performance improvement is considered. Objective. The goal is to strictly formalize a strategy of reducing the MNIST dataset error rate. Methods. An algorithm for achieving the better performance by expanding the training data and boosting with ensembles is suggested. The algorithm uses the designed concept of the training data expansion. Coordination of the concept and the algorithm defines a strategy of the error rate reduction. Results. In relative comparison, the single convolutional neural network performance on the MNIST dataset has been bettered almost by 30 %. With boosting, the performance is 0.21 % error rate meaning that only 21 handwritten digits from 10,000 are not recognized. Conclusions. The training data expansion is crucial for reducing the MNIST dataset error rate. The boosting is ineffective without it. Application of the stated approach has an impressive impact for reducing the MNIST dataset error rate, using only 5 or 6 convolutional neural networks against those 35 ones in the benchmark work.uk
dc.description.abstractruПроблематика. Поскольку предыдущие подходы к улучшению уровня ошибок набора данных MNIST не имеют четкой структуры, которая могла бы быть четко воссоздана, рассматривается формализация улучшения производительности. Цель исследования. Целью работы является строгая формализация стратегии снижения уровня ошибок набора данных MNIST. Методика реализации. Предлагается алгоритм достижения лучшей производительности с помощью увеличения объема данных обучения и бустинга. Алгоритм использует разработанную концепцию увеличения объема данных обучения. Координация этой концепции и алгоритма определяет стратегию снижения уровня ошибок. Результаты исследования. В относительном сравнении производительность одной сверточной нейронной сети на наборе данных MNIST улучшена почти на 30 %. С помощью бустинга производительность составляет 0,21 % – не распознается лишь 21 рукописная цифра из 10000. Выводы. Увеличение объема данных обучения является определяющим для снижения уровня ошибок. Без этого бустинг неэффективен. Применение изложенного подхода оказывает выразительное влияние на снижение уровня ошибок набора данных MNIST при использовании лишь 5 или 6 сверточных нейронных сетей против 35 в эталонной работе.uk
dc.description.abstractukПроблематика. Оскільки попередні підходи до покращення рівня помилок банку зображень MNIST не мають чіткої структури, яка могла би бути чітко відтворена, розглядається формалізація покращення продуктивності. Мета дослідження. Метою роботи є строга формалізація стратегії зниження рівня помилок банку даних MNIST. Методика реалізації. Пропонується алгоритм досягнення кращої продуктивності за допомогою збільшення обсягу даних навчання та бустингу. Алгоритм використовує розроблену концепцію збільшення обсягу даних навчання. Координація цієї концепції та алгоритму визначає стратегію зниження рівня помилок. Результати дослідження. У відносному порівнянні продуктивність однієї згорткової нейронної мережі на банку даних MNIST покращена майже на 30 %. За допомогою бустингу продуктивність становить 0,21 % – не розпізнається лише 21 рукописна цифра з 10000. Висновки. Збільшення обсягу даних навчання є визначальним для зниження рівня помилок банку даних MNIST. Без цього бустинг неефективний. Застосування викладеного підходу має виразний вплив на зниження рівня помилок банку даних MNIST при використанні лише 5 або 6 згорткових нейронних мереж проти 35 в еталонній роботі.uk
dc.format.pagerangeС. 29-34uk
dc.identifier.citationRomanuke V. V. Training Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rate / V. V. Romanuke // Наукові вісті НТУУ «КПІ» : міжнародний науково-технічний журнал. – 2016. – № 6(110). – С. 29–34. – Бібліогр.: 13 назв.uk
dc.identifier.doihttps://doi.org/10.20535/1810-0546.2016.6.84115
dc.identifier.urihttps://ela.kpi.ua/handle/123456789/24025
dc.language.isoenuk
dc.publisherКПІ ім. Ігоря Сікорськогоuk
dc.publisher.placeКиївuk
dc.sourceНаукові вісті НТУУ «КПІ» : міжнародний науково-технічний журнал, 2016, № 6(110)uk
dc.subjectMNISTuk
dc.subjectconvolutional neural networkuk
dc.subjecterror rateuk
dc.subjecttraining data expansionuk
dc.subjectboostinguk
dc.subjectзгорткова нейронна мережаuk
dc.subjectрівень помилокuk
dc.subjectзбільшення обсягу даних навчанняuk
dc.subjectбустингuk
dc.subjectсверточная нейронная сетьuk
dc.subjectуровень ошибокuk
dc.subjectувеличение объема данных обученияuk
dc.subject.udc519.226+004.852uk
dc.titleTraining Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rateuk
dc.title.alternativeЗбільшення обсягу даних навчання та бустинг згорткових нейронних мереж для зниження рівня помилок банку даних MNISTuk
dc.title.alternativeУвеличение объема данных обучения и бустинг сверточных нейронных сетей для снижения уровня ошибок набора данных MNISTuk
dc.typeArticleuk

Файли

Контейнер файлів
Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
NV2016-6_04.pdf
Розмір:
400.45 KB
Формат:
Adobe Portable Document Format
Опис:
Ліцензійна угода
Зараз показуємо 1 - 1 з 1
Ескіз недоступний
Назва:
license.txt
Розмір:
7.74 KB
Формат:
Item-specific license agreed upon to submission
Опис: