Training Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rate
dc.contributor.author | Romanuke, Vadim V. | |
dc.contributor.author | Романюк, Вадим Васильович | |
dc.contributor.author | Романюк, Вадим Васильевич | |
dc.date.accessioned | 2018-07-23T10:41:54Z | |
dc.date.available | 2018-07-23T10:41:54Z | |
dc.date.issued | 2016 | |
dc.description.abstracten | Background. Due to that the preceding approaches for improving the MNIST image dataset error rate do not have a clear structure which could let repeat it in a strengthened manner, the formalization of the performance improvement is considered. Objective. The goal is to strictly formalize a strategy of reducing the MNIST dataset error rate. Methods. An algorithm for achieving the better performance by expanding the training data and boosting with ensembles is suggested. The algorithm uses the designed concept of the training data expansion. Coordination of the concept and the algorithm defines a strategy of the error rate reduction. Results. In relative comparison, the single convolutional neural network performance on the MNIST dataset has been bettered almost by 30 %. With boosting, the performance is 0.21 % error rate meaning that only 21 handwritten digits from 10,000 are not recognized. Conclusions. The training data expansion is crucial for reducing the MNIST dataset error rate. The boosting is ineffective without it. Application of the stated approach has an impressive impact for reducing the MNIST dataset error rate, using only 5 or 6 convolutional neural networks against those 35 ones in the benchmark work. | uk |
dc.description.abstractru | Проблематика. Поскольку предыдущие подходы к улучшению уровня ошибок набора данных MNIST не имеют четкой структуры, которая могла бы быть четко воссоздана, рассматривается формализация улучшения производительности. Цель исследования. Целью работы является строгая формализация стратегии снижения уровня ошибок набора данных MNIST. Методика реализации. Предлагается алгоритм достижения лучшей производительности с помощью увеличения объема данных обучения и бустинга. Алгоритм использует разработанную концепцию увеличения объема данных обучения. Координация этой концепции и алгоритма определяет стратегию снижения уровня ошибок. Результаты исследования. В относительном сравнении производительность одной сверточной нейронной сети на наборе данных MNIST улучшена почти на 30 %. С помощью бустинга производительность составляет 0,21 % – не распознается лишь 21 рукописная цифра из 10000. Выводы. Увеличение объема данных обучения является определяющим для снижения уровня ошибок. Без этого бустинг неэффективен. Применение изложенного подхода оказывает выразительное влияние на снижение уровня ошибок набора данных MNIST при использовании лишь 5 или 6 сверточных нейронных сетей против 35 в эталонной работе. | uk |
dc.description.abstractuk | Проблематика. Оскільки попередні підходи до покращення рівня помилок банку зображень MNIST не мають чіткої структури, яка могла би бути чітко відтворена, розглядається формалізація покращення продуктивності. Мета дослідження. Метою роботи є строга формалізація стратегії зниження рівня помилок банку даних MNIST. Методика реалізації. Пропонується алгоритм досягнення кращої продуктивності за допомогою збільшення обсягу даних навчання та бустингу. Алгоритм використовує розроблену концепцію збільшення обсягу даних навчання. Координація цієї концепції та алгоритму визначає стратегію зниження рівня помилок. Результати дослідження. У відносному порівнянні продуктивність однієї згорткової нейронної мережі на банку даних MNIST покращена майже на 30 %. За допомогою бустингу продуктивність становить 0,21 % – не розпізнається лише 21 рукописна цифра з 10000. Висновки. Збільшення обсягу даних навчання є визначальним для зниження рівня помилок банку даних MNIST. Без цього бустинг неефективний. Застосування викладеного підходу має виразний вплив на зниження рівня помилок банку даних MNIST при використанні лише 5 або 6 згорткових нейронних мереж проти 35 в еталонній роботі. | uk |
dc.format.pagerange | С. 29-34 | uk |
dc.identifier.citation | Romanuke V. V. Training Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rate / V. V. Romanuke // Наукові вісті НТУУ «КПІ» : міжнародний науково-технічний журнал. – 2016. – № 6(110). – С. 29–34. – Бібліогр.: 13 назв. | uk |
dc.identifier.doi | https://doi.org/10.20535/1810-0546.2016.6.84115 | |
dc.identifier.uri | https://ela.kpi.ua/handle/123456789/24025 | |
dc.language.iso | en | uk |
dc.publisher | КПІ ім. Ігоря Сікорського | uk |
dc.publisher.place | Київ | uk |
dc.source | Наукові вісті НТУУ «КПІ» : міжнародний науково-технічний журнал, 2016, № 6(110) | uk |
dc.subject | MNIST | uk |
dc.subject | convolutional neural network | uk |
dc.subject | error rate | uk |
dc.subject | training data expansion | uk |
dc.subject | boosting | uk |
dc.subject | згорткова нейронна мережа | uk |
dc.subject | рівень помилок | uk |
dc.subject | збільшення обсягу даних навчання | uk |
dc.subject | бустинг | uk |
dc.subject | сверточная нейронная сеть | uk |
dc.subject | уровень ошибок | uk |
dc.subject | увеличение объема данных обучения | uk |
dc.subject.udc | 519.226+004.852 | uk |
dc.title | Training Data Expansion and Boosting of Convolutional Neural Networks for Reducing the MNIST Dataset Error Rate | uk |
dc.title.alternative | Збільшення обсягу даних навчання та бустинг згорткових нейронних мереж для зниження рівня помилок банку даних MNIST | uk |
dc.title.alternative | Увеличение объема данных обучения и бустинг сверточных нейронных сетей для снижения уровня ошибок набора данных MNIST | uk |
dc.type | Article | uk |
Файли
Контейнер файлів
1 - 1 з 1
Вантажиться...
- Назва:
- NV2016-6_04.pdf
- Розмір:
- 400.45 KB
- Формат:
- Adobe Portable Document Format
- Опис:
Ліцензійна угода
1 - 1 з 1
Ескіз недоступний
- Назва:
- license.txt
- Розмір:
- 7.74 KB
- Формат:
- Item-specific license agreed upon to submission
- Опис: