Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж

dc.contributor.advisorЯковлєв, Сергій Володимирович
dc.contributor.authorКозаровицька, Поліна Євгенівна
dc.date.accessioned2023-10-16T10:18:33Z
dc.date.available2023-10-16T10:18:33Z
dc.date.issued2023
dc.description.abstractВ ходi роботи було протестовано п’ять рiзних методiв оптимiзацiї гiперпараметрiв: Випадковий пошук, Еволюцiйний алгоритм, Баєсову оптимiзацiю, Гiпербенд та Послiдовне дiлення навпiл. Для цього було використано архiтектуру згорткової нейронної мережi, а також три набори даних: Fashion MNIST, Oracle MNIST та їх поєднання. Отриманi данi показали, що хоч на невеликому наборi даних Oracle MNIST Випадковий пошук показав не найгiршi результати, вже на середньому за розмiром датасетi Fashion MNIST рiзниця мiж Випадковим пошуком та Баєсовою оптимiзацiєю є суттєвою. Це означає, що Випадковий пошук має сенс застосовувати лише на дуже малих задачах. З iншого боку, Баєсова оптимiзацiя показала значно кращi результати, тому її рекомендується використовувати для схожих задач.uk
dc.description.abstractotherFive different methods of hyperparameter optimization were tested in the course of the work: Random search, Evolution algorithm, Bayesian optimization, Hyperband, and Successive halving. For this purpose, a Convolutional Neural Network architecture was used, as well as three datasets: Fashion MNIST, Oracle MNIST, and their combination. The resulting data showed that although Random Search did not show the worst results on the small dataset Oracle MNIST, the difference between Random Search and Bayesian optimization was already significant on the medium-sized Fashion MNIST dataset. This means that it makes sense to use Random Search only on very small problems. On the other hand, Bayesian optimization has shown significantly better results, so it is recommended for similar tasks.uk
dc.format.extent57 c.uk
dc.identifier.citationКозаровицька, П. Є. Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж : дипломна робота ... бакалавра : 113 Прикладна математика / Козаровицька Поліна Євгенівна. – Київ, 2023. – 57 с.uk
dc.identifier.urihttps://ela.kpi.ua/handle/123456789/61429
dc.language.isoukuk
dc.publisherКПІ ім. Ігоря Сікорськогоuk
dc.publisher.placeКиївuk
dc.subjectоптимiзацiя гiперпараметрiвuk
dc.subjectпослiдовне дiлення навпiлuk
dc.subjectгiпербендuk
dc.subjectбаєсова оптимiзацiяuk
dc.subjectеволюцiйний алгоритмuk
dc.subjectвипадковий пошукuk
dc.subjectsuccessive halvinguk
dc.subjecthypermizatioparametr optinuk
dc.subjectrandom searchuk
dc.subjectbayesian optimizationuk
dc.subjectevolution algorithmuk
dc.subjecthyperbanduk
dc.titleЕкспериментальне порівняння методів оптимізації гіперпараметрів для нейронних мережuk
dc.typeBachelor Thesisuk

Файли

Контейнер файлів
Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
Kozarovytska_bakalavr.pdf
Розмір:
2.11 MB
Формат:
Adobe Portable Document Format
Опис:
Ліцензійна угода
Зараз показуємо 1 - 1 з 1
Ескіз недоступний
Назва:
license.txt
Розмір:
9.1 KB
Формат:
Item-specific license agreed upon to submission
Опис: