Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж
dc.contributor.advisor | Яковлєв, Сергій Володимирович | |
dc.contributor.author | Козаровицька, Поліна Євгенівна | |
dc.date.accessioned | 2023-10-16T10:18:33Z | |
dc.date.available | 2023-10-16T10:18:33Z | |
dc.date.issued | 2023 | |
dc.description.abstract | В ходi роботи було протестовано п’ять рiзних методiв оптимiзацiї гiперпараметрiв: Випадковий пошук, Еволюцiйний алгоритм, Баєсову оптимiзацiю, Гiпербенд та Послiдовне дiлення навпiл. Для цього було використано архiтектуру згорткової нейронної мережi, а також три набори даних: Fashion MNIST, Oracle MNIST та їх поєднання. Отриманi данi показали, що хоч на невеликому наборi даних Oracle MNIST Випадковий пошук показав не найгiршi результати, вже на середньому за розмiром датасетi Fashion MNIST рiзниця мiж Випадковим пошуком та Баєсовою оптимiзацiєю є суттєвою. Це означає, що Випадковий пошук має сенс застосовувати лише на дуже малих задачах. З iншого боку, Баєсова оптимiзацiя показала значно кращi результати, тому її рекомендується використовувати для схожих задач. | uk |
dc.description.abstractother | Five different methods of hyperparameter optimization were tested in the course of the work: Random search, Evolution algorithm, Bayesian optimization, Hyperband, and Successive halving. For this purpose, a Convolutional Neural Network architecture was used, as well as three datasets: Fashion MNIST, Oracle MNIST, and their combination. The resulting data showed that although Random Search did not show the worst results on the small dataset Oracle MNIST, the difference between Random Search and Bayesian optimization was already significant on the medium-sized Fashion MNIST dataset. This means that it makes sense to use Random Search only on very small problems. On the other hand, Bayesian optimization has shown significantly better results, so it is recommended for similar tasks. | uk |
dc.format.extent | 57 c. | uk |
dc.identifier.citation | Козаровицька, П. Є. Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж : дипломна робота ... бакалавра : 113 Прикладна математика / Козаровицька Поліна Євгенівна. – Київ, 2023. – 57 с. | uk |
dc.identifier.uri | https://ela.kpi.ua/handle/123456789/61429 | |
dc.language.iso | uk | uk |
dc.publisher | КПІ ім. Ігоря Сікорського | uk |
dc.publisher.place | Київ | uk |
dc.subject | оптимiзацiя гiперпараметрiв | uk |
dc.subject | послiдовне дiлення навпiл | uk |
dc.subject | гiпербенд | uk |
dc.subject | баєсова оптимiзацiя | uk |
dc.subject | еволюцiйний алгоритм | uk |
dc.subject | випадковий пошук | uk |
dc.subject | successive halving | uk |
dc.subject | hypermizatioparametr optin | uk |
dc.subject | random search | uk |
dc.subject | bayesian optimization | uk |
dc.subject | evolution algorithm | uk |
dc.subject | hyperband | uk |
dc.title | Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж | uk |
dc.type | Bachelor Thesis | uk |
Файли
Контейнер файлів
1 - 1 з 1
Вантажиться...
- Назва:
- Kozarovytska_bakalavr.pdf
- Розмір:
- 2.11 MB
- Формат:
- Adobe Portable Document Format
- Опис:
Ліцензійна угода
1 - 1 з 1
Ескіз недоступний
- Назва:
- license.txt
- Розмір:
- 9.1 KB
- Формат:
- Item-specific license agreed upon to submission
- Опис: