Яковлєв, Сергій ВолодимировичКозаровицька, Поліна Євгенівна2023-10-162023-10-162023Козаровицька, П. Є. Експериментальне порівняння методів оптимізації гіперпараметрів для нейронних мереж : дипломна робота ... бакалавра : 113 Прикладна математика / Козаровицька Поліна Євгенівна. – Київ, 2023. – 57 с.https://ela.kpi.ua/handle/123456789/61429В ходi роботи було протестовано п’ять рiзних методiв оптимiзацiї гiперпараметрiв: Випадковий пошук, Еволюцiйний алгоритм, Баєсову оптимiзацiю, Гiпербенд та Послiдовне дiлення навпiл. Для цього було використано архiтектуру згорткової нейронної мережi, а також три набори даних: Fashion MNIST, Oracle MNIST та їх поєднання. Отриманi данi показали, що хоч на невеликому наборi даних Oracle MNIST Випадковий пошук показав не найгiршi результати, вже на середньому за розмiром датасетi Fashion MNIST рiзниця мiж Випадковим пошуком та Баєсовою оптимiзацiєю є суттєвою. Це означає, що Випадковий пошук має сенс застосовувати лише на дуже малих задачах. З iншого боку, Баєсова оптимiзацiя показала значно кращi результати, тому її рекомендується використовувати для схожих задач.57 c.ukоптимiзацiя гiперпараметрiвпослiдовне дiлення навпiлгiпербендбаєсова оптимiзацiяеволюцiйний алгоритмвипадковий пошукsuccessive halvinghypermizatioparametr optinrandom searchbayesian optimizationevolution algorithmhyperbandЕкспериментальне порівняння методів оптимізації гіперпараметрів для нейронних мережBachelor Thesis