Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування
Вантажиться...
Дата
2023
Автори
Науковий керівник
Назва журналу
Номер ISSN
Назва тому
Видавець
Анотація
Дипломна робота: 113 с., 11 табл., 31 рис., 2 додатки, 22 джерела.
Об'єкт дослідження – алгоритми оптимізації глибокого навчання: Метод
стохастичного градієнтного спуску (SGD), Adam, Adagrad, RMSprop.
Предмет дослідження – задачі прогнозування в контексті глибокого
навчання.
Мета роботи – дослідити та порівняти ефективність чотирьох алгоритмів
оптимізації глибокого навчання SGD, Adam, Adagrad та RMSprop в задачах
прогнозування.
Результати роботи – в процесі виконання роботи було проведено
порівняльний аналіз алгоритмів оптимізації глибокого навчання. Для цього
було обрано 5 наборів даних та підготовлено їх до навчання моделей. Було
створено 5 моделей з різною архітектурою відповідно до кожного набору
даних. Було проведено компіляцію та навчання моделей. На етапі компіляції
було визначено функцію втрат для кожної моделі відповідно до задачі а також
метрики, за якими буде оцінюватись продуктивність моделі. Після навчання
моделі було виміряно відповідні втрати та метрики на тестових даних. Було
проведено аналіз всіх результатів та зроблено висновки.
Для виконання цього, було створено програмний продукт на мові
програмування Python (Додаток Б).
Опис
Ключові слова
задача прогнозування, глибоке навчання, нейронні мережі, оптимізатори, метод стохастичного градієнтного спуску, оптимізатор adam, forecasting task, deep learning, neural networks, optimizers, stochastic gradient descent method, adam optimizer, adagrad, rmsprop
Бібліографічний опис
Копа, М. В. Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування : дипломна робота ... бакалавра : 124 Системний аналіз / Копа Максим Вікторович. – Київ, 2023. – 113 с.