Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування

Вантажиться...
Ескіз

Дата

2023

Науковий керівник

Назва журналу

Номер ISSN

Назва тому

Видавець

Анотація

Дипломна робота: 113 с., 11 табл., 31 рис., 2 додатки, 22 джерела. Об'єкт дослідження – алгоритми оптимізації глибокого навчання: Метод стохастичного градієнтного спуску (SGD), Adam, Adagrad, RMSprop. Предмет дослідження – задачі прогнозування в контексті глибокого навчання. Мета роботи – дослідити та порівняти ефективність чотирьох алгоритмів оптимізації глибокого навчання SGD, Adam, Adagrad та RMSprop в задачах прогнозування. Результати роботи – в процесі виконання роботи було проведено порівняльний аналіз алгоритмів оптимізації глибокого навчання. Для цього було обрано 5 наборів даних та підготовлено їх до навчання моделей. Було створено 5 моделей з різною архітектурою відповідно до кожного набору даних. Було проведено компіляцію та навчання моделей. На етапі компіляції було визначено функцію втрат для кожної моделі відповідно до задачі а також метрики, за якими буде оцінюватись продуктивність моделі. Після навчання моделі було виміряно відповідні втрати та метрики на тестових даних. Було проведено аналіз всіх результатів та зроблено висновки. Для виконання цього, було створено програмний продукт на мові програмування Python (Додаток Б).

Опис

Ключові слова

задача прогнозування, глибоке навчання, нейронні мережі, оптимізатори, метод стохастичного градієнтного спуску, оптимізатор adam, forecasting task, deep learning, neural networks, optimizers, stochastic gradient descent method, adam optimizer, adagrad, rmsprop

Бібліографічний опис

Копа, М. В. Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування : дипломна робота ... бакалавра : 124 Системний аналіз / Копа Максим Вікторович. – Київ, 2023. – 113 с.

DOI