Бакалаврські роботи (ММСА)
Постійне посилання зібрання
Переглянути
Перегляд Бакалаврські роботи (ММСА) за Ключові слова "adagrad"
Зараз показуємо 1 - 1 з 1
Результатів на сторінці
Налаштування сортування
Документ Відкритий доступ Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування(2023) Копа, Максим Вікторович; Зайченко, Юрій ПетровичДипломна робота: 113 с., 11 табл., 31 рис., 2 додатки, 22 джерела. Об'єкт дослідження – алгоритми оптимізації глибокого навчання: Метод стохастичного градієнтного спуску (SGD), Adam, Adagrad, RMSprop. Предмет дослідження – задачі прогнозування в контексті глибокого навчання. Мета роботи – дослідити та порівняти ефективність чотирьох алгоритмів оптимізації глибокого навчання SGD, Adam, Adagrad та RMSprop в задачах прогнозування. Результати роботи – в процесі виконання роботи було проведено порівняльний аналіз алгоритмів оптимізації глибокого навчання. Для цього було обрано 5 наборів даних та підготовлено їх до навчання моделей. Було створено 5 моделей з різною архітектурою відповідно до кожного набору даних. Було проведено компіляцію та навчання моделей. На етапі компіляції було визначено функцію втрат для кожної моделі відповідно до задачі а також метрики, за якими буде оцінюватись продуктивність моделі. Після навчання моделі було виміряно відповідні втрати та метрики на тестових даних. Було проведено аналіз всіх результатів та зроблено висновки. Для виконання цього, було створено програмний продукт на мові програмування Python (Додаток Б).