Зайченко, Юрій ПетровичКопа, Максим Вікторович2023-10-122023-10-122023Копа, М. В. Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування : дипломна робота ... бакалавра : 124 Системний аналіз / Копа Максим Вікторович. – Київ, 2023. – 113 с.https://ela.kpi.ua/handle/123456789/61289Дипломна робота: 113 с., 11 табл., 31 рис., 2 додатки, 22 джерела. Об'єкт дослідження – алгоритми оптимізації глибокого навчання: Метод стохастичного градієнтного спуску (SGD), Adam, Adagrad, RMSprop. Предмет дослідження – задачі прогнозування в контексті глибокого навчання. Мета роботи – дослідити та порівняти ефективність чотирьох алгоритмів оптимізації глибокого навчання SGD, Adam, Adagrad та RMSprop в задачах прогнозування. Результати роботи – в процесі виконання роботи було проведено порівняльний аналіз алгоритмів оптимізації глибокого навчання. Для цього було обрано 5 наборів даних та підготовлено їх до навчання моделей. Було створено 5 моделей з різною архітектурою відповідно до кожного набору даних. Було проведено компіляцію та навчання моделей. На етапі компіляції було визначено функцію втрат для кожної моделі відповідно до задачі а також метрики, за якими буде оцінюватись продуктивність моделі. Після навчання моделі було виміряно відповідні втрати та метрики на тестових даних. Було проведено аналіз всіх результатів та зроблено висновки. Для виконання цього, було створено програмний продукт на мові програмування Python (Додаток Б).113 с.ukзадача прогнозуванняглибоке навчаннянейронні мережіоптимізаториметод стохастичного градієнтного спускуоптимізатор adamforecasting taskdeep learningneural networksoptimizersstochastic gradient descent methodadam optimizeradagradrmspropДослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозуванняBachelor Thesis