Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування

dc.contributor.advisorЗайченко, Юрій Петрович
dc.contributor.authorКопа, Максим Вікторович
dc.date.accessioned2023-10-12T09:16:18Z
dc.date.available2023-10-12T09:16:18Z
dc.date.issued2023
dc.description.abstractДипломна робота: 113 с., 11 табл., 31 рис., 2 додатки, 22 джерела. Об'єкт дослідження – алгоритми оптимізації глибокого навчання: Метод стохастичного градієнтного спуску (SGD), Adam, Adagrad, RMSprop. Предмет дослідження – задачі прогнозування в контексті глибокого навчання. Мета роботи – дослідити та порівняти ефективність чотирьох алгоритмів оптимізації глибокого навчання SGD, Adam, Adagrad та RMSprop в задачах прогнозування. Результати роботи – в процесі виконання роботи було проведено порівняльний аналіз алгоритмів оптимізації глибокого навчання. Для цього було обрано 5 наборів даних та підготовлено їх до навчання моделей. Було створено 5 моделей з різною архітектурою відповідно до кожного набору даних. Було проведено компіляцію та навчання моделей. На етапі компіляції було визначено функцію втрат для кожної моделі відповідно до задачі а також метрики, за якими буде оцінюватись продуктивність моделі. Після навчання моделі було виміряно відповідні втрати та метрики на тестових даних. Було проведено аналіз всіх результатів та зроблено висновки. Для виконання цього, було створено програмний продукт на мові програмування Python (Додаток Б).uk
dc.description.abstractotherGraduate work: 113 p., 11 tabl., 31 fig., 2 append., 22 sources The object of research is deep learning optimization algorithms: Stochastic Gradient Descent Method (SGD), Adam, Adagrad, RMSprop. The subject of the research is forecasting tasks in the context of deep learning. The goal of the work is to investigate and compare the effectiveness of four deep learning optimization algorithms SGD, Adam, Adagrad and RMSprop in forecasting tasks. The results of the work - in the process of the work, a comparative analysis of deep learning optimization algorithms was carried out. For this, 5 data sets were selected and prepared for model training. Models with different architectures were created according to each data set. Models were compiled and trained. At the compilation stage, the loss function for each model was determined according to the task, as well as the metrics by which the performance of the model will be evaluated. After training the model, the corresponding losses and metrics were measured on the test data. All results were analyzed and conclusions drawn. To do this, a software product was created in the Python programming language (Appendix Б).uk
dc.format.extent113 с.uk
dc.identifier.citationКопа, М. В. Дослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозування : дипломна робота ... бакалавра : 124 Системний аналіз / Копа Максим Вікторович. – Київ, 2023. – 113 с.uk
dc.identifier.urihttps://ela.kpi.ua/handle/123456789/61289
dc.language.isoukuk
dc.publisher.placeКиївuk
dc.subjectзадача прогнозуванняuk
dc.subjectглибоке навчанняuk
dc.subjectнейронні мережіuk
dc.subjectоптимізаториuk
dc.subjectметод стохастичного градієнтного спускуuk
dc.subjectоптимізатор adamuk
dc.subjectforecasting taskuk
dc.subjectdeep learninguk
dc.subjectneural networksuk
dc.subjectoptimizersuk
dc.subjectstochastic gradient descent methoduk
dc.subjectadam optimizeruk
dc.subjectadagraduk
dc.subjectrmspropuk
dc.titleДослідження та порівняльний аналіз алгоритмів глибокого навчання Stochastic gradient method, Adam, Adagrad, RMSprop в задачах прогнозуванняuk
dc.typeBachelor Thesisuk

Файли

Контейнер файлів
Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
Kopa_bakalavr.pdf
Розмір:
1.86 MB
Формат:
Adobe Portable Document Format
Опис:
Ліцензійна угода
Зараз показуємо 1 - 1 з 1
Ескіз недоступний
Назва:
license.txt
Розмір:
1.71 KB
Формат:
Item-specific license agreed upon to submission
Опис: