Аналіз даних веб-сайтів з використанням технологій web scraping
dc.contributor.advisor | Отрох, Сергій Іванович | |
dc.contributor.author | Ключук, Владислав Петрович | |
dc.date.accessioned | 2024-09-10T08:49:23Z | |
dc.date.available | 2024-09-10T08:49:23Z | |
dc.date.issued | 2024 | |
dc.description | Даний програмний додаток містить механізм асинхронного збору та обробки даних з цільових веб-сайтів пошуку роботи в ІТ сфері українського ринку. Програма надає функціональні можливості для взаємодії із зібраними вакансіями, такі як: перегляд списку вакансій, перегляд окремої вакансії, оновлення списку, додавання вакансії до «Збережених», створення мапи технологій з можливістю перестворення та видалення. Також програма надає можливість створити власний обліковий запис або увійти в режимі гостя, який містить менше функціональних можливостей (перегляд списку вакансій або окремої вакансії та оновлення списку). | |
dc.description.abstract | Дипломна робота виконана на 73 сторінках, містить 15 ілюстрацій, 7 таблиць, 2 додатки, 27 джерел в переліку посилань. Мета роботи – створення алгоритмів збору даних за допомогою інструментів web scraping та асинхронного програмування, мобільного додатку та API для взаємодії із зібраними даними. Методи та засоби: мова програмування Python, фреймворки Django та Django REST для створення API, за допомогою якого можна взаємодіяти з даними, фреймворк Flet для створення мобільного додатку, СКБД SQLite для збереження зібраних і проаналізованих даних із цільових веб-сайтів, середовище розробки PyCharm, бібліотеки requests, aiohttp з asyncio для відправлення на сервер синхронних та асинхронних запитів відповідно, beautifulsoup4 та openai для аналізу структури даних з подальшим відбором та обробки штучним інтелектом відповідно. Результат – програмний продукт для взаємодії із зібраними та проаналізованими даними із цільових веб-сайтів на базі вакансій в українській сфері IT. | |
dc.description.abstractother | The diploma work is made on 73 pages, contains 15 illustrations, 7 tables, 2 appendixs, 27 sources in the list of links. The purpose of the work - creation of data collection algorithms using web scraping and asynchronous programming tools, mobile application and API for interaction with collected data. Methods and tools: Python programming language, Django and Django REST frameworks for API creation, to interaction with data, the Flet framework for creating a mobile application, SQLite DBMS for storing collected and analyzed data from target websites, PyCharm development environment, requests libraries and aiohttp with asyncio for sending synchronous and asynchronous requests to the server, respectively, beautifulsoup4 and openai for data structure analysis followed by sampling and artificial intelligence processing respectively. The result – a software product for interacting with the collected and analyzed data from target websites based on vacancies in the Ukrainian IT sector. | |
dc.format.extent | 73 с. | |
dc.identifier.citation | Ключук, В. П. Аналіз даних веб-сайтів з використанням технологій web scraping : дипломна робота … бакалавра : 122 Комп’ютерні науки / Ключук Владислав Петрович. – Київ, 2024. – 73 с. | |
dc.identifier.uri | https://ela.kpi.ua/handle/123456789/68844 | |
dc.language.iso | uk | |
dc.publisher | КПІ ім. Ігоря Сікорського | |
dc.publisher.place | Київ | |
dc.title | Аналіз даних веб-сайтів з використанням технологій web scraping | |
dc.type | Bachelor Thesis |
Файли
Контейнер файлів
1 - 1 з 1
Вантажиться...
- Назва:
- Kliuchuk_bakalavr.pdf
- Розмір:
- 3.45 MB
- Формат:
- Adobe Portable Document Format
Ліцензійна угода
1 - 1 з 1
Ескіз недоступний
- Назва:
- license.txt
- Розмір:
- 8.98 KB
- Формат:
- Item-specific license agreed upon to submission
- Опис: