Scientific article summarization model with unbounded input length

dc.contributor.authorSteblianko, Oleksandr
dc.contributor.authorShymkovych, Volodymyr
dc.contributor.authorKravets, Peter
dc.contributor.authorNovatskyi, Anatolii
dc.contributor.authorShymkovych, Lyubov
dc.date.accessioned2025-04-16T12:40:43Z
dc.date.available2025-04-16T12:40:43Z
dc.date.issued2024
dc.description.abstractIn recent years, the exponential growth of scientific literature has made it increasingly difficult for researchers and practitioners to keep up with new discoveries and developments in their fields. Thanks to this, text summarization has become one of the primary tasks of natural language processing. Abstractive summarization of long documents, such as scientific articles, requires large neural networks with high memory and computation requirements. Therefore, it is all the more important to find ways to increase the efficiency of long document summarization models. The objects of this research are long document summarization transformer models and the Unlimiformer cross-attention modification. The article reviews the basic principles of transformer attention, which constitutes the primary computational expense in transformer models. More efficient self-attention approaches used for long document summarization models are described, such as the global+sliding window attention used by Longformer. The cross-attention mechanism of Unlimiformer, which allows a model to have unbounded input length, is described in detail. The objective of the study is the development and evaluation of a long document summarization model using the Unlimiformer modification. To achieve this goal, a Longformer Decoder-Encoder model pretrained on the arXiv dataset is modified with Unlimiformer cross-attention. This modification can be applied without additional model fine-tuning, avoiding the cost of further training a large sequence length model. The developed model was evaluated on the arXiv dataset using the ROUGE-1, ROUGE-2 and ROUGE-L metrics. The developed model showed improved results compared to the baseline model, demonstrating the viability of using this approach to improve long document summarization models.
dc.description.abstractotherОстанніми роками експоненційне зростання наукової літератури зробило для дослідників і практиків все більш складним завдання встигати за новими відкриттями та розробками у своїх галузях. Завдяки цьому, конспектування тексту стало одним із основних завдань обробки природної мови. Абстрактивне конспектування довгих документів, наприклад наукових статей, вимагає великих нейронних мереж із високими вимогами до пам’яті та обчислень. Відповідно, все більш важливо знайти шляхи підвищення ефективності моделей конспектування довгих документів. Об’єктами дослідження є трансформерні моделі для конспектування довгих документів та модифікація перехресної уваги Unlimiformer. У статті розглянуто основні принципи уваги трансформеру, що складає більшість обчислювальних витрат в трансформерних моделях. Описано більш ефективні підходи до самоуваги, які використовуються в моделях конспектування довгих документів, наприклад увага глобального + ковзаючого вікна, що використовується в Longformer. Детально описано механізм перехресної уваги Unlimiformer, який дозволяє моделі мати необмежену вхідну довжину. Метою дослідження є розробка та оцінка моделі конспектування довгих документів за допомогою модифікації Unlimiformer. Для досягнення цієї мети модель Longformer DecoderEncoder, попередньо навчену на наборі даних arXiv, модифікується за допомогою перехресної уваги Unlimiformer. Цю модифікацію можна застосувати без додаткового тонкого настроювання моделі, уникаючи витрат на подальше навчання моделі з великою довжиною послідовності. Розроблена модель була оцінена на наборі даних arXiv використовуючи показники ROUGE-1, ROUGE-2 і ROUGE-L. Розроблена модель показала покращені результати порівняно з базовою моделлю, демонструючи життєздатність використання цього підходу для вдосконалення моделей конспектування довгих документів.
dc.format.pagerangePp. 150-158
dc.identifier.citationScientific article summarization model with unbounded input length / Oleksandr Steblianko, Volodymyr Shymkovych, Peter Kravets, Anatolii Novatskyi, Lyubov Shymkovych // Information, Computing and Intelligent systems. – 2024. – No. 5. – Pp. 150-158. – Bibliogr.: 21 ref.
dc.identifier.doihttps://doi.org/10.20535.2786-8729.5.2024/314724
dc.identifier.orcid0009-0006-5055-0934
dc.identifier.orcid0000-0003-4014-2786
dc.identifier.orcid0000-0003-4632-9832
dc.identifier.orcid0009-0009-7457-7391
dc.identifier.orcid0000-0002-1291-0373
dc.identifier.urihttps://ela.kpi.ua/handle/123456789/73403
dc.language.isoen
dc.publisherNational Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute"
dc.publisher.placeKyiv
dc.relation.ispartofInformation, Computing and Intelligent systems, No.5
dc.subjectneural networks
dc.subjecttransformers
dc.subjecttext summarization
dc.subjectlong document summarization
dc.subjectnatural language processing
dc.subjectattention
dc.subjectнейронні мережі
dc.subjectтрансформери
dc.subjectконспектування тексту
dc.subjectконспектування довгих документів
dc.subjectобробка природньої мови
dc.subjectувага
dc.subject.udc004.89
dc.titleScientific article summarization model with unbounded input length
dc.title.alternativeМодель для конспектування наукових статей з необмеженою довжиною вхідних даних
dc.typeArticle

Файли

Контейнер файлів
Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
150-158.pdf
Розмір:
991.64 KB
Формат:
Adobe Portable Document Format
Ліцензійна угода
Зараз показуємо 1 - 1 з 1
Ескіз недоступний
Назва:
license.txt
Розмір:
8.98 KB
Формат:
Item-specific license agreed upon to submission
Опис: