Елайнмент мовних моделей через модифiкацiю внутрiшнiх ваг
Вантажиться...
Дата
2024
Автори
Науковий керівник
Назва журналу
Номер ISSN
Назва тому
Видавець
КПІ ім. Ігоря Сікорського
Анотація
У цій роботі представлено способи регулювання розподілу слів, згенерованих мовною моделлю з GPT архітектурою. Шляхом прямої модифікації ваг голів уваги моделі, з меншим залученням обчислювальних ресурсів, можна впливати на ймовірність генерації токенів певного сентименту. Результати даного дослідження дають можливість глибше зрозуміти принципи роботи трансформерних моделей та ідентифікувати шари моделі, які відповідають за генерацію певних типів токенів. Це, в свою чергу, відкриває нові перспективи для адаптації трансформерних моделей до специфічних задач та покращення їхньої продуктивності.
Опис
Ключові слова
NLP, LLM, alignment, transformer, GPT, attention, LLM transparency
Бібліографічний опис
Чернишев, М. О. Елайнмент мовних моделей через модифiкацiю внутрiшнiх ваг / М. О. Чернишев, О. А. Яворський // Теоретичні і прикладні проблеми фізики, математики та інформатики : матерiали XXII Всеукраїнської науково-практичної конференцiї студентiв, аспiрантiв та молодих вчених, [Київ], 13−17 травня 2024 р. / КПІ ім. Ігоря Сікорського. – Київ, 2024. – С. 374-377.