Scientific Library of Tomsk State University

   E-catalog        

Image from Google Jackets
Normal view MARC view

Генерация заголовков с помощью многоуровневой Seq2Seq модели А. И. Здоровец

By: Здоровец, Александр ИгоревичMaterial type: ArticleArticleContent type: Текст Media type: электронный Other title: Headline generation with multilayered Seq2Seq model [Parallel title]Subject(s): компьютерная лингвистика | обработка естественного языка | генерация текстов | искусственные нейронные сетиGenre/Form: статьи в сборниках Online resources: Click here to access online In: Актуальные проблемы лингвистики и литературоведения. Вып. 20 : сборник материалов VI (XX) Международной конференции молодых ученых, г. Томск, 18–19 апреля 2019 г Вып. 20. С. 96-97Abstract: В данной работе мы создали алгоритм для автоматического создания заголовков для русскоязычных новостных материалов. В его основе лежит Seq2Seq модель, преобразующая одну последовательность в другую, с использованием архитектуры Encoder-Decoder. Для повышения эффективности работы нейросети мы сделали обе части многоуровневыми, добавив второй LSTM-слой. In this article we created a multilayered Seq2Seq model for headline generation from articles in Russian. It is based on Seq2Seq model which translates one sequence into another; it uses the Encoder-Decoder architecture. To increase the model efficiency we stacked a second LSTM layer to both parts, making them multilayered.
Tags from this library: No tags from this library for this title. Log in to add tags.
No physical items for this record

Библиогр.: 7 назв.

В данной работе мы создали алгоритм для автоматического создания заголовков для русскоязычных новостных материалов. В его основе лежит Seq2Seq модель, преобразующая одну последовательность в другую, с
использованием архитектуры Encoder-Decoder. Для повышения эффективности работы нейросети мы сделали
обе части многоуровневыми, добавив второй LSTM-слой.

In this article we created a multilayered Seq2Seq model for headline generation from articles in Russian. It is based on
Seq2Seq model which translates one sequence into another; it uses the Encoder-Decoder architecture. To increase the
model efficiency we stacked a second LSTM layer to both parts, making them multilayered.

There are no comments on this title.

to post a comment.