Automatikus összefoglaló generálás magyar nyelvre BERT modellel

Yang Zijian Győző; Perlaki Attila; Laki László János: Automatikus összefoglaló generálás magyar nyelvre BERT modellel.

[thumbnail of msznykonf_016_343-353.pdf]
Előnézet
Cikk, tanulmány, mű
msznykonf_016_343-353.pdf

Letöltés (438kB) | Előnézet

Absztrakt (kivonat)

Cikkünkben különböző automatikus magyar nyelvű összefoglalást generáló neurális modelleket mutatunk be. Kétféle összefoglaló módszert különböztetünk meg. Az első módszer az absztraktív, amely a meglévő szövegből kinyeri a hasznos információt, majd erre támaszkodva próbál értelmes összefoglaló szöveget generálni. A másik módszer az extraktív, melynek lényege, hogy a meglévő szövegből azokat a mondatokat vagy kifejezéseket nyeri ki, amelyek leginkább leírják a szöveg tartalmi lényegét. A rendszer a kinyert szövegrészeket használja fel összefoglalóként. Kutatásunkban a „state-of-the-art” nyelvi reprezentációs modellnek számító BERT modellt használtuk. A rendszer tanításához különböző neurális modelleket alkalmaztunk. Extraktív összefoglaláshoz kipróbáltunk egy lineáris osztályozó, egy RNN és egy Transformer modellt. Az absztraktív modell tanításához Transformer modellt használtunk.

Mű típusa: Konferencia vagy workshop anyag
Rovatcím: Poszter, laptopos bemutató II.
Befoglaló folyóirat/kiadvány címe: Magyar Számítógépes Nyelvészeti Konferencia
Dátum: 2020
Kötet: 16
ISBN: 978-963-306-719-2
Oldalak: pp. 343-353
Konferencia neve: Magyar Számítógépes Nyelvészeti Konferencia (16.) (2020) (Szeged)
Befoglaló mű URL: http://acta.bibl.u-szeged.hu/67637/
Kulcsszavak: Nyelvészet - számítógép alkalmazása
Megjegyzések: Bibliogr.: p. 350-353. ; összefoglalás magyar nyelven
Feltöltés dátuma: 2020. máj. 05. 11:40
Utolsó módosítás: 2022. nov. 08. 11:49
URI: http://acta.bibl.u-szeged.hu/id/eprint/67658
Bővebben:
Tétel nézet Tétel nézet