Ügyfélszolgálati beszélgetések nyelvmodellezése rekurrens neurális hálózatokkal

Tarján Balázs; Fegyó Tibor; Mihajlik Péter: Ügyfélszolgálati beszélgetések nyelvmodellezése rekurrens neurális hálózatokkal.

[thumbnail of msznykonf_015_023-033.pdf]
Előnézet
Cikk, tanulmány, mű
msznykonf_015_023-033.pdf

Letöltés (573kB) | Előnézet

Absztrakt (kivonat)

A spontán, társalgási beszéd leírása a mai napig komoly kihívás elé állítja a gépi beszédfelismerő rendszereket. A témák sokszínűsége és a kevés tanítóadat különösen megnehezíti a nyelvi modellek tanítását. Cikkünkben telefonos ügyfélszolgálati beszélgetéseket modellezük rekurrens LSTM neurális hálózat segítségével, mellyel közel felére sikerült csökkentenünk a perplexitást a hagyományos, count n-gram modellhez képest. Azt találtuk, hogy a rekurrens LSTM akkor is felülmúlja a count modell pontosságát, ha memóriája hosszát alacsonyra korlátozzuk (LSTM n-gram). 10 vagy annál nagyobb fokszámú LSTM n-grammal pedig a korlátozás nélküli LSTM nyelvi modell teljesítménye is megközelíthető. Ez alapján arra következtetünk, hogy a rekurrens neurális nyelvi modellek pontosságának titka a hatékony simításban rejlik, nem a hosszú távú memóriában. Az új, neurális nyelvmodell segítségével nem csak a perplexitást sikerült csökkentenünk, hanem a kapcsolódó beszédfelismerési feladaton a szóhiba-arányt is relatív 4%-kal.

Mű típusa: Konferencia vagy workshop anyag
Befoglaló folyóirat/kiadvány címe: Magyar Számítógépes Nyelvészeti Konferencia
Dátum: 2019
Kötet: 15
ISBN: 978-963-315-393-2
Oldalak: pp. 23-33
Konferencia neve: Magyar Számítógépes Nyelvészeti Konferencia (15.) (2019) (Szeged)
Befoglaló mű URL: http://acta.bibl.u-szeged.hu/58556/
Kulcsszavak: Nyelvészet - számítógép alkalmazása
Megjegyzések: Bibliogr.: p. 32-33.; összefoglalás magyar nyelven
Feltöltés dátuma: 2019. júl. 03. 11:20
Utolsó módosítás: 2022. nov. 08. 11:49
URI: http://acta.bibl.u-szeged.hu/id/eprint/59071
Bővebben:
Tétel nézet Tétel nézet