Tarján Balázs; Fegyó Tibor; Mihajlik Péter: Ügyfélszolgálati beszélgetések nyelvmodellezése rekurrens neurális hálózatokkal.
Előnézet |
Cikk, tanulmány, mű
msznykonf_015_023-033.pdf Letöltés (573kB) | Előnézet |
Absztrakt (kivonat)
A spontán, társalgási beszéd leírása a mai napig komoly kihívás elé állítja a gépi beszédfelismerő rendszereket. A témák sokszínűsége és a kevés tanítóadat különösen megnehezíti a nyelvi modellek tanítását. Cikkünkben telefonos ügyfélszolgálati beszélgetéseket modellezük rekurrens LSTM neurális hálózat segítségével, mellyel közel felére sikerült csökkentenünk a perplexitást a hagyományos, count n-gram modellhez képest. Azt találtuk, hogy a rekurrens LSTM akkor is felülmúlja a count modell pontosságát, ha memóriája hosszát alacsonyra korlátozzuk (LSTM n-gram). 10 vagy annál nagyobb fokszámú LSTM n-grammal pedig a korlátozás nélküli LSTM nyelvi modell teljesítménye is megközelíthető. Ez alapján arra következtetünk, hogy a rekurrens neurális nyelvi modellek pontosságának titka a hatékony simításban rejlik, nem a hosszú távú memóriában. Az új, neurális nyelvmodell segítségével nem csak a perplexitást sikerült csökkentenünk, hanem a kapcsolódó beszédfelismerési feladaton a szóhiba-arányt is relatív 4%-kal.
Mű típusa: | Konferencia vagy workshop anyag |
---|---|
Befoglaló folyóirat/kiadvány címe: | Magyar Számítógépes Nyelvészeti Konferencia |
Dátum: | 2019 |
Kötet: | 15 |
ISBN: | 978-963-315-393-2 |
Oldalak: | pp. 23-33 |
Konferencia neve: | Magyar Számítógépes Nyelvészeti Konferencia (15.) (2019) (Szeged) |
Befoglaló mű URL: | http://acta.bibl.u-szeged.hu/58556/ |
Kulcsszavak: | Nyelvészet - számítógép alkalmazása |
Megjegyzések: | Bibliogr.: p. 32-33.; összefoglalás magyar nyelven |
Feltöltés dátuma: | 2019. júl. 03. 11:20 |
Utolsó módosítás: | 2022. nov. 08. 11:49 |
URI: | http://acta.bibl.u-szeged.hu/id/eprint/59071 |
![]() |
Tétel nézet |