Nemeskey Dávid Márk: Introducing huBERT.
Előnézet |
Cikk, tanulmány, mű
msznykonf_017_003-014.pdf Letöltés (268kB) | Előnézet |
Absztrakt (kivonat)
This paper introduces the huBERT family of models. The flagship is the eponymous BERT Base model trained on the new Hungarian Webcorpus 2.0, a 9-billion-token corpus of Web text collected from the Common Crawl. This model outperforms the multilingual BERT in masked language modeling by a huge margin, and achieves state-of-the-art performance in named entity recognition and NP chunking. The models are freely downloadable.
Mű típusa: | Konferencia vagy workshop anyag |
---|---|
Rovatcím: | Nyelvmodellek |
Befoglaló folyóirat/kiadvány címe: | Magyar Számítógépes Nyelvészeti Konferencia |
Dátum: | 2021 |
Kötet: | 17 |
ISBN: | 978-963-306-781-9 |
Oldalak: | pp. 3-14 |
Nyelv: | angol |
Konferencia neve: | Magyar számítógépes nyelvészeti konferencia (17.) (2021) (Szeged) |
Befoglaló mű URL: | http://acta.bibl.u-szeged.hu/73340/ |
Kulcsszavak: | Nyelvészet - számítógép alkalmazása |
Megjegyzések: | Bibliogr.: p. 12-14. és a lábjegyzetekben ; összefoglalás angol nyelven |
Szakterület: | 01. Természettudományok 01. Természettudományok > 01.02. Számítás- és információtudomány 06. Bölcsészettudományok 06. Bölcsészettudományok > 06.02. Nyelvek és irodalom |
Feltöltés dátuma: | 2021. szep. 28. 09:44 |
Utolsó módosítás: | 2022. nov. 08. 11:49 |
URI: | http://acta.bibl.u-szeged.hu/id/eprint/73353 |
Tétel nézet |