Morzsák

Oldal címe

MILAB SZTE nyelvtechnológia

Címlapos tartalom

Transzformer alapú nyelvi modellek előtanítása GPU támogatott környezetben.

Publikációk

6 - 10 | 11
Megjelenés éve
2023

Better Together: Jointly Using Masked Latent Semantic Modeling and Masked Language Modeling for Sample Efficient Pre-training

Szerzők
Berend, Gábor
Kapcsolódó projekt
Tovább
Megjelenés éve
2023

HuBERTUSz: Alacsony paraméterszámú transzformer modellek létrehozása és kiértékelése magyar nyelvre

Szerzők
Ficsor, Tamás; Berend, Gábor
Kapcsolódó projekt
Tovább
Megjelenés éve
2023

Látens szemantikus eloszlások használata a nyelvi modellek előtanítása során

Szerzők
Berend, Gábor
Kapcsolódó projekt
Tovább
Megjelenés éve
2023

Masked Latent Semantic Modeling: an Efficient Pre-training Alternative to Masked Language Modeling

Szerzők
Berend, Gábor
Kapcsolódó projekt
Tovább
Megjelenés éve
2023

SzegedAI at SemEval-2023 Task 1: Applying Quasi-Symbolic Representations in Visual Word Sense Disambiguation

Szerzők
Berend, Gábor
Kapcsolódó projekt
Tovább