Ugrás a tartalomra
menu
Fő navigáció
Rólunk
A HUN-REN Cloudról
Csatlakozás
Szolgáltatások
Aktualitások
Hírek
Események
Publikációk
Sikertörténetek
Előadások
Projektek
Dokumentáció
Referencia architektúrák
GYIK
GenAI4Science
Nyelvválasztó
hu
en
Felhasználó
Bejelentkezés
east
Morzsák
Címlap
Projektek
MILAB SZTE nyelvtechnológia
Oldal címe
MILAB SZTE nyelvtechnológia
Címlapos tartalom
Transzformer alapú nyelvi modellek előtanítása GPU támogatott környezetben.
Publikációk
1 - 5 | 5
Megjelenés éve
2023
HuBERTUSz: Alacsony paraméterszámú transzformer modellek létrehozása és kiértékelése magyar nyelvre
Szerzők
Ficsor, Tamás; Berend, Gábor
Kapcsolódó projekt
MILAB SZTE nyelvtechnológia
Tovább
Tovább
Megjelenés éve
2023
Látens szemantikus eloszlások használata a nyelvi modellek előtanítása során
Szerzők
Berend, Gábor
Kapcsolódó projekt
MILAB SZTE nyelvtechnológia
Tovább
Tovább
Megjelenés éve
2023
Masked Latent Semantic Modeling: an Efficient Pre-training Alternative to Masked Language Modeling
Szerzők
Berend, Gábor
Kapcsolódó projekt
MILAB SZTE nyelvtechnológia
Tovább
Tovább
Megjelenés éve
2023
SzegedAI at SemEval-2023 Task 1: Applying Quasi-Symbolic Representations in Visual Word Sense Disambiguation
Szerzők
Berend, Gábor
Kapcsolódó projekt
MILAB SZTE nyelvtechnológia
Tovább
Tovább
Megjelenés éve
2022
Combating the Curse of Multilinguality in Cross-Lingual WSD by Aligning Sparse Contextualized Word Representations
Szerzők
Berend, Gábor
Kapcsolódó projekt
MILAB SZTE nyelvtechnológia
Tovább
Tovább