ka | en
TSU

GPT2(Generative Pre-trained Transformer), ტრანსფორმერის არქიტექტურაზე დაფუძნებული ქართული ტექსტების გენერაციის მოდელი

ავტორი: ალექსანდრე საბანაძე
საკვანძო სიტყვები: ხელოვნური ინტელექტი, ბუნებრივი ენების დამუშავება, ტექსტის გენერაცია, GPT2
ანოტაცია:

ქართული ტექსტების გენერაციის ხელოვნური ინტელექტი, რომელიც დაფუძნებულია GPT2-ზე.



Web Development by WebDevelopmentQuote.com
Design downloaded from Free Templates - your source for free web templates
Supported by Hosting24.com