LLM Course documentation
အခန်းပြီးဆုံးခြင်း စစ်ဆေးမှု
0. စတင်ပြင်ဆင်ခြင်း
1. Transformer models များ
2. 🤗 Transformers ကို အသုံးပြုခြင်း
နိဒါန်းPipeline နောက်ကွယ်မှ အကြောင်းအရာများModelsTokenizersSequence များစွာကို ကိုင်တွယ်ခြင်းအားလုံးကို ပေါင်းစပ်ခြင်းအခြေခံ အသုံးပြုမှု ပြီးဆုံးပါပြီ!Optimization လုပ်ထားသော Inference Deploymentအခန်းပြီးဆုံးခြင်း စစ်ဆေးမှု
3. Pretrained Model တစ်ခုကို Fine-tuning လုပ်ခြင်း
4. Models နှင့် Tokenizers များကို မျှဝေခြင်း
5. The 🤗 Datasets library
6. The 🤗 Tokenizers library
7. Classical NLP Tasks များ
8. အကူအညီတောင်းခံနည်း
9. Demos များ တည်ဆောက်ခြင်းနှင့် မျှဝေခြင်း
10. အရည်အသွေးမြင့် Datasets များကို စုစည်းခြင်း
11. Large Language Models များကို Fine-tune လုပ်ခြင်း
12. Reasoning Models များ တည်ဆောက်ခြင်း new
သင်တန်း ဆိုင်ရာ အခမ်းအနားများ
အခန်းပြီးဆုံးခြင်း စစ်ဆေးမှု
1. Language modeling pipeline ၏ အစီအစဉ်က ဘာလဲ။
2. Base Transformer model က ထုတ်ပေးတဲ့ tensor မှာ dimension ဘယ်နှစ်ခုရှိပြီး၊ ဘာတွေလဲ။
3. အောက်ပါတို့ထဲမှ မည်သည့်အရာက subword tokenization ဥပမာတစ်ခုလဲ။
4. Model head ဆိုတာ ဘာလဲ။
5. AutoModel ဆိုတာ ဘာလဲ။
6. အရှည်မတူညီသော sequences များကို အတူတကွ batch လုပ်သည့်အခါ မည်သည့်နည်းလမ်းများကို သိရှိထားသင့်သလဲ။
7. sequence classification model က ထုတ်ပေးတဲ့ logits တွေပေါ်မှာ SoftMax function ကို အသုံးပြုရခြင်းရဲ့ ရည်ရွယ်ချက်က ဘာလဲ။
8. tokenizer API ရဲ့ အများစုက ဘယ် method ပေါ်မှာ အခြေခံထားလဲ။
9. ဒီ code sample မှာ result variable က ဘာတွေ ပါဝင်သလဲ။
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")10. အောက်ပါ code မှာ တစ်ခုခု မှားနေတာ ရှိပါသလား။
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")
encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)