SuperAI2-Machima commited on
Commit
38c44b5
1 Parent(s): 056c2be

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +31 -17
README.md CHANGED
@@ -1,22 +1,36 @@
1
- Google's mT5
 
 
 
 
 
 
 
 
 
 
 
 
2
 
3
- This is a model for generating questions from Thai texts. It was fine-tuned on NSC2018 corpus
4
 
5
- from transformers import T5Tokenizer, MT5ForConditionalGeneration
6
-
7
- tokenizer = T5Tokenizer.from_pretrained("Pollawat/mt5-small-thai-qg")
8
- model = MT5ForConditionalGeneration.from_pretrained("Pollawat/mt5-small-thai-qg")
9
 
10
- text = "กรุงเทพมหานคร เป็นเมืองหลวงและนครที่มีประชากรมากที่สุดของประเทศไทย เป็นศูนย์กลางการปกครอง การศึกษา การคมนาคมขนส่ง การเงินการธนาคาร การพาณิชย์ การสื่อสาร และความเจริญของประเทศ เป็นเมืองที่มีชื่อยาวที่สุดในโลก ตั้งอยู่บนสามเหลี่ยมปากแม่น้ำเจ้าพระยา มีแม่น้ำเจ้าพระยาไหลผ่านและแบ่งเมืองออกเป็น 2 ฝั่ง คือ ฝั่งพระนครและฝั่งธนบุรี กรุงเทพมหานครมีพื้นที่ทั้งหมด 1,568.737 ตร.กม. มีประชากรตามทะเบียนราษฎรกว่า 5 ล้านคน ทำให้กรุงเทพมหานครเป็นเอกนคร (Primate City) จัด มีผู้กล่าวว่า กรุงเทพมหานครเป็น 'เอกนครที่สุดในโลก' เพราะมีประชากรมากกว่านครที่มีประชากรมากเป็นอันดับ 2 ถึง 40 เท่า[3]"
 
11
 
12
- input_ids = tokenizer.encode(text, return_tensors='pt')
13
 
14
- beam_output = model.generate(
15
- input_ids,
16
- max_length=50,
17
- num_beams=5,
18
- early_stopping=True
19
- )
20
-
21
- print(tokenizer.decode(beam_output[0], skip_special_tokens=True))
22
- >> <extra_id_0>ของกรุงเทพมหานครเป็นเมืองหลวงของประเทศใด
 
 
 
 
1
+ ---
2
+ tags:
3
+ - question-generation
4
+ language:
5
+ - thai
6
+ - th
7
+ datasets:
8
+ - NSC2018
9
+ - wiki-documents-nsc
10
+ - ThaiQACorpus-DevelopmentDataset
11
+ license: mit
12
+ ---
13
+ [Pollawat](https://huggingface.co/Pollawat/mt5-small-thai-qg)
14
 
15
+ [Google's mT5](https://github.com/google-research/multilingual-t5)
16
 
17
+ ```python
18
+ from transformers import T5Tokenizer, T5ForConditionalGeneration, T5Config
 
 
19
 
20
+ model = T5ForConditionalGeneration.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
21
+ tokenizer = T5Tokenizer.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
22
 
23
+ source_text = 'บุกยึดไม้เถื่อน อดีต ส.ส.บุรีรัมย์ เตรียมสร้างคฤหาสน์ทรงไทย 1 กันยายน 2550 12:00 น. ตำรวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่า 80 แผ่น'
24
 
25
+ print('Predicted Summary Text : ')
26
+ tokenized_text = tokenizer.encode(source_text, return_tensors="pt").to(device)
27
+ summary_ids = model.generate(tokenized_text,
28
+ num_beams=4,
29
+ no_repeat_ngram_size=2,
30
+ max_length=50,
31
+ early_stopping=True)
32
+ output = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
33
+ print(output)
34
+ #Predicted Summary Text :
35
+ #answer: 80 แผ่น question: ตํารวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่ากี่แผ่น
36
+ ```