aixsatoshi commited on
Commit
764ca7f
1 Parent(s): 311cc5a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -2
README.md CHANGED
@@ -9,7 +9,7 @@ Honyaku-7b-v2 is an improved version of its predecessor. This model exhibits enh
9
 
10
  * Improved Multilingual Generation Accuracy: The model has increased precision in following multilingual generation tags.
11
  * Quality-Reflective Translation: The translation quality of Honyaku-7b is strongly influenced by the pre-training of the base model. Consequently, the quality of translation varies in proportion to the training volume of the original language model.
12
- * The primary purpose is to translate several hundreds to several thousand tokens. Due to the characteristics of the Base model, translation into Japanese is the most stable.   
13
  * It has been fine-tuned up to 8k tokens, but based on the Base model's characteristics, it supports up to 4k tokens including the prompt.
14
 
15
  **Cautions:**
@@ -26,7 +26,8 @@ Honyaku-7b-v2は、前バージョンの改良版です。このモデルは、
26
 
27
  * 多言語生成の精度向上: モデルは、多言語生成タグに対する追従の精度が向上しました。
28
  * 翻訳品質の反映: Honyaku-7bの翻訳品質は、ベースモデルの事前学習に強く影響されます。翻訳品質は、元の言語モデルの学習量に比例して変わります。
29
- * 数100~数1000 tokenの翻訳を主目的としています。Base modelの特徴から、日本語への翻訳が最も安定しています。
 
30
  * 8k tokenまでファインチューニングしていますが、Base modelの特徴からprompt含めて4k tokenにまで対応とします。
31
 
32
  **注意点:**
 
9
 
10
  * Improved Multilingual Generation Accuracy: The model has increased precision in following multilingual generation tags.
11
  * Quality-Reflective Translation: The translation quality of Honyaku-7b is strongly influenced by the pre-training of the base model. Consequently, the quality of translation varies in proportion to the training volume of the original language model.
12
+ * The primary purpose is to translate about 500 to several thousand tokens. Due to the characteristics of the Base model, translation into Japanese is the most stable.   
13
  * It has been fine-tuned up to 8k tokens, but based on the Base model's characteristics, it supports up to 4k tokens including the prompt.
14
 
15
  **Cautions:**
 
26
 
27
  * 多言語生成の精度向上: モデルは、多言語生成タグに対する追従の精度が向上しました。
28
  * 翻訳品質の反映: Honyaku-7bの翻訳品質は、ベースモデルの事前学習に強く影響されます。翻訳品質は、元の言語モデルの学習量に比例して変わります。
29
+ * 500~数1000 tokenの翻訳を主目的としています。短すぎる文、長すぎる文で性能低下。
30
+ * Base modelの特徴から、日本語への翻訳が最も安定しています。
31
  * 8k tokenまでファインチューニングしていますが、Base modelの特徴からprompt含めて4k tokenにまで対応とします。
32
 
33
  **注意点:**