aixsatoshi
commited on
Commit
•
3ae6e36
1
Parent(s):
2a09c75
Update README.md
Browse files
README.md
CHANGED
@@ -17,8 +17,8 @@ Mixtral-8x7Bは高性能な言語モデルですが、日本語出力に多言
|
|
17 |
学習データセットとして、下記のDPOデータセットを使用しています。
|
18 |
DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
|
19 |
|
20 |
-
Chatbot Arena Conversations JA (calm2) Dataset
|
21 |
-
|
22 |
指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
|
23 |
指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
|
24 |
応答文 : calm2-7b-chat(Apache 2.0)の出力です。
|
|
|
17 |
学習データセットとして、下記のDPOデータセットを使用しています。
|
18 |
DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
|
19 |
|
20 |
+
Chatbot Arena Conversations JA (calm2) Dataset
|
21 |
+
:[cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental](https://huggingface.co/datasets/cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental)
|
22 |
指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
|
23 |
指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
|
24 |
応答文 : calm2-7b-chat(Apache 2.0)の出力です。
|