Francois Vieille
commited on
Commit
•
bd55d07
1
Parent(s):
19d2182
trying to not use fast tok
Browse files- README.md +2 -1
- tokenizer_config.json +1 -1
README.md
CHANGED
@@ -20,7 +20,7 @@ widget:
|
|
20 |
|
21 |
tags:
|
22 |
- seq2seq
|
23 |
-
-
|
24 |
---
|
25 |
|
26 |
# Génération de question à partir d'un contexte
|
@@ -28,6 +28,7 @@ tags:
|
|
28 |
Le modèle est _fine tuné_ à partir du modèle [moussaKam/barthez](https://huggingface.co/moussaKam/barthez) afin de générer des questions à partir d'un paragraphe et d'une suite de token. La suite de token représente la réponse sur laquelle la question est basée.
|
29 |
|
30 |
Input: _Les projecteurs peuvent être utilisées pour \<hl\>illuminer\<hl\> des terrains de jeu extérieurs_
|
|
|
31 |
Output: _À quoi servent les projecteurs sur les terrains de jeu extérieurs?_
|
32 |
|
33 |
|
|
|
20 |
|
21 |
tags:
|
22 |
- seq2seq
|
23 |
+
- barthez
|
24 |
---
|
25 |
|
26 |
# Génération de question à partir d'un contexte
|
|
|
28 |
Le modèle est _fine tuné_ à partir du modèle [moussaKam/barthez](https://huggingface.co/moussaKam/barthez) afin de générer des questions à partir d'un paragraphe et d'une suite de token. La suite de token représente la réponse sur laquelle la question est basée.
|
29 |
|
30 |
Input: _Les projecteurs peuvent être utilisées pour \<hl\>illuminer\<hl\> des terrains de jeu extérieurs_
|
31 |
+
|
32 |
Output: _À quoi servent les projecteurs sur les terrains de jeu extérieurs?_
|
33 |
|
34 |
|
tokenizer_config.json
CHANGED
@@ -1 +1 @@
|
|
1 |
-
{"bos_token": "<s>", "eos_token": "</s>", "unk_token": "<unk>", "sep_token": "</s>", "cls_token": "<s>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "sp_model_kwargs": {}, "model_max_length": 1024, "special_tokens_map_file": null, "tokenizer_file":
|
|
|
1 |
+
{"bos_token": "<s>", "eos_token": "</s>", "unk_token": "<unk>", "sep_token": "</s>", "cls_token": "<s>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "sp_model_kwargs": {}, "model_max_length": 1024, "special_tokens_map_file": null, "tokenizer_file": null, "name_or_path": "moussaKam/barthez", "tokenizer_class": "BarthezTokenizer"}
|