File size: 3,070 Bytes
4251638
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b759886
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
---
configs:
- config_name: default
  data_files:
  - split: train
    path: data/train-*
dataset_info:
  features:
  - name: text
    dtype: string
  splits:
  - name: train
    num_bytes: 986780351
    num_examples: 311237
  download_size: 550489937
  dataset_size: 986780351
---


# 한국어 위키 데이터셋(Ko_wiki)
* 개요 
  - 이 데이터셋은 한국어 위키 데이터를 기반으로 만들어졌습니다. 원본 위키 데이터를 처리하기 위해 wikiextractor.py를 사용하여 텍스트 형식으로 변환하였습니다.
  - 이 데이터셋을 제작한 주요 취지는 한국어 자연어 처리 연구와 애플리케이션 개발에 사용할 수 있는 광범위한 텍스트 데이터를 제공하기 위함입니다.

* 데이터 구조
  - text: 위키 문서의 본문을 포함하는 문자열입니다.

* 사용 방법
  1. huggingface dataset과 map을 활용하는 방법 
  ```python3
  from datasets import load_dataset
  ko_dataset = load_dataset("text", 
                            "daje/ko_wiki", 
                            split="train", 
                            streaming=True)
  
  ko_wiki_tokenized = ko_dataset.map(lambda x : tokenizer(x["text"], 
                                                   max_length=256, 
                                                   padding="max_length", 
                                                   truncation=True),
                                     remove_columns=["text"])
  ```

  2. 파이썬 스크립트를 사용하는 방법
  ```
  import os
  from tqdm import tqdm
  from transformers import AutoTokenizer
  
  import argparse
  parser = argparse.ArgumentParser()
  parser.add_argument('--input_path', type=str)
  parser.add_argument('--output_path', type=str)
  parser.add_argument('--model_name_or_path', type=str)
  parser.add_argument('--max_seq_length', type=int, default=256)
  parser.add_argument('--add_sep', default=True, action='store_true')
  args = parser.parse_args()
  
  
  def get_num_lines(fname):
      res = os.popen(f'wc -l {fname}').read()
      lines = res.strip().split()[0]
      return int(lines)
  
  def main(args):
      seq_length = args.max_seq_length - 3 # room for [BOS], [EOS], [UNK]
      input_fs = open(args.input_path, 'r')
      output_fs = open(args.output_path, 'a')
      total_line = get_num_lines(args.input_path)
      tokenizer = AutoTokenizer.from_pretrained(args.model_name_or_path)
      
      buffer = []
      for doc in tqdm(input_fs, total=total_line):
          tokens = tokenizer.tokenize(doc)
          buffer += tokens
          if args.add_sep:
              buffer += [tokenizer.eos_token] # 자신이 사용하는 tokenizer에 맞추어서 eos, sep을 넣으시면 됩니다. 

          while len(buffer) > seq_length:
              text = ' '.join(buffer[:seq_length])
              output_fs.write(text)
              output_fs.write('\n')
              buffer = buffer[seq_length:]
  
      input_fs.close()
      output_fs.close()
  
  if __name__ == '__main__':
      main(args)
  ```