|
--- |
|
license: apache-2.0 |
|
tags: [gpt2] |
|
language: ko |
|
--- |
|
|
|
# KoGPT2-small |
|
|
|
| Model | Batch Size | Tokenizer | Vocab Size | Max Length | Parameter Size | |
|
|:---: | :------: | :-----: | :------: | :----: | :------: | |
|
|GPT2 | 64 | BPE | 30,000 | 1024 | 108M | |
|
|
|
|
|
# DataSet |
|
- AIhub - ์น๋ฐ์ดํฐ ๊ธฐ๋ฐ ํ๊ตญ์ด ๋ง๋ญ์น ๋ฐ์ดํฐ (4.8M) |
|
- KoWiki dump 230701 (1.4M) |
|
|
|
|
|
# Inference Example |
|
|
|
```python |
|
from transformers import AutoTokenizer, GPT2LMHeadModel |
|
|
|
text = "์ถ๊ทผ์ด ํ๋ค๋ฉด" |
|
|
|
tokenizer = AutoTokenizer.from_pretrained('Datascience-Lab/GPT2-small') |
|
model = GPT2LMHeadModel.from_pretrained('Datascience-Lab/GPT2-small') |
|
|
|
inputs = tokenizer.encode_plus(text, return_tensors='pt', add_special_tokens=False) |
|
|
|
outputs = model.generate(inputs['input_ids'], max_length=128, |
|
repetition_penalty=2.0, |
|
pad_token_id=tokenizer.pad_token_id, |
|
eos_token_id=tokenizer.eos_token_id, |
|
bos_token_id=tokenizer.bos_token_id, |
|
use_cache=True, |
|
temperature = 0.5) |
|
outputs = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
# ์ถ๋ ฅ ๊ฒฐ๊ณผ : '์ถ๊ทผ์ด ํ๋ค๋ฉด ์ถ๊ทผ์ ํ์ง ์๋ ๊ฒ์ด ์ข๋ค. ํ์ง๋ง ์ถํด๊ทผ ์๊ฐ์ ๋ฆ์ถ๋ ๊ฒ์ ์คํ๋ ค ๊ฑด๊ฐ์ ์ข์ง ์๋ค.. ํนํ๋ ์ฅ์๊ฐ์ ์
๋ฌด๋ก ์ธํด ํผ๋ก๊ฐ ์์ด๊ณ ๋ฉด์ญ๋ ฅ์ด ๋จ์ด์ง๋ฉด, ํผ๋ก๊ฐ์ด ์ฌํด์ ธ์ ์ ๋ค๊ธฐ ์ด๋ ค์ด ๊ฒฝ์ฐ๊ฐ ๋ง๋ค. ์ด๋ฐ ๊ฒฝ์ฐ๋ผ๋ฉด ํ์๋ณด๋ค ๋ ๋ง์ ์์ผ๋ก ๊ณผ์์ ํ๊ฑฐ๋ ๋ฌด๋ฆฌํ ๋ค์ด์ดํธ๋ฅผ ํ ์ ์๋ค. ๋ฐ๋ผ์ ์๋จ ์กฐ์ ๊ณผ ํจ๊ป ์์ ๋ณด์ถฉ์ ์ ๊ฒฝ ์จ์ผ ํ๋ค. ๋ํ ๊ณผ๋ํ ์์์ด ์ฒด์ค ๊ฐ๋์ ๋์์ ์ฃผ๋ฏ๋ก ์ ์ ํ ์ด๋๋์ ์ ์งํ๋ ๊ฒ๋ ์ค์ํ๋ค.' |
|
``` |