llama-chinese-81M / README.md
Ubuntu
init
96980b7
|
raw
history blame
304 Bytes
# Baby LLaMA Chinese 81M
一個小型中文預訓練語言模型。
## Training Dataset
- 中文維基百科(20230601)
- 英文維基百科(20230601)
## Tokenizer
使用在中英文維基百科上訓練的 BPE Tokenizer,詞表大小為32k。
> https://github.com/p208p2002/BPE-tokenizer-from-zh-wiki