johnlui's picture
Update README.md
483fd58
|
raw
history blame
1.05 kB
# 经过本人合成及量化的 7B/13B 模型
<hr>
> #### 开这个仓,主要是为了给大家讲述使用方法,这玩意儿真得自己摸索啊。
### 直接使用方法
移动本仓库中的 `llama-7b-hf``llama-13b-hf` 两个文件夹,到你项目的 `./models` 文件下即可。该文件夹同时适用于 `llama.cpp``text-generation-webui`
### DIY 使用方法
以 7B 为例:
1. 在 models 文件下新建名为 `llama-7b-hf` 的文件夹,注意,此名字不可以随意修改
2. `llama-7b-hf` 下只需要有两个文件:`config.json``ggml-model-q4_0.bin`
3. `config.json` 大家可以到基础库里面下载
4. `ggml-model-q4_0.bin` 就是你按照[教程](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp%E9%87%8F%E5%8C%96%E9%83%A8%E7%BD%B2#step-2-%E7%94%9F%E6%88%90%E9%87%8F%E5%8C%96%E7%89%88%E6%9C%AC%E6%A8%A1%E5%9E%8B)合成出来的最终文件
### 资料来源
7b 为我自己合成,13b 是从 https://huggingface.co/minlik/chinese-alpaca-13b-quantized 仓库里下载的。