Update README.md
Browse files
README.md
CHANGED
@@ -3,5 +3,26 @@ license: llama2
|
|
3 |
---
|
4 |
XuanYuan-70B是基于Llama2-70b模型进行中文增强的一系列金融大模型,包含大量中英文语料增量预训练之后的底座模型以及使用高质量指令数据进行对齐的chat模型。
|
5 |
考虑到金融场景下存在非常多长文本的业务,基于我们高效的分布式训练框架,我们将模型的上下文长度在预训练阶段从4k扩充到了8k和16k,据我们所知,这也是首个在70B参数量级上达到8k及以上上下文长度的开源大模型。
|
|
|
6 |
|
7 |
-
我们的目标是:大模型通用能力尽可能保持的同时,金融领域能力得到明显提升,服务于金融领域。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
---
|
4 |
XuanYuan-70B是基于Llama2-70b模型进行中文增强的一系列金融大模型,包含大量中英文语料增量预训练之后的底座模型以及使用高质量指令数据进行对齐的chat模型。
|
5 |
考虑到金融场景下存在非常多长文本的业务,基于我们高效的分布式训练框架,我们将模型的上下文长度在预训练阶段从4k扩充到了8k和16k,据我们所知,这也是首个在70B参数量级上达到8k及以上上下文长度的开源大模型。
|
6 |
+
具体细节参考:[XuanYuan-70B](https://github.com/Duxiaoman-DI/XuanYuan)
|
7 |
|
8 |
+
我们的目标是:大模型通用能力尽可能保持的同时,金融领域能力得到明显提升,服务于金融领域。
|
9 |
+
相比原始模型得到较大提升,技术优化点包括:
|
10 |
+
|
11 |
+
(1)**数据质量**
|
12 |
+
|
13 |
+
- 我们设计了一套数据清洗流水线,精心准备了各类通用数据(互联网网页、百科、论坛、社交媒体、问答等)以及金融相关数据(金融资讯、公司公告、金融百科、金融书籍、证书试题等)高质量数据
|
14 |
+
- 中英数据:首先llama2的英文能力足够优秀,所以为了保证英文能力不降,我们扩充词表之后,使用高质量的中英语料进行增量预训练,其中中英配比为3:1;
|
15 |
+
- 通用金融数据:为了提升模型在金融能力上效果,预训练过程中通用语料与金融预料比例为9:1,且随着训练进行,逐步提升金融语料的占比。
|
16 |
+
|
17 |
+
(2)**模型训练**
|
18 |
+
|
19 |
+
- 训练效率:我们采取了一系列的加速优化策略, 包括对底层数据加载和分布式训练框架的多处优化,使用flash attention2替代self-attention模块,使用基于CPP CUDA的Fused算子替代原始llama的python实现等
|
20 |
+
- 上下文长度:基于上述的优化方式,同时考虑到金融场景长上下文情景较多,我们能够在预训练阶段把llama2原始上下文4k的长度扩展到8k和16k;
|
21 |
+
|
22 |
+
我们在100台8卡A800(80G)的GPU集群中,训练情况如下:
|
23 |
+
|
24 |
+
| 模型 | 上下文长度 | 吞吐量 | 显卡利用 |
|
25 |
+
| ------------ | ---------- | ---------------- | -------- |
|
26 |
+
| XuanYuan-70B | 8192 | 340 tokens/s/gpu | 190TFOPS |
|
27 |
+
|
28 |
+
备注:(1)训练没有开梯度累计;(2)原始llama2-70b在4k上下文长度下的的吞吐量为323 tokens/s/gpu,说明我们的训练效率达到当前领先水平。
|