renillhuang commited on
Commit
93de5ec
1 Parent(s): 62a51df

Upload 3 files

Browse files
Files changed (3) hide show
  1. README_ja.md +346 -0
  2. README_ko.md +356 -0
  3. README_zh.md +362 -0
README_ja.md ADDED
@@ -0,0 +1,346 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ - zh
5
+ - ja
6
+ - ko
7
+ metrics:
8
+ - accuracy
9
+ pipeline_tag: text-generation
10
+ tags:
11
+ - code
12
+ - model
13
+ - llm
14
+ ---
15
+
16
+ <!-- markdownlint-disable first-line-h1 -->
17
+ <!-- markdownlint-disable html -->
18
+ <div align="center">
19
+ <img src="./assets/imgs/orion_start.PNG" alt="logo" width="50%" />
20
+ </div>
21
+
22
+ <div align="center">
23
+ <h1>
24
+ Orion-14B
25
+ </h1>
26
+ </div>
27
+
28
+ <div align="center">
29
+
30
+ <div align="center">
31
+ <b>🇯🇵日本語</b> | <a href="./README.md">🌐英語</a> | <a href="./README_zh.md">🇨🇳中文</a> | <a href="./README_ko.md">🇰🇷한국어</a>
32
+ </div>
33
+
34
+ <h4 align="center">
35
+ <p>
36
+ 🤗 <a href="https://huggingface.co/OrionStarAI" target="_blank">HuggingFace メインページ</a> | 🤖 <a href="https://modelscope.cn/organization/OrionStarAI" target="_blank">ModelScope メインページ</a><br>🎬 <a href="https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo" target="_blank">HuggingFace デモ</a> | 🎫 <a href="https://modelscope.cn/studios/OrionStarAI/Orion-14B-App-Demo/summary" target="_blank">ModelScope デモ</a><br>😺 <a href="https://github.com/OrionStarAI/Orion" target="_blank">GitHub</a><br>📖 <a href="https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf" target="_blank">技術レポート</a>
37
+ <p>
38
+ </h4>
39
+
40
+ </div>
41
+
42
+
43
+
44
+ # 目次
45
+
46
+ - [📖 モデル紹介](#model-introduction)
47
+ - [🔗 モデルダウンロード](#model-download)
48
+ - [🔖 モデルベンチマーク](#model-benchmark)
49
+ - [📊 モデル推論](#model-inference)
50
+ - [📜 声明とライセンス](#declarations-license)
51
+ - [🥇 企業紹介](#company-introduction)
52
+
53
+ <a name="model-introduction"></a><br>
54
+ # 1. モデル紹介
55
+
56
+ - Orion-14B-Baseは、140億のパラメータを持つマルチランゲージの大規模モデルで、さまざまな言語に対応するために2.5兆トークンの多様なデータセットでトレーニングされました。このデータセットには、中文、英語、日本語、韓国語などが含まれています。このモデルは、多言語環境でのさまざまなタスクにおいて卓越した性能を発揮しています。Orion-14Bシリーズモデルは、主要なパフォーマンスベンチマークで優れた結果を示し、同じパラメータ数を持つ他のベースモデルを明らかに凌駕しています。具体的な技術の詳細については、参照先をご覧ください。[技術レポート](https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf)を参照してください。
57
+
58
+ - Orion-14B シリーズのモデルは、以下の特徴があります:
59
+ - 基座20Bパラメータモデルは、総合的な評価で優れた結果を示しています。
60
+ - 多言語対応力が強く、特に日本語と韓国語の対応能力が優れています
61
+ - ファインチューニングモデルは適応性が高く、人間の注釈つきブラインドテストでは高性能なパフォーマンスを発揮しています。
62
+ - 長文対応バージョンは非常に長いテキストをサポートし、20万トークンの長さで優れた効果を発揮し、最大で320,000トークンまでサポート可能です。
63
+ - 量子化バージョンではモデルサイズが70%縮小し、推論速度が30%向上し、性能の損失が1%以下です。
64
+ <table style="border-collapse: collapse; width: 100%;">
65
+ <tr>
66
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
67
+ <img src="./assets/imgs/opencompass_en.png" alt="opencompass" style="width: 100%; height: auto;">
68
+ </td>
69
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
70
+ <img src="./assets/imgs/model_cap_en.png" alt="modelcap" style="width: 100%; height: auto;">
71
+ </td>
72
+ </tr>
73
+ </table>
74
+
75
+ # Orion-14B シリーズ モデルには以下が含まれます:
76
+
77
+ - **Orion-14B-Base:** 2.5兆トークンの多様なデータセットでトレーニングされ、140億のパラメータを持つ多言語基本モデルです。
78
+ - **Orion-14B-Chat:** 高品質なコーパスでファインチューニングされた対話型モデルで、大規模モデルコミュニティにより良いユーザーインタラクション体験を提供することを目指しています。
79
+ - **Orion-14B-LongChat:** 20万トークンの長さで優れた効果を発揮し、最大で320,000トークンまでサポート可能で、長文書の評価セットでの性能は専用モデルに匹敵します。
80
+ - **Orion-14B-Chat-RAG:** スタムの検索強化生成データセットでファインチューニングされたチャットモデルで、検索強化生成タスクで卓越した性能を発揮しています。
81
+ - **Orion-14B-Chat-Plugin:** プラグインと関数呼び出しタスクに特化したチャットモデルで、代理を使用する関連するシナリオに適しています。大規模言語モデルがプラグインと関数呼び出しシステムの役割を果たします。
82
+ - **Orion-14B-Base-Int4:** int4を使用して量子化された基本モデル。モデルサイズが70%縮小し、推論速度が30%向上し、わずか1%未満の性能低下しか発生しません。
83
+ - **Orion-14B-Chat-Int4:** int4を使用して量子化された対話モデル。
84
+
85
+
86
+ <a name="model-download"></a><br>
87
+ # 2. モデルのダウンロード
88
+
89
+ 以下はモデルのリリースとダウンロードURLが提供されています:
90
+
91
+ | モデル名 | HuggingFace ダウンロードリンク | ModelScope ダウンロードリンク |
92
+ |-------------------------|-----------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------|
93
+ | ⚾Orion-14B-Base | [Orion-14B-Base](https://huggingface.co/OrionStarAI/Orion-14B-Base) | [Orion-14B-Base](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base/summary) |
94
+ | 😛Orion-14B-Chat | [Orion-14B-Chat](https://huggingface.co/OrionStarAI/Orion-14B-Chat) | [Orion-14B-Chat](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat/summary) |
95
+ | 📃Orion-14B-LongChat | [Orion-14B-LongChat](https://huggingface.co/OrionStarAI/Orion-14B-LongChat) | [Orion-14B-LongChat](https://modelscope.cn/models/OrionStarAI/Orion-14B-LongChat/summary) |
96
+ | 🔎Orion-14B-Chat-RAG | [Orion-14B-Chat-RAG](https://huggingface.co/OrionStarAI/Orion-14B-Chat-RAG) | [Orion-14B-Chat-RAG](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-RAG/summary) |
97
+ | 🔌Orion-14B-Chat-Plugin | [Orion-14B-Chat-Plugin](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Plugin) | [Orion-14B-Chat-Plugin](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Plugin/summary) |
98
+ | 💼Orion-14B-Base-Int4 | [Orion-14B-Base-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Base-Int4) | [Orion-14B-Base-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base-Int4/summary) |
99
+ | 📦Orion-14B-Chat-Int4 | [Orion-14B-Chat-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Int4) | [Orion-14B-Chat-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Int4/summary) |
100
+
101
+
102
+ <a name="model-benchmark"></a><br>
103
+ # 3. モデルのベンチマーク
104
+
105
+ ## 3.1. 基本モデル Orion-14B-Base ベンチマーク
106
+ ### 3.1.1. LLM 評価結果(検査と専門知識)
107
+ | モデル | C-Eval | CMMLU | MMLU | AGIEval | Gaokao | BBH |
108
+ |--------------------|----------|----------|----------|----------|----------|----------|
109
+ | LLaMA2-13B | 41.4 | 38.4 | 55.0 | 30.9 | 18.2 | 45.6 |
110
+ | Skywork-13B | 59.1 | 61.4 | 62.7 | 43.6 | 56.1 | 48.3 |
111
+ | Baichuan2-13B | 59.0 | 61.3 | 59.5 | 37.4 | 45.6 | 49.0 |
112
+ | QWEN-14B | 71.7 | 70.2 | 67.9 | 51.9 | **62.5** | 53.7 |
113
+ | InternLM-20B | 58.8 | 59.0 | 62.1 | 44.6 | 45.5 | 52.5 |
114
+ | **Orion-14B-Base** | **72.9** | **70.6** | **69.9** | **54.7** | 62.1 | **56.5** |
115
+
116
+ ### 3.1.2. LLM 評価結果(言語理解と一般的な知識)
117
+ | モデル |RACE-middle|RACE-high |HellaSwag | PIQA | Lambada | WSC |
118
+ |--------------------|----------|----------|----------|----------|----------|----------|
119
+ | LLaMA 2-13B | 63.0 | 58.9 | 77.5 | 79.8 | 76.5 | 66.3 |
120
+ | Skywork-13B | 87.6 | 84.1 | 73.7 | 78.3 | 71.8 | 66.3 |
121
+ | Baichuan 2-13B | 68.9 | 67.2 | 70.8 | 78.1 | 74.1 | 66.3 |
122
+ | QWEN-14B | 93.0 | 90.3 | **80.2** | 79.8 | 71.4 | 66.3 |
123
+ | InternLM-20B | 86.4 | 83.3 | 78.1 | **80.3** | 71.8 | 68.3 |
124
+ | **Orion-14B-Base** | **93.2** | **91.3** | 78.5 | 79.5 | **78.8** | **70.2** |
125
+
126
+ ### 3.1.3. LLM 評価結果(OpenCompass テストセット)
127
+ | モデル | 平均 | 検査 | 言語 | 知識 | 理解 | 推論 |
128
+ |------------------|----------|----------|----------|----------|----------|----------|
129
+ | LLaMA 2-13B | 47.3 | 45.2 | 47.0 | 58.3 | 50.9 | 43.6 |
130
+ | Skywork-13B | 53.6 | 61.1 | 51.3 | 52.7 | 64.5 | 45.2 |
131
+ | Baichuan 2-13B | 49.4 | 51.8 | 47.5 | 48.9 | 58.1 | 44.2 |
132
+ | QWEN-14B | 62.4 | 71.3 | 52.67 | 56.1 | 68.8 | 60.1 |
133
+ | InternLM-20B | 59.4 | 62.5 | 55.0 | **60.1** | 67.3 | 54.9 |
134
+ |**Orion-14B-Base**| **64.3** | **71.4** | **55.0** | 60.0 | **71.9** | **61.6** |
135
+
136
+ ### 3.1.4. 日本語のテストセットにおけるLLMパフォーマンスの比較
137
+ | モデル |**平均**| JCQA | JNLI | MARC | JSQD | JQK | XLS | XWN | MGSM |
138
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
139
+ | PLaMo-13B | 52.3 | 56.7 | 42.8 | 95.8 | 70.6 | 71.0 | 8.70 | 70.5 | 2.40 |
140
+ | WebLab-10B | 50.7 | 66.6 | 53.7 | 82.1 | 62.9 | 56.2 | 10.0 | 72.0 | 2.40 |
141
+ | ELYZA-jp-7B | 48.8 | 71.7 | 25.3 | 86.6 | 70.8 | 64.1 | 2.50 | 62.1 | 7.20 |
142
+ | StableLM-jp-7B | 51.1 | 33.4 | 43.3 | 96.7 | 70.6 | 78.1 | 10.7 | 72.8 | 2.80 |
143
+ | LLaMA 2-13B | 46.3 | 75.0 | 47.6 | 38.8 | 76.1 | 67.7 | 18.1 | 63.2 | 10.4 |
144
+ | Baichuan 2-13B | 57.1 | 73.7 | 31.3 | 91.6 | 80.5 | 63.3 | 18.6 | 72.2 | 25.2 |
145
+ | QWEN-14B | 65.8 | 85.9 | 60.7 | 97.0 | 83.3 | 71.8 | 18.8 | 70.6 | 38.0 |
146
+ | Yi-34B | 67.1 | 83.8 | 61.2 | 95.2 | 86.1 | 78.5 | 27.2 | 69.2 | 35.2 |
147
+ | Orion-14B-Base | 69.1 | 88.2 | 75.8 | 94.1 | 75.7 | 85.1 | 17.3 | 78.8 | 38.0 |
148
+
149
+ ### 3.1.5. 韓国のテストセットにおけるLLMパフォーマンスの比較。n = 0およびn = 5は評価に使用されたn-shotのプロンプトを表します。
150
+ |モデル | **平均**<br>n=0&nbsp;&nbsp;n=5 | HellaSwag<br>n=0&nbsp;&nbsp;n=5 | COPA<br> n=0&nbsp;&nbsp;n=5 | BooIQ<br>n=0&nbsp;&nbsp;n=5 | SentiNeg<br>n=0&nbsp;&nbsp;n=5|
151
+ |------------------|------------------------------|------------------------------|------------------------------|------------------------------|------------------------------|
152
+ | KoGPT | 53.0 &nbsp;&nbsp; 70.1 | 55.9 &nbsp;&nbsp; 58.3 | 73.5 &nbsp;&nbsp; 72.9 | 45.1 &nbsp;&nbsp; 59.8 | 37.5 &nbsp;&nbsp; 89.4 |
153
+ | Polyglot-ko-13B | 69.6 &nbsp;&nbsp; 73.7 |**59.5** &nbsp;&nbsp; **63.1**|**79.4** &nbsp;&nbsp; **81.1**| 48.2 &nbsp;&nbsp; 60.4 | 91.2 &nbsp;&nbsp; 90.2 |
154
+ | LLaMA 2-13B | 46.7 &nbsp;&nbsp; 63.7 | 41.3 &nbsp;&nbsp; 44.0 | 59.3 &nbsp;&nbsp; 63.8 | 34.9 &nbsp;&nbsp; 73.8 | 51.5 &nbsp;&nbsp; 73.4 |
155
+ | Baichuan 2-13B | 52.1 &nbsp;&nbsp; 58.7 | 39.2 &nbsp;&nbsp; 39.6 | 60.6 &nbsp;&nbsp; 60.6 | 58.4 &nbsp;&nbsp; 61.5 | 50.3 &nbsp;&nbsp; 72.9 |
156
+ | QWEN-14B | 53.8 &nbsp;&nbsp; 73.7 | 45.3 &nbsp;&nbsp; 46.8 | 64.9 &nbsp;&nbsp; 68.9 | 33.4 &nbsp;&nbsp; 83.5 | 71.5 &nbsp;&nbsp; 95.7 |
157
+ | Yi-34B | 54.2 &nbsp;&nbsp; 72.1 | 44.6 &nbsp;&nbsp; 44.7 | 58.0 &nbsp;&nbsp; 60.6 | 65.9 &nbsp;&nbsp; 90.2 | 48.3 &nbsp;&nbsp; 92.9 |
158
+ |**Orion-14B-Chat**|**74.5** &nbsp;&nbsp; **79.6**| 47.0 &nbsp;&nbsp; 49.6 | 77.7 &nbsp;&nbsp; 79.4 |**81.6** &nbsp;&nbsp; **90.7**|**92.4** &nbsp;&nbsp; **98.7**|
159
+
160
+ ### 3.1.6. 多言語評価
161
+ | モデル | トレーニング言語 | 日本語 | 韓国語 | 中国語 | 英語 |
162
+ |--------------------|------------|--------|--------|--------|--------|
163
+ | PLaMo-13B | 英語, 日本語 | 52.3 | * | * | * |
164
+ | Weblab-10B | 英語, 日本語 | 50.7 | * | * | * |
165
+ | ELYZA-jp-7B | 英語, 日本語 | 48.8 | * | * | * |
166
+ | StableLM-jp-7B | 英語, 日本語 | 51.1 | * | * | * |
167
+ | KoGPT-6B | 英語, 韓国語 | * | 70.1 | * | * |
168
+ | Polyglot-ko-13B | 英語, 韓国語 | * | 70.7 | * | * |
169
+ | Baichuan2-13B | マルチ言語 | 57.1 | 58.7 | 50.8 | 57.1 |
170
+ | Qwen-14B | マルチ言語 | 65.8 | 73.7 | 64.5 | 65.4 |
171
+ | Llama2-13B | マルチ言語 | 46.3 | 63.7 | 41.4 | 55.3 |
172
+ | Yi-34B | マルチ言語 | 67.1 | 72.2 | 58.7 | 68.8 |
173
+ | Orion-14B-Chat | マルチ言語 | 69.1 | 79.5 | 67.9 | 67.3 |
174
+
175
+ ## 3.2. チャットモデル Orion-14B-Chat ベンチマーク
176
+ ### 3.2.1. チャットモデルのMTBenchにおける主観的評価
177
+ | モデル | ファーストターン | セカンドターン | 平均 |
178
+ |----------------------|----------|----------|----------|
179
+ | Baichuan2-13B-Chat | 7.05 | 6.47 | 6.76 |
180
+ | Qwen-14B-Chat | 7.30 | 6.62 | 6.96 |
181
+ | Llama2-13B-Chat | 7.10 | 6.20 | 6.65 |
182
+ | InternLM-20B-Chat | 7.03 | 5.93 | 6.48 |
183
+ | Orion-14B-Chat | 7.68 | 7.07 | 7.37 |
184
+ \* 推論にはvllmを使用
185
+
186
+ ### 3.2.2. チャットモデルのAlignBenchにおける主観的評価
187
+ | モデル | 数学 | 論理 | 基礎 | 中国語 | コンピュータ | ライティング | 役割 | プロフェッショナリズム |**平均**|
188
+ |--------------------|--------|--------|--------|--------|--------|--------|--------|--------|--------|
189
+ | Baichuan2-13B-Chat | 3.76 | 4.07 | 6.22 | 6.05 | 7.11 | 6.97 | 6.75 | 6.43 | 5.25 |
190
+ | Qwen-14B-Chat |**4.91**|**4.71**|**6.90**| 6.36 | 6.74 | 6.64 | 6.59 | 6.56 |**5.72**|
191
+ | Llama2-13B-Chat | 3.05 | 3.79 | 5.43 | 4.40 | 6.76 | 6.63 | 6.99 | 5.65 | 4.70 |
192
+ | InternLM-20B-Chat | 3.39 | 3.92 | 5.96 | 5.50 |**7.18**| 6.19 | 6.49 | 6.22 | 4.96 |
193
+ | Orion-14B-Chat | 4.00 | 4.24 | 6.18 |**6.57**| 7.16 |**7.36**|**7.16**|**6.99**| 5.51 |
194
+ \* 推論にはvllmを使用
195
+
196
+ ## 3.3. LongChatモデルOrion-14B-LongChatのベンチマーク
197
+ ### 3.3.1. LongChatによるLongBenchの評価
198
+ | モデル | NarrativeQA|MultiFieldQA-en|MultiFieldQA-zh| DuReader | QMSum | VCSUM | TREC | TriviaQA | LSHT |RepoBench-P|
199
+ |--------------------------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|
200
+ | GPT-3.5-Turbo-16k | **23.60** | **52.30** | **61.20** | 28.70 | 23.40 | **16.00** | 68.00 | **91.40** | 29.20 | 53.60 |
201
+ | LongChat-v1.5-7B-32k | 16.90 | 41.40 | 29.10 | 19.50 | 22.70 | 9.90 | 63.50 | 82.30 | 23.20 | 55.30 |
202
+ | Vicuna-v1.5-7B-16k | 19.40 | 38.50 | 43.00 | 19.30 | 22.80 | 15.10 | 71.50 | 86.20 | 28.80 | 43.50 |
203
+ | Yi-6B-200K | 14.11 | 36.74 | 22.68 | 14.01 | 20.44 | 8.08 | 72.00 | 86.61 | 38.00 | **63.29** |
204
+ | Orion-14B-LongChat | 19.47 | 48.11 | 55.84 | **37.02** | **24.87** | 15.44 | **77.00** | 89.12 | **45.50** | 54.31 |
205
+
206
+
207
+ ## 3.4. Chat RAGモデルベンチマーク
208
+ ### 3.4.1. 自己構築RAGテストセットのLLM評価結果
209
+ |モデル|応答の有効性(キーワード)|*応答の有効性(主観的評価)|引用の能力|フォールバックの能力|*AutoQA|*データ抽出|
210
+ |---------------------|------|------|------|------|------|------|
211
+ | Baichuan2-13B-Chat | 85 | 76 | 1 | 0 | 69 | 51 |
212
+ | Qwen-14B-Chat | 79 | 77 | 75 | 47 | 68 | 72 |
213
+ | Qwen-72B-Chat(Int4) | 87 | 89 | 90 | 32 | 67 | 76 |
214
+ | GPT-4 | 91 | 94 | 96 | 95 | 75 | 86 |
215
+ | Orion-14B-Chat-RAG | 86 | 87 | 91 | 97 | 73 | 71 |
216
+ \* 手動評価を意味します
217
+
218
+ ## 3.5. Chat PluginモデルOrion-14B-Chat-Pluginベンチマーク
219
+ ### 3.5.1. 自己構築プラグインテストセットのLLM評価結果
220
+ |モデル|フルパラメータの意図認識|パラメータが不足している場合の意図認識|非プラグイン呼び出しの認識|
221
+ |-----------------------|--------|-----------|--------|
222
+ | Baichuan2-13B-Chat | 25 | 0 | 0 |
223
+ | Qwen-14B-Chat | 55 | 0 | 50 |
224
+ | GPT-4 | **95** | 52.38 | 70 |
225
+ | Orion-14B-Chat-Plugin | 92.5 | **60.32** | **90** |
226
+
227
+
228
+ ## 3.6. 量子化モデルOrion-14B-Base-Int4ベンチマーク
229
+ ### 3.6.1. 量子化前後の比較
230
+ | モデル|サイズ(GB) | 推論速度(トークン/秒) |C-Eval|CMMLU|MMLU|RACE|HellaSwag|
231
+ |-------------------------|-------|-----|------|------|------|------|------|
232
+ | OrionStar-14B-Base | 28.0 | 135 | 72.8 | 70.6 | 70.0 | 93.3 | 78.5 |
233
+ | OrionStar-14B-Base-Int4 | 8.3 | 178 | 71.8 | 69.8 | 69.2 | 93.1 | 78.0 |
234
+
235
+
236
+ <a name="model-inference"></a><br>
237
+ # 4. モデル推論
238
+
239
+ 推論に必要なモデルの重み、ソースコード、および設定は、Hugging Faceに公開されており、ダウンロードリンクはこの文書の冒頭にある表に示されています。ここでは、さまざまな推論方法のデモが行われます。プログラムは自動的にHugging Faceから必要なリソースをダウンロードします。
240
+
241
+ ## 4.1. Pythonコード
242
+
243
+ ```python
244
+ import torch
245
+ from transformers import AutoModelForCausalLM, AutoTokenizer
246
+ from transformers.generation.utils import GenerationConfig
247
+
248
+ tokenizer = AutoTokenizer.from_pretrained("OrionStarAI/Orion-14B", use_fast=False, trust_remote_code=True)
249
+ model = AutoModelForCausalLM.from_pretrained("OrionStarAI/Orion-14B", device_map="auto",
250
+ torch_dtype=torch.bfloat16, trust_remote_code=True)
251
+
252
+ model.generation_config = GenerationConfig.from_pretrained("OrionStarAI/Orion-14B")
253
+ messages = [{"role": "user", "content": "Hello, what is your name? "}]
254
+ response = model.chat(tokenizer, messages, streaming=False)
255
+ print(response)
256
+
257
+ ```
258
+
259
+ 上記のPythonソースコードでは、モデルは device_map='auto' でロードされ、利用可能なすべてのGPUを利用されています。デバイスを指定するには、 export CUDA_VISIBLE_DEVICES=0,1 のようなものを使用できます(GPU 0および1を使用)。
260
+
261
+ ## 4.2. コマンドラインツール
262
+
263
+ ```shell
264
+ CUDA_VISIBLE_DEVICES=0 python cli_demo.py
265
+ ```
266
+
267
+ このコマンドラインツールはチャットシナリオ向けに設計されており、基本モデルの呼び出しをサポートしていません。
268
+
269
+ ## 4.3. 直接スクリプト推論
270
+
271
+ ```shell
272
+
273
+ # ベースモデル
274
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation_base.py --model OrionStarAI/Orion-14B --tokenizer OrionStarAI/Orion-14B --prompt hello
275
+
276
+ # チャットモデル
277
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation.py --model OrionStarAI/Orion-14B-Chat --tokenizer OrionStarAI/Orion-14B-Chat --prompt hi
278
+ ```
279
+
280
+ ## 4.4 例の出力
281
+ ### 4.4.1 カジュアルチャット
282
+
283
+ `````
284
+ User: Hello
285
+ Orion-14B: Hello! How can I help you today? If you have any questions or need assistance, feel free to ask.
286
+ User: What functions do you have?
287
+ Orion-14B: As an AI language model, I have a wide range of functions and capabilities, including but not limited to:
288
+ Answering general knowledge questions: I can provide information on various topics such as history, science, geography, and more.
289
+ Providing definitions and explanations: I can explain complex concepts and provide definitions for words and phrases.
290
+ Assisting with tasks: I can help with simple tasks like setting reminders, converting units of measurement, and even ordering food from restaurants.
291
+ Generating text: I can write short stories, essays, articles, and other types of content based on prompts given to me.
292
+ Translating languages: I can translate text from one language to another.
293
+ Chatting: I can engage in conversation with users and respond to their queries in a conversational manner.
294
+ Summarizing long texts: I can summarize longer texts like articles, books, and research papers.
295
+ Generating random numbers and names: I can generate random numbers within a specified range and also suggest names based on certain criteria.
296
+ Playing games: I can play simple games like Hangman, Trivia, and more.
297
+ Providing recommendations: I can recommend movies, music, books, and other forms of entertainment based on user preferences.
298
+ These are just some of the many functions that I am capable of performing. If you have a specific task in mind, feel free to ask me about it.
299
+ User: Tell me a joke.
300
+ Orion-14B: Sure, here's a classic one-liner: Why don't scientists trust atoms? Because they make up everything.
301
+ `````
302
+
303
+ ### 4.4.2. 日本語と韓国語のチャット
304
+
305
+ `````
306
+ User:自己を紹介してください
307
+ Orion-14B:こんにちは、私の名前はChatMaxで、OrionStarによって開発されたAIアシスタントです。私はユーザーに正確で、客観的で、有用な回答を提供し、彼らが問題を解決し、情報を取得するのを助けることができます。
308
+ User:자기소개를 해주세요.
309
+ Orion-14B:안녕하세요, 제 이름은 ChatMax입니다. OrionStar에서 개발한 AI 어시스턴트입니다. 저는 사용자들에게 정확하고 객관적이며 유용한 답변을 제공하여 문제를 해결하고 정보를 얻는 데 도움을 줄 수 있습니다.
310
+ `````
311
+
312
+ <a name="declarations-license"></a><br>
313
+ # 5. 声明、ライセンス
314
+
315
+ ## 5.1. 声明
316
+
317
+ 弊社は全ての利用者に対して、Orion-14Bモデルを使用して国家の社会安全を危険にさらすか、違法な活動に使用しないよう強く呼びかけます。さらに、Orion-14Bモデルを適切な安全審査と登録なしにインターネットサービスに使用しないよう要求します。
318
+ すべての利用者がこの原則を守ることを期待しており、科技の発展が規範と合法の環境で進むことを確認しています。弊社はモデルのトレーニングプロセスで使用されるデータのコンプライアンスを確保するために最善の努力をしています。ただし、モデルとデータの複雑性から、予測できない問題が依然として発生する可能性があります。
319
+ したがって、Orion-14Bオープンソースモデルの使用によって引き起こされる問題、データセキュリティの問題、公共の意見のリスク、またはモデルが誤誘導、乱用、拡散、または不適切に使用されることによるリスクや問題について、弊社は一切の責任を負いません。
320
+
321
+ ## 5.2. ライセンス
322
+
323
+ Orion-14B シリーズモデルのコミュニティ利用
324
+ - コードは [Apache License Version 2.0](./LICENSE) ライセンスに従ってください。<br>
325
+ - モデルは [【Orion-14B シリーズ】 Models Community License Agreement](./ModelsCommunityLicenseAgreement)に従ってください。
326
+
327
+
328
+ <a name="company-introduction"></a><br>
329
+ # 6. 会社紹介
330
+
331
+ オリオンスター(OrionStar)は、2016年9月に設立された、世界をリードするサービスロボットソリューション企業です。オリオンスターは人工知能技術を基に、次世代の革新的なロボットを開発し、人々が単純な体力労働から解放され、仕事や生活がよりスマートで面白くなるようにすることを目指しています。技術を通じて社会と世界をより良くすることを目指しています。
332
+
333
+ オリオンスターは、完全に独自に開発された全体的な人工知能技術を持っており、音声対話や視覚ナビゲーションなどが含まれます。製品開発能力と技術応用能力を統合しています。オリオンメカニカルアームプラットフォームを基に、オリオンスター 、AI Robot Greeting Mini、Lucki、Coffee Masterなどの製品を展開し、オリオンスターロボットのオープンプラットフォームであるオリオンOSも構築しています。本当に有用なロボットのために生まれたという理念に基づき、オリオンスターはAI技術を通じて多くの人々に力を与えています。
334
+
335
+ 7年間のAI経験を基に、オリオンスターは「聚言」という大規模な深層学習アプリケーションを導入し、業界の顧客向けにカスタマイズされたAI大規模モデルのコンサルティングとサービスソリューションを提供しています。これにより、企業の経営効率を向上させる目標を達成するのに役立っています。
336
+
337
+ オリオンスターの大規模モデルアプリケーション能力の主要な利点には、海量データ処理、大規模モデルの事前トレーニング、二次事前トレーニング、ファインチューニング、プロンプトエンジニアリング、エージェント開発など、全体のチェーンにわたる能力と経験の蓄積が含まれます。 さらに、システム全体のデータ処理フローと数百のGPUによる並列モデルトレーニング能力を含む、エンドツーエンドのモデルトレーニング能力を持っています。これらの能力は、大規模政府、クラウドサービス、国際展開の電子商取引、消費財など、さまざまな産業のシーンで実現されています。
338
+
339
+ 大規模モデルアプリケーションの展開に関するニーズがある企業は、お気軽にお問い合わせください。<br>
340
+ **Tel: 400-898-7779**<br>
341
+ **E-mail: [email protected]**
342
+
343
+ <div align="center">
344
+ <img src="./assets/imgs/wechat_group.jpg" alt="wechat" width="40%" />
345
+ </div>
346
+ ```
README_ko.md ADDED
@@ -0,0 +1,356 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ - zh
5
+ - ja
6
+ - ko
7
+ metrics:
8
+ - accuracy
9
+ pipeline_tag: text-generation
10
+ tags:
11
+ - code
12
+ - model
13
+ - llm
14
+ ---
15
+
16
+ <!-- markdownlint-disable first-line-h1 -->
17
+ <!-- markdownlint-disable html -->
18
+ <div align="center">
19
+ <img src="./assets/imgs/orion_start.PNG" alt="logo" width="30%" />
20
+ </div>
21
+
22
+ <div align="center">
23
+ <h1>
24
+ Orion-14B
25
+ </h1>
26
+ </div>
27
+
28
+ <div align="center">
29
+
30
+ <div align="center">
31
+ <b>🇰🇷한국어</b> | <a href="./README.md">🌐英語</a> | <a href="./README_zh.md">🇨🇳中文</a> | <a href="./README_ja.md">🇯🇵日本語</a>
32
+ </div>
33
+
34
+ <h4 align="center">
35
+ <p>
36
+ 🤗 <a href="https://huggingface.co/OrionStarAI" target="_blank">HuggingFace홈페이지</a> | 🤖 <a href="https://modelscope.cn/organization/OrionStarAI" target="_blank">ModelScope홈페이지</a><br>🎬 <a href="https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo" target="_blank">HuggingFace온라인 시용</a> | 🎫 <a href="https://modelscope.cn/studios/OrionStarAI/Orion-14B-App-Demo/summary" target="_blank">ModelScope在线试用</a><br>😺 <a href="https://github.com/OrionStarAI/Orion" target="_blank">GitHub</a><br>📖 <a href="https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf" target="_blank">기술 리포트</a>
37
+ <p>
38
+ </h4>
39
+
40
+ </div>
41
+
42
+
43
+
44
+ # 목록
45
+
46
+ -[ 📖 모형 소개] (#model-introduction)
47
+ -[🔗 다운로드 경로] (#model-download)
48
+ -[🔖 평가결과] (#model-benchmark)
49
+ -[📊 모형 추리] (#model-inference)
50
+ -[📜 성명 합의] (#declarations-license)
51
+ -[🥇 기업 소개] (#company-introduction)
52
+
53
+
54
+ <a name="model-introduction"></a><br>
55
+ # 1. 모델소게
56
+
57
+
58
+ -Orion-14B-Base는 2.5조 토큰의 다양한 데이터 집합으로 훈련된 140억 개의 파라메터를 가진 다중 언어 모델이다. 중국어, 영어, 일본어, 한국어 및 기타 언어를 포함한다.다중 언어 환경에서 일련의 업무에서 탁월한 성능을 보인다. Orion-14B 시리즈의 모델들은 주요 공개 기준 측정에서 우수한 성적을 거두었으며 여러가지 지표가 동일한 파라메터를 가진 다른 모델들을 현저히 초월한다. 구체적인 기술 디테일은 [기술보고서]를 참고하세요.
59
+ (https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf)。
60
+
61
+ - Orion-14B시리즈 대형 모델은 다음과 같은 특징이 있다.
62
+ - 베이스20B 파라메터 레벨인 대형 모델의 종합적인 평가 결과가 우수하다
63
+ - 다국어 능력이 뛰어나고 일본어와 한국어 테스트 세트에서 현저히 앞선다
64
+ - 미세조정 모델은 적응성이 강하며 인위 표시의 블라인드 테스트에서 활약이 두드러진다
65
+ - 긴 컨텍스트 버전은 최대 320k까지 지원하는 200k 토큰에 뛰어난 긴 텍스트를 지지한다
66
+ - 정량화 버전 모델 크기를 70% 줄이고 추론 속도를 30% 높이며 성능 손실을 1% 미만하다
67
+ <table style="border-collapse: collapse; width: 100%;">
68
+ <tr>
69
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
70
+ <img src="./assets/imgs/opencompass_en.png" alt="opencompass" style="width: 100%; height: auto;">
71
+ </td>
72
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
73
+ <img src="./assets/imgs/model_cap_en.png" alt="modelcap" style="width: 100%; height: auto;">
74
+ </td>
75
+ </tr>
76
+ </table>
77
+
78
+ - 구체적으로 말하면 Orion-14B시리즈 대형 언어 모델은 다음과 같은 내용을 포함한다:
79
+ - **Orion-14B-Base:** 2.5억 토켄스 다양화 데이터 세트를 기반으로 한 140억 파라메터 규모의 다언어 기반 모델.
80
+ - **Orion-14B-Chat:** 고퀄리티 코퍼스 미세조정을 기반으로 한 대화형 모델. 대형 모델 커뮤니티를 위해 더 나은 사용자 인터랙션 경험을 제공하도록 한다.
81
+ - **Orion-14B-LongChat:** 200k 토큰 길이에 효과적이며 최대 320k까지 지원하며 긴 텍스트 평가 세트에서 독점 모델과 비교할 수 있다.
82
+ - **Orion-14B-Chat-RAG:** 맞춰 제정된 검색 향상 생성 데이터 세트에서 미세조정하여 검색 향상 생성 작업에서 뛰어난 성능을 제공한 채팅 모델.
83
+ - **Orion-14B-Chat-Plugin:** 플러그인 및 함수 전용 작업에 맞춰 제정된 채팅 모델. 에이전트와 관련된 상황에 아주 잘 적용되어 대형 언어 모델이 플러그인 및 함수 전용 시스템의 역할을 한다.
84
+ - **Orion-14B-Base-Int4:** int4로 계량화하는 베이스 모델. 모델 크기를 70%를 줄이며 추리 속도를 30% 높여 1%의 최소한의 성능 손실만 가져왔다.
85
+ - **Orion-14B-Chat-Int4:** int4로 계량화하는 대화 모델.
86
+
87
+
88
+ <a name="model-download"></a><br>
89
+ # 2. 다운로드 경로
90
+
91
+ 발표된 모델 및 다운로드 링크는 다음 표를 참조하세요:
92
+
93
+ | 모델 명칭 | HuggingFace다운로드 링크 | ModelScope다운로드 링크 |
94
+ |---------------------|-----------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|
95
+ | ⚾ 베이스 모델 | [Orion-14B-Base](https://huggingface.co/OrionStarAI/Orion-14B-Base) | [Orion-14B-Base](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base/summary) |
96
+ | 😛 대화 모델 | [Orion-14B-Chat](https://huggingface.co/OrionStarAI/Orion-14B-Chat) | [Orion-14B-Chat](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat/summary) |
97
+ | 📃 긴 컨텍스트 모델 | [Orion-14B-LongChat](https://huggingface.co/OrionStarAI/Orion-14B-LongChat) | [Orion-14B-LongChat](https://modelscope.cn/models/OrionStarAI/Orion-14B-LongChat/summary) |
98
+ | 🔎 검색 향상 모델 | [Orion-14B-Chat-RAG](https://huggingface.co/OrionStarAI/Orion-14B-Chat-RAG) | [Orion-14B-Chat-RAG](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-RAG/summary) |
99
+ | 🔌 플러그인 모델 | [Orion-14B-Chat-Plugin](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Plugin) | [Orion-14B-Chat-Plugin](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Plugin/summary)|
100
+ | 💼 베이스Int4계량화 모델 | [Orion-14B-Base-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Base-Int4) | [Orion-14B-Base-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base-Int4/summary) |
101
+ | 📦 대화Int4계량화 모델 | [Orion-14B-Chat-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Int4) | [Orion-14B-Chat-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Int4/summary) |
102
+
103
+
104
+ <a name="model-benchmark"></a><br>
105
+ # 3. 평가 결과
106
+
107
+ ## 3.1. 베이스 모델Orion-14B-Base평가
108
+
109
+ ### 3.1.1. 전문 지식 및 시험문제 평가 결과
110
+ | 모델 명칭 | C-Eval | CMMLU | MMLU | AGIEval | Gaokao | BBH |
111
+ |--------------------|----------|----------|----------|----------|----------|----------|
112
+ | LLaMA2-13B | 41.4 | 38.4 | 55.0 | 30.9 | 18.2 | 45.6 |
113
+ | Skywork-13B | 59.1 | 61.4 | 62.7 | 43.6 | 56.1 | 48.3 |
114
+ | Baichuan2-13B | 59.0 | 61.3 | 59.5 | 37.4 | 45.6 | 49.0 |
115
+ | QWEN-14B | 71.7 | 70.2 | 67.9 | 51.9 | **62.5** | 53.7 |
116
+ | InternLM-20B | 58.8 | 59.0 | 62.1 | 44.6 | 45.5 | 52.5 |
117
+ | **Orion-14B-Base** | **72.9** | **70.6** | **69.9** | **54.7** | 62.1 | **56.5** |
118
+
119
+ ### 3.1.2. 이해 및 통식 평가 결과
120
+ | 모델 명칭 |RACE-middle|RACE-high| HellaSwag| PIQA | Lambada | WSC |
121
+ |--------------------|----------|----------|----------|----------|----------|----------|
122
+ | LLaMA 2-13B | 63.0 | 58.9 | 77.5 | 79.8 | 76.5 | 66.3 |
123
+ | Skywork-13B | 87.6 | 84.1 | 73.7 | 78.3 | 71.8 | 66.3 |
124
+ | Baichuan 2-13B | 68.9 | 67.2 | 70.8 | 78.1 | 74.1 | 66.3 |
125
+ | QWEN-14B | 93.0 | 90.3 | **80.2** | 79.8 | 71.4 | 66.3 |
126
+ | InternLM-20B | 86.4 | 83.3 | 78.1 | **80.3** | 71.8 | 68.3 |
127
+ | **Orion-14B-Base** | **93.2** | **91.3** | 78.5 | 79.5 | **78.8** | **70.2** |
128
+
129
+ ### 3.1.3. OpenCompass평가 세트 평가 결과
130
+ | 모델 명칭 | Average | Examination | Language | Knowledge | Understanding | Reasoning |
131
+ |------------------|----------|----------|----------|----------|----------|----------|
132
+ | LLaMA 2-13B | 47.3 | 45.2 | 47.0 | 58.3 | 50.9 | 43.6 |
133
+ | Skywork-13B | 53.6 | 61.1 | 51.3 | 52.7 | 64.5 | 45.2 |
134
+ | Baichuan 2-13B | 49.4 | 51.8 | 47.5 | 48.9 | 58.1 | 44.2 |
135
+ | QWEN-14B | 62.4 | 71.3 | 52.67 | 56.1 | 68.8 | 60.1 |
136
+ | InternLM-20B | 59.4 | 62.5 | 55.0 | **60.1** | 67.3 | 54.9 |
137
+ |**Orion-14B-Base**| **64.3** | **71.4** | **55.0** | 60.0 | **71.9** | **61.6** |
138
+
139
+ ### 3.1.4. 일본어 테스트 세트 평가 결과
140
+ | 모델 명칭 |**Average**| JCQA | JNLI | MARC | JSQD | JQK | XLS | XWN | MGSM |
141
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
142
+ | PLaMo-13B | 52.3 | 56.7 | 42.8 | 95.8 | 70.6 | 71.0 | 8.70 | 70.5 | 2.40 |
143
+ | WebLab-10B | 50.7 | 66.6 | 53.7 | 82.1 | 62.9 | 56.2 | 10.0 | 72.0 | 2.40 |
144
+ | ELYZA-jp-7B | 48.8 | 71.7 | 25.3 | 86.6 | 70.8 | 64.1 | 2.50 | 62.1 | 7.20 |
145
+ | StableLM-jp-7B | 51.1 | 33.4 | 43.3 | **96.7** | 70.6 | 78.1 | 10.7 | 72.8 | 2.80 |
146
+ | LLaMA 2-13B | 46.3 | 75.0 | 47.6 | 38.8 | 76.1 | 67.7 | 18.1 | 63.2 | 10.4 |
147
+ | Baichuan 2-13B | 57.1 | 73.7 | 31.3 | 91.6 | 80.5 | 63.3 | 18.6 | 72.2 | 25.2 |
148
+ | QWEN-14B | 65.8 | 85.9 | 60.7 | 97.0 | 83.3 | 71.8 | 18.8 | 70.6 | 38.0 |
149
+ | Yi-34B | 67.1 | 83.8 | 61.2 | 95.2 | **86.1** | 78.5 | **27.2** | 69.2 | 35.2 |
150
+ | **Orion-14B-Base** | **69.1** | **88.2** | **75.8** | 94.1 | 75.7 | **85.1** | 17.3 | **78.8** | **38.0** |
151
+
152
+ ### 3.1.5. 한국어 테스트 세트n-shot평가 결과
153
+ | 모델 명칭 | **Average**<br>n=0&nbsp;&nbsp;n=5 | HellaSwag<br>n=0&nbsp;&nbsp;n=5 | COPA<br> n=0&nbsp;&nbsp;n=5 | BooIQ<br>n=0&nbsp;&nbsp;n=5 | SentiNeg<br>n=0&nbsp;&nbsp;n=5|
154
+ |------------------|------------------------------|------------------------------|------------------------------|------------------------------|------------------------------|
155
+ | KoGPT | 53.0 &nbsp;&nbsp; 70.1 | 55.9 &nbsp;&nbsp; 58.3 | 73.5 &nbsp;&nbsp; 72.9 | 45.1 &nbsp;&nbsp; 59.8 | 37.5 &nbsp;&nbsp; 89.4 |
156
+ | Polyglot-ko-13B | 69.6 &nbsp;&nbsp; 73.7 |**59.5** &nbsp;&nbsp; **63.1**|**79.4** &nbsp;&nbsp; **81.1**| 48.2 &nbsp;&nbsp; 60.4 | 91.2 &nbsp;&nbsp; 90.2 |
157
+ | LLaMA 2-13B | 46.7 &nbsp;&nbsp; 63.7 | 41.3 &nbsp;&nbsp; 44.0 | 59.3 &nbsp;&nbsp; 63.8 | 34.9 &nbsp;&nbsp; 73.8 | 51.5 &nbsp;&nbsp; 73.4 |
158
+ | Baichuan 2-13B | 52.1 &nbsp;&nbsp; 58.7 | 39.2 &nbsp;&nbsp; 39.6 | 60.6 &nbsp;&nbsp; 60.6 | 58.4 &nbsp;&nbsp; 61.5 | 50.3 &nbsp;&nbsp; 72.9 |
159
+ | QWEN-14B | 53.8 &nbsp;&nbsp; 73.7 | 45.3 &nbsp;&nbsp; 46.8 | 64.9 &nbsp;&nbsp; 68.9 | 33.4 &nbsp;&nbsp; 83.5 | 71.5 &nbsp;&nbsp; 95.7 |
160
+ | Yi-34B | 54.2 &nbsp;&nbsp; 72.1 | 44.6 &nbsp;&nbsp; 44.7 | 58.0 &nbsp;&nbsp; 60.6 | 65.9 &nbsp;&nbsp; 90.2 | 48.3 &nbsp;&nbsp; 92.9 |
161
+ |**Orion-14B-Base**|**74.5** &nbsp;&nbsp; **79.6**| 47.0 &nbsp;&nbsp; 49.6 | 77.7 &nbsp;&nbsp; 79.4 |**81.6** &nbsp;&nbsp; **90.7**|**92.4** &nbsp;&nbsp; **98.7**|
162
+
163
+ ### 3.1.6. 다국어 평가 결과
164
+ | 모델 명칭 | Train Lang | Japanese | Korean | Chinese | English |
165
+ |--------------------|------------|----------|----------|----------|----------|
166
+ | PLaMo-13B | En,Jp | 52.3 | * | * | * |
167
+ | Weblab-10B | En,Jp | 50.7 | * | * | * |
168
+ | ELYZA-jp-7B | En,Jp | 48.8 | * | * | * |
169
+ | StableLM-jp-7B | En,Jp | 51.1 | * | * | * |
170
+ | KoGPT-6B | En,Ko | * | 70.1 | * | * |
171
+ | Polyglot-ko-13B | En,Ko | * | 70.7 | * | * |
172
+ | Baichuan2-13B | Multi | 57.1 | 58.7 | 50.8 | 57.1 |
173
+ | Qwen-14B | Multi | 65.8 | 73.7 | 64.5 | 65.4 |
174
+ | Llama2-13B | Multi | 46.3 | 63.7 | 41.4 | 55.3 |
175
+ | Yi-34B | Multi | 67.1 | 72.2 | 58.7 | **68.8** |
176
+ | **Orion-14B-Base** | Multi | **69.1** | **79.5** | **67.9** | 67.3 |
177
+
178
+ ## 3.2. 대화 모델Orion-14B-Chat평가
179
+ ### 3.2.1. 대화 모델MTBench주관적 평가
180
+ | 모델 명칭 | 1라운드 | 2라운드 | **평균** |
181
+ |----------------------|----------|----------|----------|
182
+ | Baichuan2-13B-Chat | 7.05 | 6.47 | 6.76 |
183
+ | Qwen-14B-Chat | 7.30 | 6.62 | 6.96 |
184
+ | Llama2-13B-Chat | 7.10 | 6.20 | 6.65 |
185
+ | InternLM-20B-Chat | 7.03 | 5.93 | 6.48 |
186
+ | **Orion-14B-Chat** | **7.68** | **7.07** | **7.37** |
187
+
188
+ \*이 평가는 vllm을 이용하여 추리한다
189
+
190
+ ### 3.2.2. 대화 모델AlignBench주관적 평가
191
+ | 모델 명칭 | 수학 능력 | 논리적 추리 | 기본 능력 | 중국어 이해 | 종합적 문답 | 글쓰기 능력 | 롤 플레이 | 전문 지식 | **평균** |
192
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
193
+ | Baichuan2-13B-Chat | 3.76 | 4.07 | 6.22 | 6.05 | 7.11 | 6.97 | 6.75 | 6.43 | 5.25 |
194
+ | Qwen-14B-Chat | **4.91** | **4.71** | **6.90** | 6.36 | 6.74 | 6.64 | 6.59 | 6.56 | **5.72** |
195
+ | Llama2-13B-Chat | 3.05 | 3.79 | 5.43 | 4.40 | 6.76 | 6.63 | 6.99 | 5.65 | 4.70 |
196
+ | InternLM-20B-Chat | 3.39 | 3.92 | 5.96 | 5.50 | **7.18** | 6.19 | 6.49 | 6.22 | 4.96 |
197
+ | **Orion-14B-Chat** | 4.00 | 4.24 | 6.18 | **6.57** | 7.16 | **7.36** | **7.16** | **6.99** | 5.51 |
198
+
199
+ \*이 평가는 vllm을 이용하여 추리한다
200
+
201
+ ## 3.3. 긴 컨텍스트 모델Orion-14B-LongChat평가
202
+ ### 3.3.1. 긴 컨텍스트 모델LongBench평가
203
+ | 모델 명칭 | NarrativeQA| MultiFieldQA-en| MultiFieldQA-zh | DuReader | QMSum | VCSUM | TREC | TriviaQA | LSHT | RepoBench-P |
204
+ |--------------------------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|
205
+ | GPT-3.5-Turbo-16k | **23.60** | **52.30** | **61.20** | 28.70 | 23.40 | **16.00** | 68.00 | **91.40** | 29.20 | 53.60 |
206
+ | LongChat-v1.5-7B-32k | 16.90 | 41.40 | 29.10 | 19.50 | 22.70 | 9.90 | 63.50 | 82.30 | 23.20 | 55.30 |
207
+ | Vicuna-v1.5-7B-16k | 19.40 | 38.50 | 43.00 | 19.30 | 22.80 | 15.10 | 71.50 | 86.20 | 28.80 | 43.50 |
208
+ | Yi-6B-200K | 14.11 | 36.74 | 22.68 | 14.01 | 20.44 | 8.08 | 72.00 | 86.61 | 38.00 | **63.29** |
209
+ | Orion-14B-LongChat | 19.47 | 48.11 | 55.84 | **37.02** | **24.87** | 15.44 | **77.00** | 89.12 | **45.50** | 54.31 |
210
+
211
+ ## 3.4. 검색 향상 모델Orion-14B-Chat-RAG평가
212
+ ### 3.4.1. 자기 만든 검색 향상 테스트 세트 평가 결과
213
+ |모델 명칭|응답 효과(키워드)|*응답 효과(주관적 점수)|인용 능력|기본 떠맡는 능력|*AutoQA|*데이터 추출|
214
+ |---------------------|------|------|------|------|------|------|
215
+ | Baichuan2-13B-Chat | 85 | 76 | 1 | 0 | 69 | 51 |
216
+ | Qwen-14B-Chat | 79 | 77 | 75 | 47 | 68 | 72 |
217
+ | Qwen-72B-Chat(Int4) | 87 | 89 | 90 | 32 | 67 | 76 |
218
+ | GPT-4 | 91 | 94 | 96 | 95 | 75 | 86 |
219
+ | Orion-14B-Chat-RAG | 86 | 87 | 91 | 97 | 73 | 71 |
220
+ \* 사람 평가 결과를 가리킨다
221
+
222
+ ## 3.5. 플러그인 모델Orion-14B-Chat-Plugin평가
223
+ ### 3.5.1. 자기 만든플러그인 테스트 세트 평가 결과
224
+ | 모델 명칭 | 풀 파라메터 의도 식별 | 불완전 파라메터 의도 식별 | 비 플러그인 전용 식별 |
225
+ |-----------------------|--------|-----------|--------|
226
+ | Baichuan2-13B-Chat | 25 | 0 | 0 |
227
+ | Qwen-14B-Chat | 55 | 0 | 50 |
228
+ | GPT-4 | **95** | 52.38 | 70 |
229
+ | Orion-14B-Chat-Plugin | 92.5 | **60.32** | **90** |
230
+
231
+ ## 3.6. 계량화 모델Orion-14B-Base-Int4평가
232
+ ### 3.6.1. 계량화 전후 전반적인 비교
233
+ |모델 명칭|모델 크기(GB)|추리 속도(토큰 수/초)|C-Eval |CMMLU |MMLU |RACE | HellaSwag|
234
+ |-------------------------|------|-----|------|------|------|------|------|
235
+ | OrionStar-14B-Base | 28.0 | 135 | 72.8 | 70.6 | 70.0 | 93.3 | 78.5 |
236
+ | OrionStar-14B-Base-Int4 | 8.3 | 178 | 71.8 | 69.8 | 69.2 | 93.1 | 78.0 |
237
+
238
+
239
+ <a name="model-inference"></a><br>
240
+ # 4. 모델 추리
241
+
242
+ 추리에 필요한 모델 가중치, 소스 코드, 배치는 Hugging Face에 게시되어 다운로드 링크는 이 파일 맨 처음에 있는 표를 참조하세요. 저희는 여기서 다양한 추리 방식을 보여 주고 프로그램은 Hugging Face로부터 필요한 자료를 자동으로 다운로드 할 것이다.
243
+
244
+ ## 4.1. Python 코드 방식
245
+
246
+ ```python
247
+ import torch
248
+ from transformers import AutoModelForCausalLM, AutoTokenizer
249
+ from transformers.generation.utils import GenerationConfig
250
+
251
+ tokenizer = AutoTokenizer.from_pretrained("OrionStarAI/Orion-14B", use_fast=False, trust_remote_code=True)
252
+ model = AutoModelForCausalLM.from_pretrained("OrionStarAI/Orion-14B", device_map="auto",
253
+ torch_dtype=torch.bfloat16, trust_remote_code=True)
254
+
255
+ model.generation_config = GenerationConfig.from_pretrained("OrionStarAI/Orion-14B")
256
+ messages = [{"role": "user", "content": "안녕! 이름이 뭐예요!"}]
257
+ response = model.chat(tokenizer, messages, streaming=Flase)
258
+ print(response)
259
+
260
+ ```
261
+
262
+ 위의 두 코드에서 모델은 지정된 `device_map='auto'`로딩하면 모든 사용할 수 있는 그래픽 카드를 사용할 것이다. 사용할 장치를 지정하려면 `export CUDA_VISIBLE_DEVICES=0,1`(그래픽 카드 0과 1을 사용)과 같은 방식으로 제어할 수 있다.
263
+
264
+ ## 4.2. 명령줄 툴 방식
265
+
266
+ ```shell
267
+ CUDA_VISIBLE_DEVICES=0 python cli_demo.py
268
+ ```
269
+
270
+ 이 명령줄 툴은 Chat 시나리오를 위해 설계되었으므로 이 툴로 베이스 모델을 전용하는 것 지원하지 않는다.
271
+
272
+ ## 4.3. 스크립트 직접 추리
273
+
274
+ ```shell
275
+ # base model
276
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation_base.py --model OrionStarAI/Orion-14B --tokenizer OrionStarAI/Orion-14B --prompt 안녕. 이름이 뭐예요
277
+
278
+ # chat model
279
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation.py --model OrionStarAI/Orion-14B-Chat --tokenizer OrionStarAI/Orion-14B-Chat --prompt 안녕. 이름이 뭐예요
280
+
281
+ ```
282
+
283
+ ## 4.4. 예시 노출
284
+
285
+ ### 4.4.1. 잡담
286
+
287
+ `````
288
+ 사용자:안녕,이름이 뭐예요
289
+ Orion-14B:안녕! 저는 인공지능 조수 입니다. 정해진 이름은 없고 마음대로 불러도 됩니다. 도와줄 수 있는 거 있나요?
290
+ 사용자:이야기 하나 나눠줘
291
+ Orion-14B:예전에 잭이라는 어린 소년이 있었다. 그는 작은 마을에 살았다. 잭은 모험과 탐구를 매우 좋아해서 항상 신기한 것을 발견하는 꿈을 꾼다.
292
+
293
+ 어느날 잭은 근처의 숲 깊은 곳에 전설속의 마법성이 있어 그 안에 사악한 거인이 산다는 소식을 든다. 그 거인의 이름은 그림이었다. 그는 성 안에 갇힌 채 떠날 수 없었다.
294
+
295
+ 잭은 그림이 그곳에 갇혀있는 이유가 꼭 있을 거라고 믿기 때문에 거인을 구하러 가기로 결심한다. 그리하여 그는 용기와 결심을 가져 마법의 성으로 가는 여정을 시작한다.
296
+
297
+ 오랜 고생 끝에 잭은 마침내 성보 대문 앞에 다다랐다. 그는 조심스럽게 대문을 열고 신비한 기운이 가득한 방으로 들어갔다.
298
+
299
+ 방안에 어두운 기운이 가득했지만 잭은 놀라지 않았다. 그는 용감하게 성 안으로 들어가 마침내 그림을 찾아냈다.
300
+
301
+ 그림은 자신은 사악한 마녀의 저주를 받아서 저주를 풀어야만 자유로워질 수 있다고 잭에게 말한다. 잭은 그림을 돕기로 결정하여 단서와 주문을 풀 방법을 찾기 시작한다.
302
+
303
+ 한바탕의 노력 끝에 잭은 드디어 마녀의 비밀 실험실로 가는 길을 찾아낸다. 그는 그곳에서 마녀가 남긴 마법서를 발견했는데 그 책에서 주문을 푸는 방법이 적혀 있었다.
304
+
305
+ 잭은 책에 쓰인 절차를 따라하여 그림의 저주를 성공적으로 풀어냈다. 거인은 너무 감사해서 잭의 소원이 이루어지도록 돕겠다고 약속했다.
306
+
307
+ 이때로부터 잭과 그림은 좋은 친구가 되어 많은 위험하고 짜릿한 모험을 함께 겪었으며 그들의 용기와 지혜로 각종 어려움을 이겨냈다.
308
+
309
+ 이 이야기는 저희에게 용기와 결심이 있다면 모든 어려움을 극복하고 자신의 꿈을 이룰 수 있다는 것을 알려준다.
310
+ `````
311
+
312
+ ### 4.4.2. 한일
313
+
314
+ `````
315
+ 用户:自己を紹介してください
316
+ Orion-14B:こんにちは、私の名前はChatMaxで、OrionStarによって開発されたAIアシスタントです。私はユーザーに正確で、客観的で、有用な回答を提供し、彼らが問題を解決し、情報を取得するのを助けることができます。
317
+ 用户:자기소개를 해주세요.
318
+ Orion-14B:안녕하세요, 제 명칭은 ChatMax입니다. OrionStar에서 개발한 AI 어시스턴트입니다. 저는 사용자들에게 정확하고 객관적이며 유용한 답변을 제공하여 문제를 해결하고 정보를 얻는 데 도움을 줄 수 있습니다.
319
+ `````
320
+
321
+
322
+ <a name="declarations-license"></a><br>
323
+ # 5. 성명, 협의
324
+
325
+ ## 5.1. 성명
326
+
327
+ 저희는 모든 사용자들에게 Orion-14B모델을 이용하여 국가 사회 안전에 해치거나 불법적인 행위를 하는 거 하지 않도록 강력히 호소한다. 또한, 저희는 사용자들에게 Orion-14B 모델을 적절한 보안 검토를 하지 않거나 문서화되지 않은 인터넷 서비스로 이용하지 말라는 것을 요청한다.
328
+
329
+ 저희는 모든 사용자가 이 원칙을 지키며 기술의 발전이 규범적이고 합법적인 환경에서 이루어질 수 있기를 바란다.
330
+ 저희는 이미 최선을 다해 모델 훈련 과정에서 사용된 데이터의 준칙성을 확보하도록 하였다. 그러나 막대한 노력을 기울였음에도 불구하고 모델과 데이터의 복잡성으로 말미암아 일부 예견할 수 없을 문제들이 여전히 존재할 수 있다. 따라서 Orion-14B 오픈소스 모델의 사용으로 야기된 문제, 데이터 보안 문제와 공론 위험이나 모델의 오도, 남용, 전파, 또한 불적당한 사용 등으로 가져온 위험과 문제에 대해 저희는 책임을 지지 않겠다.
331
+
332
+ ## 5.2. 협의
333
+
334
+ 커뮤니티 사용Orion-14B시리즈 모델
335
+ - 코드는 [Apache License Version 2.0](./LICENSE)<br>따르세요
336
+ - 모델은 [Orion-14B시리즈 모델 커뮤니티 허가 협의](./ModelsCommunityLicenseAgreement)따르세요
337
+
338
+
339
+ <a name="company-introduction"></a><br>
340
+ # 6. 회사소개
341
+
342
+ 오리온 스타(OrionStar)는 2016년 9월 설립된 세계 최고의 서비스 로봇 솔루션 회사이다. 오리온 스타는 인공지능 기술을 바탕으로 차세대 혁명적 로봇 만들어 사람들이 반복되는 육체노동에서 벗어나 일과 생활을 더욱 지능적이고 재미있게 만들고 기술을 통해 사회와 세계를 더욱 아름답게 만든 것에 힘을 기울인다.
343
+
344
+ 오리온 스타는 음성 인터렉션과 시각 네비게이션 등 완전히 독자적으로 개발한 풀 체인 인공지능 기술을 가지고 있다. 저희는 프로덕트 개발 능력과 기술 응용 능력을 통합하였다. 오리온 로봇 팔 플랫폼을 기반으로 ORIONSTAR AI Robot Greeting, AI Robot Greeting Mini, Lucki, CoffeeMaster 등의 프로덕트 출시하였으며 오리온 로봇의 오픈 플랫폼인 OrionOS를 설립하였다. **진짜 유용한 로봇을 위해 태어나라**의 이념을 위한 실천하여 AI기술을 통해 더 많은 사람들에게 능력을 부여한다.
345
+
346
+ 7년의 AI경험 누적을 바탕으로 오��온 스타는 대형 모델 심층 응용"쥐언(Chatmax)"을 출시했고 업계 고객에게 맞춤형 AI대형 모델 컨설팅과 서비스 솔루션을 지속적으로 제공하여 진정으로 기업 경영 효율이 동종 업계에 앞서는 목표를 달성할 수 있도록 고객들에게 돕고 있다.
347
+
348
+ **오리온 스타는 풀 체인 대형 모델 응용능력이란 핵심적 우세를 갖고 있다**, 대량 데이터 처리, 대형 모델 사전 훈련, 2차 사전 훈련, 미세 조정(Fine-tune), PromptEngineering, Agent등에서 개발된 풀 체인 능력과 경험 누적을 가지는 거 포함한다. 체계화된 데이터 처리 절차와 수백 개의 GPU의 병렬 모델 훈련 능력을 포함한 완정한 엔드투엔드 모델 훈련 능력을 가지고 있으며 현재 대형 정무, 클라우드 서비스, 출해 전자상거래, 쾌속소비품 등 여러 업계에서 구현되었다.
349
+
350
+ ***대형 모델 응용 구현 필요가 있으신 회사께서 저희와 연락하는 것을 환영한다***<br>
351
+ **문의 전화:** 400-898-7779<br>
352
+ **이메일:** [email protected]
353
+
354
+ <div align="center">
355
+ <img src="./assets/imgs/wechat_group.jpg" alt="wechat" width="40%" />
356
+ </div>
README_zh.md ADDED
@@ -0,0 +1,362 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ - zh
5
+ - ja
6
+ - ko
7
+ metrics:
8
+ - accuracy
9
+ pipeline_tag: text-generation
10
+ tags:
11
+ - code
12
+ - model
13
+ - llm
14
+ ---
15
+
16
+ <!-- markdownlint-disable first-line-h1 -->
17
+ <!-- markdownlint-disable html -->
18
+ <div align="center">
19
+ <img src="./assets/imgs/orion_start.PNG" alt="logo" width="50%" />
20
+ </div>
21
+
22
+ <div align="center">
23
+ <h1>
24
+ Orion-14B
25
+ </h1>
26
+ </div>
27
+
28
+ <div align="center">
29
+
30
+ <div align="center">
31
+ <b>🇨🇳中文</b> | <a href="./README.md">🌐English</a> | <a href="./README_ja.md">🇯🇵日本語</a> | <a href="./README_ko.md">🇰🇷한국어</a>
32
+ </div>
33
+
34
+ <h4 align="center">
35
+ <p>
36
+ 🤗 <a href="https://huggingface.co/OrionStarAI" target="_blank">HuggingFace Mainpage</a> | 🤖 <a href="https://modelscope.cn/organization/OrionStarAI" target="_blank">ModelScope Mainpage</a><br>🎬 <a href="https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo" target="_blank">HuggingFace Demo</a> | 🎫 <a href="https://modelscope.cn/studios/OrionStarAI/Orion-14B-App-Demo/summary" target="_blank">ModelScope Demo</a><br>😺 <a href="https://github.com/OrionStarAI/Orion" target="_blank">GitHub</a><br>📖 <a href="https://arxiv.org/pdf/2401.12246.pdf" target="_blank">Tech Report</a>
37
+ <p>
38
+ </h4>
39
+
40
+ </div>
41
+
42
+
43
+ # 目录
44
+
45
+
46
+ - [📖 模型介绍](#zh_model-introduction)
47
+ - [🔗 下载路径](#zh_model-download)
48
+ - [🔖 评估结果](#zh_model-benchmark)
49
+ - [📊 模型推理](#zh_model-inference)
50
+ - [📜 声明协议](#zh_declarations-license)
51
+ - [🥇 企业介绍](#zh_company-introduction)
52
+
53
+
54
+ <a name="zh_model-introduction"></a><br>
55
+ # 1. 模型介绍
56
+
57
+ - Orion-14B-Base是一个具有140亿参数的多语种大模型,该模型在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖了中文、英语、日语、韩语等多种语言。在多语言环境下的一系列任务中展现出卓越的性能。在主流的公开基准评测中,Orion-14B系列模型表现优异,多项指标显著超越同等参数基本的其他模型。具体技术细节请参考[技术报告](https://arxiv.org/pdf/2401.12246.pdf)。
58
+
59
+ - Orion-14B系列大模型有以下几个特点:
60
+ - 基座20B参数级别大模型综合评测效果表现优异
61
+ - 多语言能力强,在日语、韩语测试集上显著领先
62
+ - 微调模型适应性强,在人类标注盲测中,表现突出
63
+ - 长上下文版本支持超长文本,在200k token长度上效果优异,最长可支持可达320k
64
+ - 量化版本模型大小缩小70%,推理速度提升30%,性能损失小于1%
65
+
66
+ <table style="border-collapse: collapse; width: 100%;">
67
+ <tr>
68
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
69
+ <img src="./assets/imgs/opencompass_zh.png" alt="opencompass" style="width: 100%; height: auto;">
70
+ </td>
71
+ <td style="border: none; padding: 10px; box-sizing: border-box;">
72
+ <img src="./assets/imgs/model_cap_zh.png" alt="modelcap" style="width: 100%; height: auto;">
73
+ </td>
74
+ </tr>
75
+ </table>
76
+
77
+ - 具体而言,Orion-14B系列大语言模型包含:
78
+ - **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
79
+ - **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
80
+ - **Orion-14B-LongChat:** 在200k token长度上效果优异,最长可支持可达320k,在长文本评估集上性能比肩专有模型。
81
+ - **Orion-14B-Chat-RAG:** 在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
82
+ - **Orion-14B-Chat-Plugin:** 专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
83
+ - **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
84
+ - **Orion-14B-Chat-Int4:** 一个使用int4进行量化的对话模型。
85
+
86
+
87
+ <a name="zh_model-download"></a><br>
88
+ # 2. 下载路径
89
+
90
+ 发布模型和下载链接见下表:
91
+
92
+ | 模型名称 | HuggingFace下载链接 | ModelScope下载链接 |
93
+ |---------------------|-----------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|
94
+ | ⚾ 基座模型 | [Orion-14B-Base](https://huggingface.co/OrionStarAI/Orion-14B-Base) | [Orion-14B-Base](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base/summary) |
95
+ | 😛 对话模型 | [Orion-14B-Chat](https://huggingface.co/OrionStarAI/Orion-14B-Chat) | [Orion-14B-Chat](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat/summary) |
96
+ | 📃 ��上下文模型 | [Orion-14B-LongChat](https://huggingface.co/OrionStarAI/Orion-14B-LongChat) | [Orion-14B-LongChat](https://modelscope.cn/models/OrionStarAI/Orion-14B-LongChat/summary) |
97
+ | 🔎 检索增强模型 | [Orion-14B-Chat-RAG](https://huggingface.co/OrionStarAI/Orion-14B-Chat-RAG) | [Orion-14B-Chat-RAG](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-RAG/summary) |
98
+ | 🔌 插件模型 | [Orion-14B-Chat-Plugin](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Plugin) | [Orion-14B-Chat-Plugin](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Plugin/summary)|
99
+ | 💼 基座Int4量化模型 | [Orion-14B-Base-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Base-Int4) | [Orion-14B-Base-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base-Int4/summary) |
100
+ | 📦 对话Int4量化模型 | [Orion-14B-Chat-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Int4) | [Orion-14B-Chat-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Int4/summary) |
101
+
102
+
103
+ <a name="zh_model-benchmark"></a><br>
104
+ # 3. 评估结果
105
+
106
+ ## 3.1. 基座模型Orion-14B-Base评估
107
+
108
+ ### 3.1.1. 专业知识与试题评估结果
109
+ | 模型名称 | C-Eval | CMMLU | MMLU | AGIEval | Gaokao | BBH |
110
+ |--------------------|----------|----------|----------|----------|----------|----------|
111
+ | LLaMA2-13B | 41.4 | 38.4 | 55.0 | 30.9 | 18.2 | 45.6 |
112
+ | Skywork-13B | 59.1 | 61.4 | 62.7 | 43.6 | 56.1 | 48.3 |
113
+ | Baichuan2-13B | 59.0 | 61.3 | 59.5 | 37.4 | 45.6 | 49.0 |
114
+ | QWEN-14B | 71.7 | 70.2 | 67.9 | 51.9 | **62.5** | 53.7 |
115
+ | InternLM-20B | 58.8 | 59.0 | 62.1 | 44.6 | 45.5 | 52.5 |
116
+ | **Orion-14B-Base** | **72.9** | **70.6** | **69.9** | **54.7** | 62.1 | **56.5** |
117
+
118
+ ### 3.1.2. 理解与通识评估结果
119
+ | 模型名称 |RACE-middle|RACE-high| HellaSwag| PIQA | Lambada | WSC |
120
+ |--------------------|----------|----------|----------|----------|----------|----------|
121
+ | LLaMA 2-13B | 63.0 | 58.9 | 77.5 | 79.8 | 76.5 | 66.3 |
122
+ | Skywork-13B | 87.6 | 84.1 | 73.7 | 78.3 | 71.8 | 66.3 |
123
+ | Baichuan 2-13B | 68.9 | 67.2 | 70.8 | 78.1 | 74.1 | 66.3 |
124
+ | QWEN-14B | 93.0 | 90.3 | **80.2** | 79.8 | 71.4 | 66.3 |
125
+ | InternLM-20B | 86.4 | 83.3 | 78.1 | **80.3** | 71.8 | 68.3 |
126
+ | **Orion-14B-Base** | **93.2** | **91.3** | 78.5 | 79.5 | **78.8** | **70.2** |
127
+
128
+ ### 3.1.3. OpenCompass评测集评估结果
129
+ | 模型名称 | Average | Examination | Language | Knowledge | Understanding | Reasoning |
130
+ |------------------|----------|----------|----------|----------|----------|----------|
131
+ | LLaMA 2-13B | 47.3 | 45.2 | 47.0 | 58.3 | 50.9 | 43.6 |
132
+ | Skywork-13B | 53.6 | 61.1 | 51.3 | 52.7 | 64.5 | 45.2 |
133
+ | Baichuan 2-13B | 49.4 | 51.8 | 47.5 | 48.9 | 58.1 | 44.2 |
134
+ | QWEN-14B | 62.4 | 71.3 | 52.67 | 56.1 | 68.8 | 60.1 |
135
+ | InternLM-20B | 59.4 | 62.5 | 55.0 | **60.1** | 67.3 | 54.9 |
136
+ |**Orion-14B-Base**| **64.3** | **71.4** | **55.0** | 60.0 | **71.9** | **61.6** |
137
+
138
+ ### 3.1.4. 日语测试集评估结果
139
+ | 模型名称 |**Average**| JCQA | JNLI | MARC | JSQD | JQK | XLS | XWN | MGSM |
140
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
141
+ | PLaMo-13B | 52.3 | 56.7 | 42.8 | 95.8 | 70.6 | 71.0 | 8.70 | 70.5 | 2.40 |
142
+ | WebLab-10B | 50.7 | 66.6 | 53.7 | 82.1 | 62.9 | 56.2 | 10.0 | 72.0 | 2.40 |
143
+ | ELYZA-jp-7B | 48.8 | 71.7 | 25.3 | 86.6 | 70.8 | 64.1 | 2.50 | 62.1 | 7.20 |
144
+ | StableLM-jp-7B | 51.1 | 33.4 | 43.3 | **96.7** | 70.6 | 78.1 | 10.7 | 72.8 | 2.80 |
145
+ | LLaMA 2-13B | 46.3 | 75.0 | 47.6 | 38.8 | 76.1 | 67.7 | 18.1 | 63.2 | 10.4 |
146
+ | Baichuan 2-13B | 57.1 | 73.7 | 31.3 | 91.6 | 80.5 | 63.3 | 18.6 | 72.2 | 25.2 |
147
+ | QWEN-14B | 65.8 | 85.9 | 60.7 | 97.0 | 83.3 | 71.8 | 18.8 | 70.6 | 38.0 |
148
+ | Yi-34B | 67.1 | 83.8 | 61.2 | 95.2 | **86.1** | 78.5 | **27.2** | 69.2 | 35.2 |
149
+ | **Orion-14B-Base** | **69.1** | **88.2** | **75.8** | 94.1 | 75.7 | **85.1** | 17.3 | **78.8** | **38.0** |
150
+
151
+ ### 3.1.5. 韩语测试集n-shot评估结果
152
+ | 模型名称 | **Average**<br>n=0&nbsp;&nbsp;n=5 | HellaSwag<br>n=0&nbsp;&nbsp;n=5 | COPA<br> n=0&nbsp;&nbsp;n=5 | BooIQ<br>n=0&nbsp;&nbsp;n=5 | SentiNeg<br>n=0&nbsp;&nbsp;n=5|
153
+ |------------------|------------------------------|------------------------------|------------------------------|------------------------------|------------------------------|
154
+ | KoGPT | 53.0 &nbsp;&nbsp; 70.1 | 55.9 &nbsp;&nbsp; 58.3 | 73.5 &nbsp;&nbsp; 72.9 | 45.1 &nbsp;&nbsp; 59.8 | 37.5 &nbsp;&nbsp; 89.4 |
155
+ | Polyglot-ko-13B | 69.6 &nbsp;&nbsp; 73.7 |**59.5** &nbsp;&nbsp; **63.1**|**79.4** &nbsp;&nbsp; **81.1**| 48.2 &nbsp;&nbsp; 60.4 | 91.2 &nbsp;&nbsp; 90.2 |
156
+ | LLaMA 2-13B | 46.7 &nbsp;&nbsp; 63.7 | 41.3 &nbsp;&nbsp; 44.0 | 59.3 &nbsp;&nbsp; 63.8 | 34.9 &nbsp;&nbsp; 73.8 | 51.5 &nbsp;&nbsp; 73.4 |
157
+ | Baichuan 2-13B | 52.1 &nbsp;&nbsp; 58.7 | 39.2 &nbsp;&nbsp; 39.6 | 60.6 &nbsp;&nbsp; 60.6 | 58.4 &nbsp;&nbsp; 61.5 | 50.3 &nbsp;&nbsp; 72.9 |
158
+ | QWEN-14B | 53.8 &nbsp;&nbsp; 73.7 | 45.3 &nbsp;&nbsp; 46.8 | 64.9 &nbsp;&nbsp; 68.9 | 33.4 &nbsp;&nbsp; 83.5 | 71.5 &nbsp;&nbsp; 95.7 |
159
+ | Yi-34B | 54.2 &nbsp;&nbsp; 72.1 | 44.6 &nbsp;&nbsp; 44.7 | 58.0 &nbsp;&nbsp; 60.6 | 65.9 &nbsp;&nbsp; 90.2 | 48.3 &nbsp;&nbsp; 92.9 |
160
+ |**Orion-14B-Base**|**74.5** &nbsp;&nbsp; **79.6**| 47.0 &nbsp;&nbsp; 49.6 | 77.7 &nbsp;&nbsp; 79.4 |**81.6** &nbsp;&nbsp; **90.7**|**92.4** &nbsp;&nbsp; **98.7**|
161
+
162
+ ### 3.1.6. 多语言评估结果
163
+ | 模型名称 | Train Lang | Japanese | Korean | Chinese | English |
164
+ |--------------------|------------|----------|----------|----------|----------|
165
+ | PLaMo-13B | En,Jp | 52.3 | * | * | * |
166
+ | Weblab-10B | En,Jp | 50.7 | * | * | * |
167
+ | ELYZA-jp-7B | En,Jp | 48.8 | * | * | * |
168
+ | StableLM-jp-7B | En,Jp | 51.1 | * | * | * |
169
+ | KoGPT-6B | En,Ko | * | 70.1 | * | * |
170
+ | Polyglot-ko-13B | En,Ko | * | 70.7 | * | * |
171
+ | Baichuan2-13B | Multi | 57.1 | 58.7 | 50.8 | 57.1 |
172
+ | Qwen-14B | Multi | 65.8 | 73.7 | 64.5 | 65.4 |
173
+ | Llama2-13B | Multi | 46.3 | 63.7 | 41.4 | 55.3 |
174
+ | Yi-34B | Multi | 67.1 | 72.2 | 58.7 | **68.8** |
175
+ | **Orion-14B-Base** | Multi | **69.1** | **79.5** | **67.9** | 67.3 |
176
+
177
+ ## 3.2. 对话模型Orion-14B-Chat评估
178
+ ### 3.2.1. 对话模型MTBench主观评估
179
+ | 模型名称 | 第一轮 | 第二轮 | **平均** |
180
+ |----------------------|----------|----------|----------|
181
+ | Baichuan2-13B-Chat | 7.05 | 6.47 | 6.76 |
182
+ | Qwen-14B-Chat | 7.30 | 6.62 | 6.96 |
183
+ | Llama2-13B-Chat | 7.10 | 6.20 | 6.65 |
184
+ | InternLM-20B-Chat | 7.03 | 5.93 | 6.48 |
185
+ | **Orion-14B-Chat** | **7.68** | **7.07** | **7.37** |
186
+
187
+ \*这里评测使用vllm进行推理
188
+
189
+ ### 3.2.2. 对话模型AlignBench主观评估
190
+ | 模型名称 | 数学能力 | 逻辑推理 | 基本能力 | 中文理解 | 综合问答 | 写作能力 | 角色扮演 | 专业知识 | **平均** |
191
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
192
+ | Baichuan2-13B-Chat | 3.76 | 4.07 | 6.22 | 6.05 | 7.11 | 6.97 | 6.75 | 6.43 | 5.25 |
193
+ | Qwen-14B-Chat | **4.91** | **4.71** | **6.90** | 6.36 | 6.74 | 6.64 | 6.59 | 6.56 | **5.72** |
194
+ | Llama2-13B-Chat | 3.05 | 3.79 | 5.43 | 4.40 | 6.76 | 6.63 | 6.99 | 5.65 | 4.70 |
195
+ | InternLM-20B-Chat | 3.39 | 3.92 | 5.96 | 5.50 | **7.18** | 6.19 | 6.49 | 6.22 | 4.96 |
196
+ | **Orion-14B-Chat** | 4.00 | 4.24 | 6.18 | **6.57** | 7.16 | **7.36** | **7.16** | **6.99** | 5.51 |
197
+
198
+ \*这里评测使用vllm进行推理
199
+
200
+ ## 3.3. 长上下文模型Orion-14B-LongChat评估
201
+ ### 3.3.1. 长上下文模型LongBench评估
202
+ | 模型名称 | NarrativeQA| MultiFieldQA-en| MultiFieldQA-zh | DuReader | QMSum | VCSUM | TREC | TriviaQA | LSHT | RepoBench-P |
203
+ |--------------------------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|
204
+ | GPT-3.5-Turbo-16k | **23.60** | **52.30** | **61.20** | 28.70 | 23.40 | **16.00** | 68.00 | **91.40** | 29.20 | 53.60 |
205
+ | LongChat-v1.5-7B-32k | 16.90 | 41.40 | 29.10 | 19.50 | 22.70 | 9.90 | 63.50 | 82.30 | 23.20 | 55.30 |
206
+ | Vicuna-v1.5-7B-16k | 19.40 | 38.50 | 43.00 | 19.30 | 22.80 | 15.10 | 71.50 | 86.20 | 28.80 | 43.50 |
207
+ | Yi-6B-200K | 14.11 | 36.74 | 22.68 | 14.01 | 20.44 | 8.08 | 72.00 | 86.61 | 38.00 | **63.29** |
208
+ | Orion-14B-LongChat | 19.47 | 48.11 | 55.84 | **37.02** | **24.87** | 15.44 | **77.00** | 89.12 | **45.50** | 54.31 |
209
+
210
+ ## 3.4. 检索增强模型Orion-14B-Chat-RAG评估
211
+ ### 3.4.1. 自建检索增强测试集评估结果
212
+ |模型名称|回复效果(关键字)|*回复效果(主观打分)|引用能力|兜底能力|*AutoQA|*抽取数据|
213
+ |---------------------|------|------|------|------|------|------|
214
+ | Baichuan2-13B-Chat | 85 | 76 | 1 | 0 | 69 | 51 |
215
+ | Qwen-14B-Chat | 79 | 77 | 75 | 47 | 68 | 72 |
216
+ | Qwen-72B-Chat(Int4) | 87 | 89 | 90 | 32 | 67 | 76 |
217
+ | GPT-4 | 91 | 94 | 96 | 95 | 75 | 86 |
218
+ | Orion-14B-Chat-RAG | 86 | 87 | 91 | 97 | 73 | 71 |
219
+ \* 表示人工评判结果
220
+
221
+ ## 3.5. 插件模型Orion-14B-Chat-Plugin评估
222
+ ### 3.5.1. 自建插件测试集评估结果
223
+ | 模型名称 | 全参数意图识别 | 缺参数意图识别 | 非插件调用识别 |
224
+ |-----------------------|--------|-----------|--------|
225
+ | Baichuan2-13B-Chat | 25 | 0 | 0 |
226
+ | Qwen-14B-Chat | 55 | 0 | 50 |
227
+ | GPT-4 | **95** | 52.38 | 70 |
228
+ | Orion-14B-Chat-Plugin | 92.5 | **60.32** | **90** |
229
+
230
+ ## 3.6. 量化模型Orion-14B-Base-Int4评估
231
+ ### 3.6.1. 量化前后整体对比
232
+ |模型名称|模型大小(GB)|推理速度(令牌数/秒)|C-Eval |CMMLU |MMLU |RACE | HellaSwag|
233
+ |-------------------------|------|-----|------|------|------|------|------|
234
+ | OrionStar-14B-Base | 28.0 | 135 | 72.8 | 70.6 | 70.0 | 93.3 | 78.5 |
235
+ | OrionStar-14B-Base-Int4 | 8.3 | 178 | 71.8 | 69.8 | 69.2 | 93.1 | 78.0 |
236
+
237
+
238
+ <a name="zh_model-inference"></a><br>
239
+ # 4. 模型推理
240
+
241
+ 推理所需的模型权重、源码、配置已发布在 Hugging Face,下载链接见本文档最开始的表格。我们在此示范多种推理方式。程序会自动从
242
+ Hugging Face 下载所需资源。
243
+
244
+ ## 4.1. Python 代码方式
245
+
246
+ ```python
247
+ import torch
248
+ from transformers import AutoModelForCausalLM, AutoTokenizer
249
+ from transformers.generation.utils import GenerationConfig
250
+
251
+ tokenizer = AutoTokenizer.from_pretrained("OrionStarAI/Orion-14B", use_fast=False, trust_remote_code=True)
252
+ model = AutoModelForCausalLM.from_pretrained("OrionStarAI/Orion-14B", device_map="auto",
253
+ torch_dtype=torch.bfloat16, trust_remote_code=True)
254
+
255
+ model.generation_config = GenerationConfig.from_pretrained("OrionStarAI/Orion-14B")
256
+ messages = [{"role": "user", "content": "你好! 你叫什么名字!"}]
257
+ response = model.chat(tokenizer, messages, streaming=Flase)
258
+ print(response)
259
+
260
+ ```
261
+
262
+ 在上述两段代码中,模型加载指定 `device_map='auto'`
263
+ ,会使用所有可用显卡。如需指定使用的设备,可以使用类似 `export CUDA_VISIBLE_DEVICES=0,1`(使用了0、1号显卡)的方式控制。
264
+
265
+ ## 4.2. 命令行工具方式
266
+
267
+ ```shell
268
+ CUDA_VISIBLE_DEVICES=0 python cli_demo.py
269
+ ```
270
+
271
+ 本命令行工具是为 Chat 场景设计,因此我们不支持使用该工具调用 Base 模型。
272
+
273
+ ## 4.3. 脚本直接推理
274
+
275
+ ```shell
276
+ # base model
277
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation_base.py --model OrionStarAI/Orion-14B --tokenizer OrionStarAI/Orion-14B --prompt 你好,你叫什么名字
278
+
279
+ # chat model
280
+ CUDA_VISIBLE_DEVICES=0 python demo/text_generation.py --model OrionStarAI/Orion-14B-Chat --tokenizer OrionStarAI/Orion-14B-Chat --prompt 你好,你叫什么名字
281
+
282
+ ```
283
+
284
+ ## 4.4. 示例输出
285
+
286
+ ### 4.4.1. 闲聊
287
+
288
+ `````
289
+ 用户:你好,你叫什么名字
290
+ Orion-14B:你好!我是一个人工智能助手,没有固定的名字。你可以随意称呼我。有什么我可以帮助你的吗?
291
+ 用户:讲个故事
292
+ Orion-14B:从前有一个小男孩叫杰克,他住在一个小村庄里。杰克非常喜欢冒险和探索,总是梦想着能够发现一些神奇的事情。
293
+
294
+ 有一天,杰克听说在附近的森林深处有一座传说中的魔法城堡,里面住着一个邪恶的巨人。这个巨人的名字叫格里姆,他被困在城堡中,无法离开。
295
+
296
+ 杰克决定要去解救这个巨人,因为他相信格里姆一定有自己的原因被困在那里。于是,他带着勇气和决心,踏上了前往魔法城堡的旅程。
297
+
298
+ 经过长时间的跋涉,杰克终于来到了城堡的大门前。他小心翼翼地推开大门,进入了一个充满神秘气息的房间。
299
+
300
+ 房间里弥漫着黑暗的气息,但杰克并没有被吓倒。他勇敢地向城堡深处走去,最终找到了格里姆。
301
+
302
+ 格里姆告诉杰克,他是被一个邪恶的女巫诅咒的,只有通过解开咒语才能获得自由。杰克决定要帮助格里姆,他开始寻找线索和解开咒语的方法。
303
+
304
+ 经过一番努力,杰克终于找到了一条通往女巫的秘密实验室的道路。他在那里发现了女巫留下的魔法书,书中记载了解开咒语的方法。
305
+
306
+ 杰克按照书上所写的步骤进行操作,成功地解开了格里姆身上的诅咒。巨人感激不已,他答应帮助杰克实现他的愿望。
307
+
308
+ 从此以后,杰克和格里姆成为了好朋友,他们���起经历了许多惊险刺激的冒险,并用他们的勇气和智慧战胜了各种困难。
309
+
310
+ 这个故事告诉我们,只要有勇气和决心,我们就能克服一切困难,实现自己的梦想。
311
+ `````
312
+
313
+ ### 4.4.2. 日韩
314
+
315
+ `````
316
+ 用户:自己を紹介してください
317
+ Orion-14B:こんにちは、私の名前はChatMaxで、OrionStarによって開発されたAIアシスタントです。私はユーザーに正確で、客観的で、有用な回答を提供し、彼らが問題を解決し、情報を取得するのを助けることができます。
318
+ 用户:자기소개를 해주세요.
319
+ Orion-14B:안녕하세요, 제 이름은 ChatMax입니다. OrionStar에서 개발한 AI 어시스턴트입니다. 저는 사용자들에게 정확하고 객관적이며 유용한 답변을 제공하여 문제를 해결하고 정보를 얻는 데 도움을 줄 수 있습니다.
320
+ `````
321
+
322
+
323
+ <a name="zh_declarations-license"></a><br>
324
+ # 5. 声明、协议
325
+
326
+ ## 5.1. 声明
327
+
328
+ 我们强烈呼吁所有使用者,不要利用 Orion-14B 模型进行任何危害国家社会安全或违法的活动。另外,我们也要求使用者不要将
329
+ Orion-14B 模型用于未经适当安全审查和备案的互联网服务。
330
+
331
+ 我们希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。
332
+ 我们已经尽我们所能,来确保模型训练过程中使用的数据的合规性。然而,尽管我们已经做出了巨大的努力,但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用
333
+ Orion-14B 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。
334
+
335
+ ## 5.2. 协议
336
+
337
+ 社区使用Orion-14B系列模型
338
+ - 代码请遵循 [Apache License Version 2.0](./LICENSE)<br>
339
+ - 模型请遵循 [Orion-14B系列模型社区许可协议](./ModelsCommunityLicenseAgreement)
340
+
341
+
342
+ <a name="zh_company-introduction"></a><br>
343
+ # 6. 企业介绍
344
+
345
+ 猎户星空(OrionStar)是一家全球领先的服务机器人解决方案公司,成立于2016年9月。猎户星空致力于基于人工智能技术打造下一代革命性机器人,使人们能够摆脱重复的体力劳动,使人类的工作和生活更加智能和有趣,通过技术使社会和世界变得更加美好。
346
+
347
+ 猎户星空拥有完全自主开发的全链条人工智能技术,如语音交互和视觉导航。它整合了产品开发能力和技术应用能力。基于Orion机械臂平台,它推出了ORION
348
+ STAR AI Robot Greeting、AI Robot Greeting Mini、Lucki、Coffee
349
+ Master等产品,并建立了Orion机器人的开放平台OrionOS。通过为 **真正有用的机器人而生** 的理念实践,它通过AI技术为更多人赋能。
350
+
351
+ 凭借7年AI经验积累,猎户星空已推出的大模型深度应用“聚言”,并陆续面向行业客户提供定制化AI大模型咨询与服务解决方案,真正帮助客户实现企业经营效率领先同行目标。
352
+
353
+ **猎户星空具备全链条大模型应用能力的核心优势**,包括拥有从海量数据处理、大模型预训练、二次预训练、微调(Fine-tune)、Prompt
354
+ Engineering 、Agent开发的全链条能力和经验积累;拥有完整的端到端模型训练能力,包括系统化的数据处理流程和数百张GPU的并行模型训练能力,现已在大政务、云服务、出海电商、快消等多个行业场景落地。
355
+
356
+ ***欢迎有大模型应用落地需求的企业联系我们进行商务合作***<br>
357
+ **咨询电话:** 400-898-7779<br>
358
+ **电子邮箱:** [email protected]
359
+
360
+ <div align="center">
361
+ <img src="./assets/imgs/wechat_group.jpg" alt="wechat" width="40%" />
362
+ </div>