renillhuang
commited on
Commit
•
c32f362
1
Parent(s):
8dd6f61
Update README.md
Browse files
README.md
CHANGED
@@ -46,7 +46,7 @@ tags:
|
|
46 |
- [📖 Model Introduction](#model-introduction)
|
47 |
- [🔗 Model Download](#model-download)
|
48 |
- [🔖 Model Benchmark](#model-benchmark)
|
49 |
-
- [📊 Model Inference](#model-inference)
|
50 |
- [📜 Declarations & License](#declarations-license)
|
51 |
- [🥇 Company Introduction](#company-introduction)
|
52 |
|
@@ -279,9 +279,38 @@ CUDA_VISIBLE_DEVICES=0 python demo/text_generation.py --model OrionStarAI/Orion-
|
|
279 |
|
280 |
```
|
281 |
|
282 |
-
## 4.4
|
283 |
|
284 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
285 |
|
286 |
`````
|
287 |
User: Hello
|
@@ -303,7 +332,7 @@ User: Tell me a joke.
|
|
303 |
Orion-14B: Sure, here's a classic one-liner: Why don't scientists trust atoms? Because they make up everything.
|
304 |
`````
|
305 |
|
306 |
-
### 4.
|
307 |
|
308 |
`````
|
309 |
User:自己を紹介してください
|
@@ -361,323 +390,3 @@ Companies with demands for deploying large-scale model applications are welcome
|
|
361 |
|
362 |
|
363 |
|
364 |
-
# 目录
|
365 |
-
|
366 |
-
|
367 |
-
- [📖 模型介绍](#zh_model-introduction)
|
368 |
-
- [🔗 下载路径](#zh_model-download)
|
369 |
-
- [🔖 评估结果](#zh_model-benchmark)
|
370 |
-
- [📊 模型推理](#zh_model-inference)
|
371 |
-
- [📜 声明协议](#zh_declarations-license)
|
372 |
-
- [🥇 企业介绍](#zh_company-introduction)
|
373 |
-
|
374 |
-
|
375 |
-
<a name="zh_model-introduction"></a><br>
|
376 |
-
# 1. 模型介绍
|
377 |
-
|
378 |
-
- Orion-14B-Base是一个具有140亿参数的多语种大模型,该模型在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖了中文、英语、日语、韩语等多种语言。在多语言环境下的一系列任务中展现出卓越的性能。在主流的公开基准评测中,Orion-14B系列模型表现优异,多项指标显著超越同等参数基本的其他模型。具体技术细节请参考[技术报告](https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf)。
|
379 |
-
|
380 |
-
- Orion-14B系列大模型有以下几个特点:
|
381 |
-
- 基座20B参数级别大模型综合评测效果表现优异
|
382 |
-
- 多语言能力强,在日语、韩语测试集上显著领先
|
383 |
-
- 微调模型适应性强,在人类标注盲测中,表现突出
|
384 |
-
- 长上下文版本支持超长文本,在200k token长度上效果优异,最长可支持可达320k
|
385 |
-
- 量化版本模型大小缩小70%,推理速度提升30%,性能损失小于1%
|
386 |
-
|
387 |
-
<table style="border-collapse: collapse; width: 100%;">
|
388 |
-
<tr>
|
389 |
-
<td style="border: none; padding: 10px; box-sizing: border-box;">
|
390 |
-
<img src="./assets/imgs/opencompass_zh.png" alt="opencompass" style="width: 100%; height: auto;">
|
391 |
-
</td>
|
392 |
-
<td style="border: none; padding: 10px; box-sizing: border-box;">
|
393 |
-
<img src="./assets/imgs/model_cap_zh.png" alt="modelcap" style="width: 100%; height: auto;">
|
394 |
-
</td>
|
395 |
-
</tr>
|
396 |
-
</table>
|
397 |
-
|
398 |
-
- 具体而言,Orion-14B系列大语言模型包含:
|
399 |
-
- **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
|
400 |
-
- **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
|
401 |
-
- **Orion-14B-LongChat:** 在200k token长度上效果优异,最长可支持可达320k,在长文本评估集上性能比肩专有模型。
|
402 |
-
- **Orion-14B-Chat-RAG:** 在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
|
403 |
-
- **Orion-14B-Chat-Plugin:** 专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
|
404 |
-
- **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
|
405 |
-
- **Orion-14B-Chat-Int4:** 一个使用int4进行量化的对话模型。
|
406 |
-
|
407 |
-
|
408 |
-
<a name="zh_model-download"></a><br>
|
409 |
-
# 2. 下载路径
|
410 |
-
|
411 |
-
发布模型和下载链接见下表:
|
412 |
-
|
413 |
-
| 模型名称 | HuggingFace下载链接 | ModelScope下载链接 |
|
414 |
-
|---------------------|-----------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|
|
415 |
-
| ⚾ 基座模型 | [Orion-14B-Base](https://huggingface.co/OrionStarAI/Orion-14B-Base) | [Orion-14B-Base](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base/summary) |
|
416 |
-
| 😛 对话模型 | [Orion-14B-Chat](https://huggingface.co/OrionStarAI/Orion-14B-Chat) | [Orion-14B-Chat](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat/summary) |
|
417 |
-
| 📃 长上下文模型 | [Orion-14B-LongChat](https://huggingface.co/OrionStarAI/Orion-14B-LongChat) | [Orion-14B-LongChat](https://modelscope.cn/models/OrionStarAI/Orion-14B-LongChat/summary) |
|
418 |
-
| 🔎 检索增强模型 | [Orion-14B-Chat-RAG](https://huggingface.co/OrionStarAI/Orion-14B-Chat-RAG) | [Orion-14B-Chat-RAG](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-RAG/summary) |
|
419 |
-
| 🔌 插件模型 | [Orion-14B-Chat-Plugin](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Plugin) | [Orion-14B-Chat-Plugin](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Plugin/summary)|
|
420 |
-
| 💼 基座Int4量化模型 | [Orion-14B-Base-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Base-Int4) | [Orion-14B-Base-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base-Int4/summary) |
|
421 |
-
| 📦 对话Int4量化模型 | [Orion-14B-Chat-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Int4) | [Orion-14B-Chat-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Int4/summary) |
|
422 |
-
|
423 |
-
|
424 |
-
<a name="zh_model-benchmark"></a><br>
|
425 |
-
# 3. 评估结果
|
426 |
-
|
427 |
-
## 3.1. 基座模型Orion-14B-Base评估
|
428 |
-
|
429 |
-
### 3.1.1. 专业知识与试题评估结果
|
430 |
-
| 模型名称 | C-Eval | CMMLU | MMLU | AGIEval | Gaokao | BBH |
|
431 |
-
|--------------------|----------|----------|----------|----------|----------|----------|
|
432 |
-
| LLaMA2-13B | 41.4 | 38.4 | 55.0 | 30.9 | 18.2 | 45.6 |
|
433 |
-
| Skywork-13B | 59.1 | 61.4 | 62.7 | 43.6 | 56.1 | 48.3 |
|
434 |
-
| Baichuan2-13B | 59.0 | 61.3 | 59.5 | 37.4 | 45.6 | 49.0 |
|
435 |
-
| QWEN-14B | 71.7 | 70.2 | 67.9 | 51.9 | **62.5** | 53.7 |
|
436 |
-
| InternLM-20B | 58.8 | 59.0 | 62.1 | 44.6 | 45.5 | 52.5 |
|
437 |
-
| **Orion-14B-Base** | **72.9** | **70.6** | **69.9** | **54.7** | 62.1 | **56.5** |
|
438 |
-
|
439 |
-
### 3.1.2. 理解与通识评估结果
|
440 |
-
| 模型名称 |RACE-middle|RACE-high| HellaSwag| PIQA | Lambada | WSC |
|
441 |
-
|--------------------|----------|----------|----------|----------|----------|----------|
|
442 |
-
| LLaMA 2-13B | 63.0 | 58.9 | 77.5 | 79.8 | 76.5 | 66.3 |
|
443 |
-
| Skywork-13B | 87.6 | 84.1 | 73.7 | 78.3 | 71.8 | 66.3 |
|
444 |
-
| Baichuan 2-13B | 68.9 | 67.2 | 70.8 | 78.1 | 74.1 | 66.3 |
|
445 |
-
| QWEN-14B | 93.0 | 90.3 | **80.2** | 79.8 | 71.4 | 66.3 |
|
446 |
-
| InternLM-20B | 86.4 | 83.3 | 78.1 | **80.3** | 71.8 | 68.3 |
|
447 |
-
| **Orion-14B-Base** | **93.2** | **91.3** | 78.5 | 79.5 | **78.8** | **70.2** |
|
448 |
-
|
449 |
-
### 3.1.3. OpenCompass评测集评估结果
|
450 |
-
| 模型名称 | Average | Examination | Language | Knowledge | Understanding | Reasoning |
|
451 |
-
|------------------|----------|----------|----------|----------|----------|----------|
|
452 |
-
| LLaMA 2-13B | 47.3 | 45.2 | 47.0 | 58.3 | 50.9 | 43.6 |
|
453 |
-
| Skywork-13B | 53.6 | 61.1 | 51.3 | 52.7 | 64.5 | 45.2 |
|
454 |
-
| Baichuan 2-13B | 49.4 | 51.8 | 47.5 | 48.9 | 58.1 | 44.2 |
|
455 |
-
| QWEN-14B | 62.4 | 71.3 | 52.67 | 56.1 | 68.8 | 60.1 |
|
456 |
-
| InternLM-20B | 59.4 | 62.5 | 55.0 | **60.1** | 67.3 | 54.9 |
|
457 |
-
|**Orion-14B-Base**| **64.3** | **71.4** | **55.0** | 60.0 | **71.9** | **61.6** |
|
458 |
-
|
459 |
-
### 3.1.4. 日语测试集评估结果
|
460 |
-
| 模型名称 |**Average**| JCQA | JNLI | MARC | JSQD | JQK | XLS | XWN | MGSM |
|
461 |
-
|--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
|
462 |
-
| PLaMo-13B | 52.3 | 56.7 | 42.8 | 95.8 | 70.6 | 71.0 | 8.70 | 70.5 | 2.40 |
|
463 |
-
| WebLab-10B | 50.7 | 66.6 | 53.7 | 82.1 | 62.9 | 56.2 | 10.0 | 72.0 | 2.40 |
|
464 |
-
| ELYZA-jp-7B | 48.8 | 71.7 | 25.3 | 86.6 | 70.8 | 64.1 | 2.50 | 62.1 | 7.20 |
|
465 |
-
| StableLM-jp-7B | 51.1 | 33.4 | 43.3 | **96.7** | 70.6 | 78.1 | 10.7 | 72.8 | 2.80 |
|
466 |
-
| LLaMA 2-13B | 46.3 | 75.0 | 47.6 | 38.8 | 76.1 | 67.7 | 18.1 | 63.2 | 10.4 |
|
467 |
-
| Baichuan 2-13B | 57.1 | 73.7 | 31.3 | 91.6 | 80.5 | 63.3 | 18.6 | 72.2 | 25.2 |
|
468 |
-
| QWEN-14B | 65.8 | 85.9 | 60.7 | 97.0 | 83.3 | 71.8 | 18.8 | 70.6 | 38.0 |
|
469 |
-
| Yi-34B | 67.1 | 83.8 | 61.2 | 95.2 | **86.1** | 78.5 | **27.2** | 69.2 | 35.2 |
|
470 |
-
| **Orion-14B-Base** | **69.1** | **88.2** | **75.8** | 94.1 | 75.7 | **85.1** | 17.3 | **78.8** | **38.0** |
|
471 |
-
|
472 |
-
### 3.1.5. 韩语测试集n-shot评估结果
|
473 |
-
| 模型名称 | **Average**<br>n=0 n=5 | HellaSwag<br>n=0 n=5 | COPA<br> n=0 n=5 | BooIQ<br>n=0 n=5 | SentiNeg<br>n=0 n=5|
|
474 |
-
|------------------|------------------------------|------------------------------|------------------------------|------------------------------|------------------------------|
|
475 |
-
| KoGPT | 53.0 70.1 | 55.9 58.3 | 73.5 72.9 | 45.1 59.8 | 37.5 89.4 |
|
476 |
-
| Polyglot-ko-13B | 69.6 73.7 |**59.5** **63.1**|**79.4** **81.1**| 48.2 60.4 | 91.2 90.2 |
|
477 |
-
| LLaMA 2-13B | 46.7 63.7 | 41.3 44.0 | 59.3 63.8 | 34.9 73.8 | 51.5 73.4 |
|
478 |
-
| Baichuan 2-13B | 52.1 58.7 | 39.2 39.6 | 60.6 60.6 | 58.4 61.5 | 50.3 72.9 |
|
479 |
-
| QWEN-14B | 53.8 73.7 | 45.3 46.8 | 64.9 68.9 | 33.4 83.5 | 71.5 95.7 |
|
480 |
-
| Yi-34B | 54.2 72.1 | 44.6 44.7 | 58.0 60.6 | 65.9 90.2 | 48.3 92.9 |
|
481 |
-
|**Orion-14B-Base**|**74.5** **79.6**| 47.0 49.6 | 77.7 79.4 |**81.6** **90.7**|**92.4** **98.7**|
|
482 |
-
|
483 |
-
### 3.1.6. 多语言评估结果
|
484 |
-
| 模型名称 | Train Lang | Japanese | Korean | Chinese | English |
|
485 |
-
|--------------------|------------|----------|----------|----------|----------|
|
486 |
-
| PLaMo-13B | En,Jp | 52.3 | * | * | * |
|
487 |
-
| Weblab-10B | En,Jp | 50.7 | * | * | * |
|
488 |
-
| ELYZA-jp-7B | En,Jp | 48.8 | * | * | * |
|
489 |
-
| StableLM-jp-7B | En,Jp | 51.1 | * | * | * |
|
490 |
-
| KoGPT-6B | En,Ko | * | 70.1 | * | * |
|
491 |
-
| Polyglot-ko-13B | En,Ko | * | 70.7 | * | * |
|
492 |
-
| Baichuan2-13B | Multi | 57.1 | 58.7 | 50.8 | 57.1 |
|
493 |
-
| Qwen-14B | Multi | 65.8 | 73.7 | 64.5 | 65.4 |
|
494 |
-
| Llama2-13B | Multi | 46.3 | 63.7 | 41.4 | 55.3 |
|
495 |
-
| Yi-34B | Multi | 67.1 | 72.2 | 58.7 | **68.8** |
|
496 |
-
| **Orion-14B-Base** | Multi | **69.1** | **79.5** | **67.9** | 67.3 |
|
497 |
-
|
498 |
-
## 3.2. 对话模型Orion-14B-Chat评估
|
499 |
-
### 3.2.1. 对话模型MTBench主观评估
|
500 |
-
| 模型名称 | 第一轮 | 第二轮 | **平均** |
|
501 |
-
|----------------------|----------|----------|----------|
|
502 |
-
| Baichuan2-13B-Chat | 7.05 | 6.47 | 6.76 |
|
503 |
-
| Qwen-14B-Chat | 7.30 | 6.62 | 6.96 |
|
504 |
-
| Llama2-13B-Chat | 7.10 | 6.20 | 6.65 |
|
505 |
-
| InternLM-20B-Chat | 7.03 | 5.93 | 6.48 |
|
506 |
-
| **Orion-14B-Chat** | **7.68** | **7.07** | **7.37** |
|
507 |
-
|
508 |
-
\*这里评测使用vllm进行推理
|
509 |
-
|
510 |
-
### 3.2.2. 对话模型AlignBench主观评估
|
511 |
-
| 模型名称 | 数学能力 | 逻辑推理 | 基本能力 | 中文理解 | 综合问答 | 写作能力 | 角色扮演 | 专业知识 | **平均** |
|
512 |
-
|--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
|
513 |
-
| Baichuan2-13B-Chat | 3.76 | 4.07 | 6.22 | 6.05 | 7.11 | 6.97 | 6.75 | 6.43 | 5.25 |
|
514 |
-
| Qwen-14B-Chat | **4.91** | **4.71** | **6.90** | 6.36 | 6.74 | 6.64 | 6.59 | 6.56 | **5.72** |
|
515 |
-
| Llama2-13B-Chat | 3.05 | 3.79 | 5.43 | 4.40 | 6.76 | 6.63 | 6.99 | 5.65 | 4.70 |
|
516 |
-
| InternLM-20B-Chat | 3.39 | 3.92 | 5.96 | 5.50 | **7.18** | 6.19 | 6.49 | 6.22 | 4.96 |
|
517 |
-
| **Orion-14B-Chat** | 4.00 | 4.24 | 6.18 | **6.57** | 7.16 | **7.36** | **7.16** | **6.99** | 5.51 |
|
518 |
-
|
519 |
-
\*这里评测使用vllm进行推理
|
520 |
-
|
521 |
-
## 3.3. 长上下文模型Orion-14B-LongChat评估
|
522 |
-
### 3.3.1. 长上下文模型LongBench评估
|
523 |
-
| 模型名称 | NarrativeQA| MultiFieldQA-en| MultiFieldQA-zh | DuReader | QMSum | VCSUM | TREC | TriviaQA | LSHT | RepoBench-P |
|
524 |
-
|--------------------------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|-----------|
|
525 |
-
| GPT-3.5-Turbo-16k | **23.60** | **52.30** | **61.20** | 28.70 | 23.40 | **16.00** | 68.00 | **91.40** | 29.20 | 53.60 |
|
526 |
-
| LongChat-v1.5-7B-32k | 16.90 | 41.40 | 29.10 | 19.50 | 22.70 | 9.90 | 63.50 | 82.30 | 23.20 | 55.30 |
|
527 |
-
| Vicuna-v1.5-7B-16k | 19.40 | 38.50 | 43.00 | 19.30 | 22.80 | 15.10 | 71.50 | 86.20 | 28.80 | 43.50 |
|
528 |
-
| Yi-6B-200K | 14.11 | 36.74 | 22.68 | 14.01 | 20.44 | 8.08 | 72.00 | 86.61 | 38.00 | **63.29** |
|
529 |
-
| Orion-14B-LongChat | 19.47 | 48.11 | 55.84 | **37.02** | **24.87** | 15.44 | **77.00** | 89.12 | **45.50** | 54.31 |
|
530 |
-
|
531 |
-
## 3.4. 检索增强模型Orion-14B-Chat-RAG评估
|
532 |
-
### 3.4.1. 自建检索增强测试集评估结果
|
533 |
-
|模型名称|回复效果(关键字)|*回复效果(主观打分)|引用能力|兜底能力|*AutoQA|*抽取数据|
|
534 |
-
|---------------------|------|------|------|------|------|------|
|
535 |
-
| Baichuan2-13B-Chat | 85 | 76 | 1 | 0 | 69 | 51 |
|
536 |
-
| Qwen-14B-Chat | 79 | 77 | 75 | 47 | 68 | 72 |
|
537 |
-
| Qwen-72B-Chat(Int4) | 87 | 89 | 90 | 32 | 67 | 76 |
|
538 |
-
| GPT-4 | 91 | 94 | 96 | 95 | 75 | 86 |
|
539 |
-
| Orion-14B-Chat-RAG | 86 | 87 | 91 | 97 | 73 | 71 |
|
540 |
-
\* 表示人工评判结果
|
541 |
-
|
542 |
-
## 3.5. 插件模型Orion-14B-Chat-Plugin评估
|
543 |
-
### 3.5.1. 自建插件测试集评估结果
|
544 |
-
| 模型名称 | 全参数意图识别 | 缺参数意图识别 | 非插件调用识别 |
|
545 |
-
|-----------------------|--------|-----------|--------|
|
546 |
-
| Baichuan2-13B-Chat | 25 | 0 | 0 |
|
547 |
-
| Qwen-14B-Chat | 55 | 0 | 50 |
|
548 |
-
| GPT-4 | **95** | 52.38 | 70 |
|
549 |
-
| Orion-14B-Chat-Plugin | 92.5 | **60.32** | **90** |
|
550 |
-
|
551 |
-
## 3.6. 量化模型Orion-14B-Base-Int4评估
|
552 |
-
### 3.6.1. 量化前后整体对比
|
553 |
-
|模型名称|模型大小(GB)|推理速度(令牌数/秒)|C-Eval |CMMLU |MMLU |RACE | HellaSwag|
|
554 |
-
|-------------------------|------|-----|------|------|------|------|------|
|
555 |
-
| OrionStar-14B-Base | 28.0 | 135 | 72.8 | 70.6 | 70.0 | 93.3 | 78.5 |
|
556 |
-
| OrionStar-14B-Base-Int4 | 8.3 | 178 | 71.8 | 69.8 | 69.2 | 93.1 | 78.0 |
|
557 |
-
|
558 |
-
|
559 |
-
<a name="zh_model-inference"></a><br>
|
560 |
-
# 4. 模型推理
|
561 |
-
|
562 |
-
推理所需的模型权重、源码、配置已发布在 Hugging Face,下载链接见本文档最开始的表格。我们在此示范多种推理方式。程序会自动从
|
563 |
-
Hugging Face 下载所需资源。
|
564 |
-
|
565 |
-
## 4.1. Python 代码方式
|
566 |
-
|
567 |
-
```python
|
568 |
-
import torch
|
569 |
-
from transformers import AutoModelForCausalLM, AutoTokenizer
|
570 |
-
from transformers.generation.utils import GenerationConfig
|
571 |
-
|
572 |
-
tokenizer = AutoTokenizer.from_pretrained("OrionStarAI/Orion-14B", use_fast=False, trust_remote_code=True)
|
573 |
-
model = AutoModelForCausalLM.from_pretrained("OrionStarAI/Orion-14B", device_map="auto",
|
574 |
-
torch_dtype=torch.bfloat16, trust_remote_code=True)
|
575 |
-
|
576 |
-
model.generation_config = GenerationConfig.from_pretrained("OrionStarAI/Orion-14B")
|
577 |
-
messages = [{"role": "user", "content": "你好! 你叫什么名字!"}]
|
578 |
-
response = model.chat(tokenizer, messages, streaming=Flase)
|
579 |
-
print(response)
|
580 |
-
|
581 |
-
```
|
582 |
-
|
583 |
-
在上述两段代码中,模型加载指定 `device_map='auto'`
|
584 |
-
,会使用所有可用显卡。如需指定使用的设备,可以使用类似 `export CUDA_VISIBLE_DEVICES=0,1`(使用了0、1号显卡)的方式控制。
|
585 |
-
|
586 |
-
## 4.2. 命令行工具方式
|
587 |
-
|
588 |
-
```shell
|
589 |
-
CUDA_VISIBLE_DEVICES=0 python cli_demo.py
|
590 |
-
```
|
591 |
-
|
592 |
-
本命令行工具是为 Chat 场景设计,因此我们不支持使用该工具调用 Base 模型。
|
593 |
-
|
594 |
-
## 4.3. 脚本直接推理
|
595 |
-
|
596 |
-
```shell
|
597 |
-
# base model
|
598 |
-
CUDA_VISIBLE_DEVICES=0 python demo/text_generation_base.py --model OrionStarAI/Orion-14B --tokenizer OrionStarAI/Orion-14B --prompt 你好,你叫什么名字
|
599 |
-
|
600 |
-
# chat model
|
601 |
-
CUDA_VISIBLE_DEVICES=0 python demo/text_generation.py --model OrionStarAI/Orion-14B-Chat --tokenizer OrionStarAI/Orion-14B-Chat --prompt 你好,你叫什么名字
|
602 |
-
|
603 |
-
```
|
604 |
-
|
605 |
-
## 4.4. 示例输出
|
606 |
-
|
607 |
-
### 4.4.1. 闲聊
|
608 |
-
|
609 |
-
`````
|
610 |
-
用户:你好,你叫什么名字
|
611 |
-
Orion-14B:你好!我是一个人工智能助手,没有固定的名字。你可以随意称呼我。有什么我可以帮助你的吗?
|
612 |
-
用户:讲个故事
|
613 |
-
Orion-14B:从前有一个小男孩叫杰克,他住在一个小村庄里。杰克非常喜欢冒险和探索,总是梦想着能够发现一些神奇的事情。
|
614 |
-
|
615 |
-
有一天,杰克听说在附近的森林深处有一座传说中的魔法城堡,里面住着一个邪恶的巨人。这个巨人的名字叫格里姆,他被困在城堡中,无法离开。
|
616 |
-
|
617 |
-
杰克决定要去解救这个巨人,因为他相信格里姆一定有自己的原因被困在那里。于是,他带着勇气和决心,踏上了前往魔法城堡的旅程。
|
618 |
-
|
619 |
-
经过长时间的跋涉,杰克终于来到了城堡的大门前。他小心翼翼地推开大门,进入了一个充满神秘气息的房间。
|
620 |
-
|
621 |
-
房间里弥漫着黑暗的气息,但杰克并没有被吓倒。他勇敢地向城堡深处走去,最终找到了格里姆。
|
622 |
-
|
623 |
-
格里姆告诉杰克,他是被一个邪恶的女巫诅咒的,只有通过解开咒语才能获得自由。杰克决定要帮助格里姆,他开始寻找线索和解开咒语的方法。
|
624 |
-
|
625 |
-
经过一番努力,杰克终于找到了一条通往女巫的秘密实验室的道路。他在那里发现了女巫留下的魔法书,书中记载了解开咒语的方法。
|
626 |
-
|
627 |
-
杰克按照书上所写的步骤进行操作,成功地解开了格里姆身上的诅咒。巨人感激不已,他答应帮助杰克实现他的愿望。
|
628 |
-
|
629 |
-
从此以后,杰克和格里姆成为了好朋友,他们一起经历了许多惊险刺激的冒险,并用他们的勇气和智慧战胜了各种困难。
|
630 |
-
|
631 |
-
这个故事告诉我们,只要有勇气和决心,我们就能克服一切困难,实现自己的梦想。
|
632 |
-
`````
|
633 |
-
|
634 |
-
### 4.4.2. 日韩
|
635 |
-
|
636 |
-
`````
|
637 |
-
用户:自己を紹介してください
|
638 |
-
Orion-14B:こんにちは、私の名前はChatMaxで、OrionStarによって開発されたAIアシスタントです。私はユーザーに正確で、客観的で、有用な回答を提供し、彼らが問題を解決し、情報を取得するのを助けることができます。
|
639 |
-
用户:자기소개를 해주세요.
|
640 |
-
Orion-14B:안녕하세요, 제 이름은 ChatMax입니다. OrionStar에서 개발한 AI 어시스턴트입니다. 저는 사용자들에게 정확하고 객관적이며 유용한 답변을 제공하여 문제를 해결하고 정보를 얻는 데 도움을 줄 수 있습니다.
|
641 |
-
`````
|
642 |
-
|
643 |
-
|
644 |
-
<a name="zh_declarations-license"></a><br>
|
645 |
-
# 5. 声明、协议
|
646 |
-
|
647 |
-
## 5.1. 声明
|
648 |
-
|
649 |
-
我们强烈呼吁所有使用者,不要利用 Orion-14B 模型进行任何危害国家社会安全或违法的活动。另外,我们也要求使用者不要将
|
650 |
-
Orion-14B 模型用于未经适当安全审查和备案的互联网服务。
|
651 |
-
|
652 |
-
我们希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。
|
653 |
-
我们已经尽我们所能,来确保模型训练过程中使用的数据的合规性。然而,尽管我们已经做出了巨大的努力,但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用
|
654 |
-
Orion-14B 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。
|
655 |
-
|
656 |
-
## 5.2. 协议
|
657 |
-
|
658 |
-
社区使用Orion-14B系列模型
|
659 |
-
- 代码请遵循 [Apache License Version 2.0](./LICENSE)<br>
|
660 |
-
- 模型请遵循 [Orion-14B系列模型社区许可协议](./ModelsCommunityLicenseAgreement)
|
661 |
-
|
662 |
-
|
663 |
-
<a name="zh_company-introduction"></a><br>
|
664 |
-
# 6. 企业介绍
|
665 |
-
|
666 |
-
猎户星空(OrionStar)是一家全球领先的服务机器人解决方案公司,成立于2016年9月。猎户星空致力于基于人工智能技术打造下一代革命性机器人,使人们能够摆脱重复的体力劳动,使人类的工作和生活更加智能和有趣,通过技术使社会和世界变得更加美好。
|
667 |
-
|
668 |
-
猎户星空拥有完全自主开发的全链条人工智能技术,如语音交互和视觉导航。它整合了产品开发能力和技术应用能力。基于Orion机械臂平台,它推出了ORION
|
669 |
-
STAR AI Robot Greeting、AI Robot Greeting Mini、Lucki、Coffee
|
670 |
-
Master等产品,并建立了Orion机器人的开放平台OrionOS。通过为 **真正有用的机器人而生** 的理念实践,它通过AI技术为更多人赋能。
|
671 |
-
|
672 |
-
凭借7年AI经验积累,猎户星空已推出的大模型深度应用“聚言”,并陆续面向行业客户提供定制化AI大模型咨询与服务解决方案,真正帮助客户实现企业经营效率领先同行目标。
|
673 |
-
|
674 |
-
**猎户星空具备全链条大模型应用能力的核心优势**,包括拥有从海量数据处理、大模型预训练、二次预训练、微调(Fine-tune)、Prompt
|
675 |
-
Engineering 、Agent开发的全链条能力和经验积累;拥有完整的端到端模型训练能力,包括系统化的数据处理流程和数百张GPU的并行模型训练能力,现已在大政务、云服务、出海电商、快消等多个行业场景落地。
|
676 |
-
|
677 |
-
***欢迎有大模型应用落地需求的企业联系我们进行商务合作***<br>
|
678 |
-
**咨询电话:** 400-898-7779<br>
|
679 |
-
**电子邮箱:** [email protected]
|
680 |
-
|
681 |
-
<div align="center">
|
682 |
-
<img src="./assets/imgs/wechat_group.jpg" alt="wechat" width="40%" />
|
683 |
-
</div>
|
|
|
46 |
- [📖 Model Introduction](#model-introduction)
|
47 |
- [🔗 Model Download](#model-download)
|
48 |
- [🔖 Model Benchmark](#model-benchmark)
|
49 |
+
- [📊 Model Inference](#model-inference)[<img src="./assets/imgs/vllm.png" alt="vllm" height="20"/>](#vllm) [<img src="./assets/imgs/llama_cpp.png" alt="llamacpp" height="20"/>](#llama-cpp)
|
50 |
- [📜 Declarations & License](#declarations-license)
|
51 |
- [🥇 Company Introduction](#company-introduction)
|
52 |
|
|
|
279 |
|
280 |
```
|
281 |
|
282 |
+
## 4.4. Inference by vllm
|
283 |
|
284 |
+
- Project URL<br>
|
285 |
+
https://github.com/vllm-project/vllm
|
286 |
+
|
287 |
+
- Pull Request<br>
|
288 |
+
https://github.com/vllm-project/vllm/pull/2539
|
289 |
+
|
290 |
+
<a name="llama-cpp"></a><br>
|
291 |
+
## 4.5. Inference by llama.cpp
|
292 |
+
|
293 |
+
- Project URL<br>
|
294 |
+
https://github.com/ggerganov/llama.cpp
|
295 |
+
|
296 |
+
- Pull Request<br>
|
297 |
+
https://github.com/ggerganov/llama.cpp/pull/5118
|
298 |
+
|
299 |
+
- How to convert to GGUF model
|
300 |
+
|
301 |
+
```shell
|
302 |
+
python convert-hf-to-gguf.py path/to/Orion-14B-Chat --outfile chat.gguf
|
303 |
+
```
|
304 |
+
|
305 |
+
- How to run generation
|
306 |
+
|
307 |
+
```shell
|
308 |
+
./main --frequency-penalty 0.5 --frequency-penalty 0.5 --top-k 5 --top-p 0.9 -m chat.gguf -p "Building a website can be done in 10 simple steps:\nStep 1:" -n 400 -e
|
309 |
+
```
|
310 |
+
|
311 |
+
## 4.6 Example Output
|
312 |
+
|
313 |
+
### 4.6.1. Casual Chat
|
314 |
|
315 |
`````
|
316 |
User: Hello
|
|
|
332 |
Orion-14B: Sure, here's a classic one-liner: Why don't scientists trust atoms? Because they make up everything.
|
333 |
`````
|
334 |
|
335 |
+
### 4.6.2. Japanese & Korean Chat
|
336 |
|
337 |
`````
|
338 |
User:自己を紹介してください
|
|
|
390 |
|
391 |
|
392 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|