File size: 4,332 Bytes
4a2f786
 
7ae81dd
 
4a2f786
79db53b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f341f0e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4a2f786
f341f0e
 
 
 
 
 
 
4a2f786
f341f0e
 
 
 
 
 
 
 
 
 
4a2f786
 
 
 
 
 
 
 
 
 
 
 
 
7ae81dd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
---
library_name: peft
datasets:
- HachiML/databricks-dolly-15k-ja-alpaca-format
---
## JGLUE Score
I evaluated this model using the following JGLUE tasks. Here are the scores:
| Task                | stablelm-base-alpha-7b | qlora-ja-2ep(*) | This Model(8ep) | stablelm-instruct-alpha-7b |
|---------------------|:-----------------:|:----------:|:----------:|:-----------------:|
| JCOMMONSENSEQA(acc) | 33.42             | 79.17      | 73.36      | 82.22             |
| JNLI(acc)           | 43.34             | 47.82      | 39.44      | 52.05             |
| MARC_JA(acc)        | 96.73             | 88.14      | 80.38      | 82.88             |
| JSQUAD(exact_match) | 70.62             | 29.85      | 19.33      | 63.26             |
| **Average**         | **61.03**         | **61.25**  | **53.13**  | **70.10**         |
- Note: Use v0.3 prompt template
- The JGLUE scores were measured using the following script:
[Stability-AI/lm-evaluation-harness](https://github.com/Stability-AI/lm-evaluation-harness/tree/jp-stable)
- The JGLUE scores of Model "stablelm-base-alpha-7b" and "stablelm-instruct-alpha-7b" were referenced from Github above.
- (*) [HachiML/japanese-stablelm-alpha-7b-instruct-ja-qlora-2ep-v2](https://huggingface.co/HachiML/japanese-stablelm-alpha-7b-instruct-ja-qlora-2ep-v2)

## Response example
```
以下は、ある作業を記述した指示です。依頼を適切に完了させる回答を書きなさい。
### Instruction:
発明家はどっち?エジソンとアインシュタイン
### Response:

電球の発明で知られるトーマス・エジソンと、アインシュタイン。<|endoftext|>
```
```
以下は、タスクを説明する命令と、さらなるコンテキストを提供する入力の組み合わせです。要求を適切に満たすような応答を書きなさい。
### Instruction: アリスは通常どのように学校に通っていますか?
### Input: アリスは毎日学校に自転車で通っています。しかし、今日は雨が降っているので、バスで学校にいくことにしました。
### Response:

アリスは毎日学校へ自転車で通っています。しかし、今日はあいにくの雨。彼女は仕方なくバスで学校へ行くことにした。<|endoftext|>
```
```
以下は、タスクを説明する命令と、さらなるコンテキストを提供する入力の組み合わせです。要求を適切に満たすような応答を書きなさい。
### Instruction: 太郎は何をする予定ですか?
### Input: 太郎は今日、友人の二郎と映画を見にいく予定です。彼らは午後3時に映画館で待ち合わせをしています。
### Response:

太郎は今日、友人の二郎と映画を見にいく予定です。彼らは午後3 時に映画館で待ち合わせをしています。<|endoftext|>
```
```
以下は、タスクを説明する命令と、さらなるコンテキストを提供する入力の組み合わせです。要求を適切に満たすような応答を書きなさい。
### Instruction: ロボットが人間の労働を置き換えるとどんな問題が生じる可能性があるか?
### Input: ロボットが人間の労働を置き換えることで、人々はより多くの時間を創造的な活動や趣味に費やすことができます。しかし、これは新たな社会的、経済的問題を引き起こす可能性もあります。
### Response:

新たな社会的・経済的問題
労働者が仕事を失う可能性がある
技術の進歩に伴う仕事の変化
熟練した職人の不足による雇用の減少
新たな市場機会
コスト削減のための自動化
ロボットが人間の仕事を完全に置き換えるには10 年かかると言われていますが、このスピードアップが続けば、もっと早くなる可能性があります。<|endoftext|>
```

## Training procedure
The following `bitsandbytes` quantization config was used during training:
- load_in_8bit: False
- load_in_4bit: True
- llm_int8_threshold: 6.0
- llm_int8_skip_modules: None
- llm_int8_enable_fp32_cpu_offload: False
- llm_int8_has_fp16_weight: False
- bnb_4bit_quant_type: nf4
- bnb_4bit_use_double_quant: False
- bnb_4bit_compute_dtype: float16
### Framework versions


- PEFT 0.4.0