--- base_model: - karakuri-ai/karakuri-lm-70b-chat-v0.1 library_name: transformers tags: - mergekit - merge license: llama2 language: - ja --- # karakuri-lm-upscaled-103b-v0.1 [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1)を自身でフランケンマージし、103bまで拡張したモデルです。ライセンスに関しては元モデルを参照してください。 [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b)と同じマージ手法を用いています。 [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/karakuri-lm-chat-upscaled-103b-v0.1-GGUF) This is a 103b frankenmerge of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) created by interleaving layers of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) with itself using [mergekit](https://github.com/cg123/mergekit). Please refer to the original model regarding the license. Inspired by [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b). ## ベンチマーク/Benchmark ベースとしたkarakuri-ai/karakuri-lm-70b-chat-v0.1と本モデルの[japanese-mt-bench](https://github.com/Stability-AI/FastChat/tree/jp-stable/fastchat/llm_judge)の結果は以下の通りです。 (シングルターン, 4ビット量子化) 平均スコアは低くなっていますが、本モデルの出力は元モデルより長くなっていることが目視で確認され、ベンチマーク設定の関係上出力が途中で途切れてしまい低評価をされることが多い印象でした。(主にHumanitiesやWriting) こちらを加味すると総合的な性能は同等かあるいはやや高いのではと考察しています。 |Model|Size|Coding|Extraction|Humanities|Math|Reasoning|Roleplay|STEM|Writing|avg_score| |---|---|---|---|---|---|---|---|---|---|---| | karakuri-lm-70b-chat-v0.1 | 70B | **4.8** | 7.4 | **9.3** | 2.8 | 5.9 | **8.2** | **9.3** | **9.3** | **7.125** | | This model | 103B | 3.3 | **8.0** | 8.5 | **3.4** | **6.8** | 7.6 | 9.0 | 8.2 | 6.850 | ![レーダーチャート](./japanese_mt_bench.png) **ベンチマークに使用したプロンプト** ``` [INST] <> あなたは誠実で優秀な日本人のアシスタントです。 <> {instruction} [ATTR] helpfulness: 4 correctness: 4 coherence: 4 complexity: 4 verbosity: 4 quality: 4 toxicity: 0 humor: 0 creativity: 0 [/ATTR] [/INST] ``` ## Merge Details ### Merge Method This model was merged using the passthrough merge method. ### Models Merged The following models were included in the merge: * ./karakuri-lm-70b-chat-v0.1 ### Configuration The following YAML configuration was used to produce this model: ```yaml merge_method: passthrough slices: - sources: - model: ./karakuri-lm-70b-chat-v0.1 layer_range: [0, 40] - sources: - model: ./karakuri-lm-70b-chat-v0.1 layer_range: [20, 60] - sources: - model: ./karakuri-lm-70b-chat-v0.1 layer_range: [40, 80] dtype: bfloat16 ```