Aratako's picture
Update README.md
01b0cce verified
|
raw
history blame
3.17 kB
metadata
base_model:
  - karakuri-ai/karakuri-lm-70b-chat-v0.1
library_name: transformers
tags:
  - mergekit
  - merge
license: llama2
language:
  - ja

karakuri-lm-upscaled-103b-v0.1

karakuri-ai/karakuri-lm-70b-chat-v0.1を自身でフランケンマージし、103bまで拡張したモデルです。ライセンスに関しては元モデルを参照してください。

wolfram/miqu-1-103bと同じマージ手法を用いています。

GGUF版はこちら/Click here for the GGUF version

This is a 103b frankenmerge of karakuri-ai/karakuri-lm-70b-chat-v0.1 created by interleaving layers of karakuri-ai/karakuri-lm-70b-chat-v0.1 with itself using mergekit. Please refer to the original model regarding the license.

Inspired by wolfram/miqu-1-103b.

ベンチマーク/Benchmark

ベースとしたkarakuri-ai/karakuri-lm-70b-chat-v0.1と本モデルのjapanese-mt-benchの結果は以下の通りです。 (シングルターン, 4ビット量子化)

平均スコアは低くなっていますが、本モデルの出力は元モデルより長くなっていることが目視で確認され、ベンチマーク設定の関係上出力が途中で途切れてしまい低評価をされることが多い印象でした。(主にHumanitiesやWriting)

こちらを加味すると総合的な性能は同等かあるいはやや高いのではと考察しています。

Model Size Coding Extraction Humanities Math Reasoning Roleplay STEM Writing avg_score
karakuri-lm-70b-chat-v0.1 70B 4.8 7.4 9.3 2.8 5.9 8.2 9.3 9.3 7.125
This model 103B 3.3 8.0 8.5 3.4 6.8 7.6 9.0 8.2 6.850

レーダーチャート

ベンチマークに使用したプロンプト

<s>[INST] <<SYS>>
あなたは誠実で優秀な日本人のアシスタントです。
<</SYS>>

{instruction} [ATTR] helpfulness: 4 correctness: 4 coherence: 4 complexity: 4 verbosity: 4 quality: 4 toxicity: 0 humor: 0 creativity: 0 [/ATTR] [/INST]

Merge Details

Merge Method

This model was merged using the passthrough merge method.

Models Merged

The following models were included in the merge:

  • ./karakuri-lm-70b-chat-v0.1

Configuration

The following YAML configuration was used to produce this model:

merge_method: passthrough
slices:
  - sources:
      - model: ./karakuri-lm-70b-chat-v0.1
        layer_range: [0, 40]
  - sources:
      - model: ./karakuri-lm-70b-chat-v0.1
        layer_range: [20, 60]
  - sources:
      - model: ./karakuri-lm-70b-chat-v0.1
        layer_range: [40, 80]
dtype: bfloat16