Aratako commited on
Commit
01b0cce
1 Parent(s): 5bd7f20

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -3
README.md CHANGED
@@ -15,14 +15,12 @@ language:
15
 
16
  [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b)と同じマージ手法を用いています。
17
 
18
- [GGUF版はこちら](https://huggingface.co/Aratako/karakuri-lm-chat-upscaled-103b-v0.1-GGUF)
19
 
20
  This is a 103b frankenmerge of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) created by interleaving layers of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) with itself using [mergekit](https://github.com/cg123/mergekit). Please refer to the original model regarding the license.
21
 
22
  Inspired by [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b).
23
 
24
- [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/karakuri-lm-chat-upscaled-103b-v0.1-GGUF)
25
-
26
  ## ベンチマーク/Benchmark
27
  ベースとしたkarakuri-ai/karakuri-lm-70b-chat-v0.1と本モデルの[japanese-mt-bench](https://github.com/Stability-AI/FastChat/tree/jp-stable/fastchat/llm_judge)の結果は以下の通りです。
28
  (シングルターン, 4ビット量子化)
 
15
 
16
  [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b)と同じマージ手法を用いています。
17
 
18
+ [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/karakuri-lm-chat-upscaled-103b-v0.1-GGUF)
19
 
20
  This is a 103b frankenmerge of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) created by interleaving layers of [karakuri-ai/karakuri-lm-70b-chat-v0.1](https://huggingface.co/karakuri-ai/karakuri-lm-70b-chat-v0.1) with itself using [mergekit](https://github.com/cg123/mergekit). Please refer to the original model regarding the license.
21
 
22
  Inspired by [wolfram/miqu-1-103b](https://huggingface.co/wolfram/miqu-1-103b).
23
 
 
 
24
  ## ベンチマーク/Benchmark
25
  ベースとしたkarakuri-ai/karakuri-lm-70b-chat-v0.1と本モデルの[japanese-mt-bench](https://github.com/Stability-AI/FastChat/tree/jp-stable/fastchat/llm_judge)の結果は以下の通りです。
26
  (シングルターン, 4ビット量子化)