Edit model card
A newer version of this model is available: ascktgcc/Mistral-nemo-ja-rp-v0.2

Mistral-nemoをEPR用途向けにファインチューニングしたモデルです

使用したデータセットの半分ほどが日本語なのでmagnumのようなモデルよりも日本語には強いはず?

Mistral-NemoベースなのでTemperatureは0.3程度を推奨

使用させていただいたデータセット

  • kalomaze/Opus_Instruct_25k
  • Nopm/Opus_WritingStruct
  • anthracite-org/kalo-opus-instruct-22k-no-refusal
  • Aratako/Synthetic-Japanese-Roleplay-NSFW-Claude-3.5s-15.3k-formatted
  • Aratako/Synthetic-Japanese-Roleplay-gpt-4o-mini-39.6k-formatted
  • kalomaze/Opus_Instruct_3k
Downloads last month
625
GGUF
Model size
12.2B params
Architecture
llama

4-bit

6-bit

8-bit

16-bit

Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for ascktgcc/Mistral-nemo-ja-rp-v0.1

Quantized
(82)
this model

Datasets used to train ascktgcc/Mistral-nemo-ja-rp-v0.1