Edit model card

TinySlime-1.1B-v1.0

TinySlime は日本語に特化した小規模言語モデルです。

モデルの一覧


このモデルのフルチューニングは、Axolotl を使用して行われました。

Built with Axolotl

モデル概要

2121-8/TinySlime-1.1B-v1.0 は、TinyLlama/TinyLlama-1.1B-intermediate-step-1431k-3T をベースモデルとし、augmxnt/shisa-pretrain-en-ja-v1 の学習データを使用してトレーニングされたモデルです。本モデルは、5.5B のトークンで学習されました。 このモデルは、スマートフォン、NVIDIA Jetson などの組み込みで動かすことを想定し作成されました。

  • ベースモデル: TinyLlama/TinyLlama-1.1B-intermediate-step-1431k-3T
  • 学習データセット: augmxnt/shisa-pretrain-en-ja-v1
  • 学習トークン: 55 億

使用方法

インストール

このモデルを使用するには、Hugging Face のtransformersライブラリをインストールする必要があります

pip install -U transformers

モデルの読み込み

transformersライブラリを使用してモデルを読み込むことができます

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "2121-8/TinyLlama-v1.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)

テキスト生成

以下の例では、読み込んだモデルを使用してテキストを生成する方法を示します

input_text = "西郷隆盛は明治時代の"
input_ids = tokenizer.encode(input_text, return_tensors='pt')

# テキストを生成
outputs = model.generate(input_ids, max_length=50, num_return_sequences=1)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(generated_text)

謝辞

このモデルは、TinyLlama プロジェクトの成果に基づいて構築され、augmxnt/shisa-pretrain-en-ja-v1データセットを使用して学習されました。 また、このモデルの開発にあたり、Axolotl のサポートとツールを利用しました。 NLP コミュニティへの貢献に感謝します。

Downloads last month
17
Safetensors
Model size
1.1B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for 2121-8/TinySlime-1.1B-v1.0

Quantizations
1 model

Dataset used to train 2121-8/TinySlime-1.1B-v1.0

Collection including 2121-8/TinySlime-1.1B-v1.0