run on cpu

#1
by sdyy - opened

colab tpu but run model on cpu only
colab tpu for big ram onnly
it tak 70g ram
!pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu

!pip uninstall -y tensorflow && pip install tensorflow-cpu

!pip install bitsandbytes[cpu]

import torch
from transformers import pipeline

تعيين المعالج (CPU)

DEVICE = torch.device("cpu")

تحميل الـ pipeline مع تمكين التخزين المؤقت واستخدام cache_position

pipe = pipeline(
"text-generation",
model="unsloth/Qwen2.5-32B-Instruct",
trust_remote_code=True,
device=DEVICE,
use_cache=True, # تمكين التخزين المؤقت لتحسين الأداء
max_length=100, # تحديد الحد الأقصى للطول لتقليل استهلاك الذاكرة
torch_dtype=torch.float16 # استخدام دقة عائمة 16 بت إذا كان المدعوم
)

الرسالة التي تريد إرسالها للنموذج مع إضافة cache_position

messages = [
{"role": "user", "content": "Who are you?", "cache_position": 0} # تعيين cache_position هنا
]

توليد الرد

try:
output = pipe(messages)
print(output)
except RuntimeError as e:
print(f"حدث خطأ: {e}")

Sign up or log in to comment