--- base_model: - meta-llama/Llama-3.2-1B-Instruct language: - en license: apache-2.0 tags: - text-generation-inference - transformers - unsloth - llama - trl - sft --- # Uploaded model - **Developed by:** beyoru - **License:** apache-2.0 - **Finetuned from model :** unsloth/Llama-3.2-3B-Instruct-bnb-4bit # How to use ``` from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("beyoru/llama3.1_instruct_1B_r256a156ep3_merge_ins") model = AutoModelForCausalLM.from_pretrained("beyoru/llama3.1_instruct_1B_r256a156ep3_merge_ins") alpaca_prompt = """Hãy đọc kỹ hướng dẫn dưới đây để thực hiện nhiệm vụ: tạo một câu hỏi trắc nghiệm với 4 lựa chọn đáp án khác nhau dựa trên ngữ cảnh đã cung cấp. ### Định dạng câu hỏi: Câu hỏi: A. B. C. D. Đáp án: ### Ngữ cảnh {} ### Phản hồi mẫu: """ content = "Mở khóa điện thoại thông minh bằng dấu vân tay đã có từ năm 2004 và Pantech Gi100 là mẫu điện thoại có tính năng này vào thời gian ấy. Ngày nay, nhận dạng vân tay được sử dụng rộng rãi dễ xác nhận danh tính của một người trong nhiều việc khác nhau Mỗi số điện thoại thông minh có khả năng xác thực danh tính bằng khuôn mặt thay cho mật khẩu. Ví dụ: iPhone kế từ IPhone X (2017). Samsung Galaxy kế từ S10 (2019), Google Pixel,... Một số điện thoại thông minh hỗ trợ tìm kiếm bằng lời nói nhờ Google Assistant với hệ điều hành Android, nhờ Siri với hệ điều hành iOS. Một số loại tivi thông minh của Samsung, Sony Bravia, TCI..... có điều khiển từ xa với tính năng nhận lệnh bằng lời nói. Hiện nay, một số công cụ hay phần mềm OCR - Optical Character Recognition để nhận dạng hình ảnh kí tự và có khả năng chuyển các ghi chú viết tay thành đoạn văn bản đã được dùng phổ biến. Google Drive hỗ trợ nhận dạng chữ viết tay của hơn 200 ngôn ngữ trong hơn 25 hệ thống chữ viết. Sử dụng Google Drive có thể nhận dạng chữ viết tay chỉ bằng hai thao tác: tải lên tệp ảnh hay PDE; nhấn chuột phải vào biểu tượng tài liệu trong Drive và chọn Open with Google Docs" prompt = alpaca_prompt.format(content) inputs = tokenizer(prompt, return_tensors="pt") output = model.generate(**inputs, max_new_tokens = 256, do_sample=True) answer = tokenizer.decode(output[0], skip_special_tokens=True) print(answer) ```