Qwen3.5-2B-Turkish-SFT
Qwen3.5-2B base modeli üzerine Türkçe instruction-following verisiyle fine-tune edilmiş bir dil modelidir.
Model Detayları
| Base model | unsloth/Qwen3.5-2B |
| Fine-tuning yöntemi | LoRA (bf16) |
| LoRA rank | 16 |
| Dataset | AlicanKiraz0/Turkish-SFT-Dataset-v1.0 |
| Dataset boyutu | 5.579 örnek |
| Epoch | 3 |
| Learning rate | 2e-4 |
| Training loss | 1.47 → 0.82 |
| Framework | Unsloth + TRL |
| GPU | NVIDIA L4 (22GB) |
Kullanım
Transformers
from transformers import AutoModelForCausalLM, AutoProcessor
import torch
model_name = "Tuguberk/Qwen3.5-2B-Turkish-SFT"
processor = AutoProcessor.from_pretrained(model_name)
tokenizer = processor.tokenizer
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "system", "content": "Sen yardımcı bir Türkçe asistansın."},
{"role": "user", "content": "Türkiye hakkında kısa bir bilgi verir misin?"},
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False,
)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs["input_ids"],
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
do_sample=True,
)
response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[1]:], skip_special_tokens=True)
print(response)
Ollama (GGUF)
ollama run hf.co/Tuguberk/Qwen3.5-2B-Turkish-SFT:Q4_K_M
llama.cpp
# Metin modeli
llama-cli -hf Tuguberk/Qwen3.5-2B-Turkish-SFT --jinja
# Multimodal
llama-mtmd-cli -hf Tuguberk/Qwen3.5-2B-Turkish-SFT --jinja
Mevcut Formatlar
| Dosya | Boyut | Açıklama |
|---|---|---|
Qwen3.5-2B.BF16-mmproj.gguf |
~4.5GB | En yüksek kalite |
Qwen3.5-2B.Q8_0.gguf |
~2.7GB | Yüksek kalite |
Qwen3.5-2B.Q4_K_M.gguf |
~1.5GB | Önerilen — kalite/boyut dengesi |
Qwen3.5-2B.Q2_K.gguf |
~0.8GB | En küçük, düşük kalite |
Tavsiye: Çoğu kullanım için
Q4_K_Myeterlidir.
Dataset
AlicanKiraz0/Turkish-SFT-Dataset-v1.0 — genel amaçlı Türkçe instruction-following verisi.
Format: system / user / assistant üçlüsü, ChatML şablonuyla işlenmiştir.
Evaluation
Benchmark değerlendirmeleri lm-evaluation-harness-turkish kullanılarak yapılmıştır.
| Benchmark | Base Model | Fine-tuned | Fark |
|---|---|---|---|
Turkish MMLU (mmlu_tr_v0.2) |
47.29% | 47.20% | −0.09 |
GSM8K-TR strict (gsm8k_tr-v0.2) |
38.04% | 41.38% | +3.34 |
TruthfulQA (truthfulqa_v0.2) |
47.45% | 49.08% | +1.63 |
ARC-TR normalized (arc_tr-v0.2) |
37.03% | 38.23% | +1.20 |
HellaSwag-TR normalized (hellaswag_tr-v0.2) |
38.74% | 40.27% | +1.53 |
Winogrande-TR (winogrande_tr-v0.2) |
49.53% | 49.61% | +0.08 |
Önemli bulgular:
- Matematik muhakemesinde (GSM8K-TR) +3.34 puanlık belirgin iyileşme
- Doğruluk ve akıl yürütme gerektiren benchmark'larda (TruthfulQA, ARC, HellaSwag) tutarlı iyileşme
- Genel bilgi (MMLU) korunmuş — catastrophic forgetting gözlemlenmedi
- Yalnızca 5.579 örnekle elde edilmiş sonuçlar
Sınırlamalar
- 5.5K örnekle eğitilmiştir — büyük ölçekli veriyle eğitilmiş modellerle kıyaslanamaz
- Derin matematik ve zincirleme muhakeme görevlerinde sınırlı performans
- Yalnızca Türkçe instruction-following için optimize edilmiştir
LoRA Adaptörleri
Sadece LoRA ağırlıklarını kullanmak için: Tuguberk/Qwen3.5-2B-Turkish-SFT-LoRA
Lisans
Bu model, base model ile aynı lisansı taşımaktadır: Apache 2.0
- Downloads last month
- 961
