Qwen3-4B Turkish LoRA - Full Model
Bu model Qwen3-4B-Base'den Türkçe veri seti ile fine-tune edilmiş tam modeldir.
Model Detayları
- Base Model: Qwen/Qwen3-4B-Base
- Architecture: Qwen3ForCausalLM
- Dil: Türkçe
- Eğitim Verisi: 51,914 örnek
- Model Size: ~7-8GB
- Format: bfloat16
Eğitim Detayları
Eğitim Parametreleri
- Training type: Full Fine-tuning with LoRA
- LoRA Rank: 64
- LoRA Alpha: 128
- Epochs: 1
- Batch size: 32
- Learning rate: 0.00001
- Target modules: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
Veri Seti
- Kaynak: afkfatih/tr_dataset_v2
- Örnekler: 51,914 Türkçe soru-cevap çifti
- Format: Instruction-following
Eğitim Altyapısı
- Platform: Together AI
- Framework: PEFT 0.15.1 + Transformers
- Precision: bfloat16
Performans
Bu model Türkçe doğal dil anlama ve üretme görevlerinde kullanılabilir:
- Soru-cevap
- Metin tamamlama
- Genel konuşma
- Türkçe content üretimi
Sınırlamalar
- Model Türkçe veri ile eğitilmiştir, diğer dillerde performans düşük olabilir
- 1 epoch eğitilmiştir, daha fazla eğitim ile performans artırılabilir
- Bias ve etik konularda dikkatli kullanılmalıdır
Lisans
Apache 2.0 - Base model lisansı ile uyumludur.
İletişim
- Geliştirici: afkfatih
- Hugging Face: afkfatih
- Downloads last month
- 3
Model tree for afkfatih/qwen3-4b-turkish-lora-full
Base model
Qwen/Qwen3-4B-Base