Qwen3-4B Turkish LoRA - Full Model

Bu model Qwen3-4B-Base'den Türkçe veri seti ile fine-tune edilmiş tam modeldir.

Model Detayları

  • Base Model: Qwen/Qwen3-4B-Base
  • Architecture: Qwen3ForCausalLM
  • Dil: Türkçe
  • Eğitim Verisi: 51,914 örnek
  • Model Size: ~7-8GB
  • Format: bfloat16

Eğitim Detayları

Eğitim Parametreleri

  • Training type: Full Fine-tuning with LoRA
  • LoRA Rank: 64
  • LoRA Alpha: 128
  • Epochs: 1
  • Batch size: 32
  • Learning rate: 0.00001
  • Target modules: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

Veri Seti

  • Kaynak: afkfatih/tr_dataset_v2
  • Örnekler: 51,914 Türkçe soru-cevap çifti
  • Format: Instruction-following

Eğitim Altyapısı

  • Platform: Together AI
  • Framework: PEFT 0.15.1 + Transformers
  • Precision: bfloat16

Performans

Bu model Türkçe doğal dil anlama ve üretme görevlerinde kullanılabilir:

  • Soru-cevap
  • Metin tamamlama
  • Genel konuşma
  • Türkçe content üretimi

Sınırlamalar

  • Model Türkçe veri ile eğitilmiştir, diğer dillerde performans düşük olabilir
  • 1 epoch eğitilmiştir, daha fazla eğitim ile performans artırılabilir
  • Bias ve etik konularda dikkatli kullanılmalıdır

Lisans

Apache 2.0 - Base model lisansı ile uyumludur.

İletişim

  • Geliştirici: afkfatih
  • Hugging Face: afkfatih
Downloads last month
3
Safetensors
Model size
4B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for afkfatih/qwen3-4b-turkish-lora-full

Base model

Qwen/Qwen3-4B-Base
Finetuned
(176)
this model