--- license: apache-2.0 base_model: "Qwen/Qwen3-0.6B" tags: - text-generation - deepspeed - fine-tuned language: - en library_name: transformers pipeline_tag: text-generation --- # Qwen3-0.6B-v0.1 DeepSpeed-Chat으로 파인튜닝된 언어 모델 ## Model Details 이 모델은 DeepSpeed-Chat을 사용하여 파인튜닝된 모델입니다. - **Base Model**: 기본 모델 정보를 여기에 추가하세요 - **Fine-tuning Method**: DeepSpeed-Chat - **Training Data**: 학습 데이터 정보를 여기에 추가하세요 ## Usage ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("mncai/Qwen3-0.6B-v0.1") model = AutoModelForCausalLM.from_pretrained("mncai/Qwen3-0.6B-v0.1") # 텍스트 생성 input_text = "Your prompt here" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=100) response = tokenizer.decode(outputs[0], skip_special_tokens=True) ``` ## Training Details - **Training Framework**: DeepSpeed - **Training Script**: DeepSpeed-Chat Step 1 Supervised Fine-tuning - **Upload Date**: N/A ## Limitations and Biases 이 모델의 한계점과 편향성에 대한 정보를 여기에 추가하세요. ## Citation DeepSpeed-Chat을 사용했다면 다음을 인용해주세요: ``` @misc{deepspeed-chat, title={DeepSpeed-Chat: Easy, Fast and Affordable RLHF Training of ChatGPT-like Models at All Scales}, author={Yuxiao Zhuang et al.}, year={2023}, url={https://github.com/microsoft/DeepSpeed} } ```