NSMC ๊ฐ์ ๋ถ์ LoRA ๋ชจ๋ธ
NSMC ๋ฐ์ดํฐ์ ์ผ๋ก ํ์ธํ๋๋ ํ๊ตญ์ด ๊ฐ์ ๋ถ์ ๋ชจ๋ธ์ ๋๋ค.
๋ชจ๋ธ ์ค๋ช
- ** ๋ฒ ์ด์ค ๋ชจ๋ธ **: klue/bert_base
- ** ํ์ธ ํ๋ ๋ฐฉ๋ฒ**: LoRA
- ์ธ์ด: ํ๊ตญ์ด
์ฑ๋ฅ
- ** ์ต์ข ์ฑ๋ฅ**: 85%
ํ์ต์ ๋ณด
๋ฐ์ดํฐ์
- ์ด๋ฆ: NSMC -** ํ์ต ๋ฐ์ดํฐ**:10000
ํ์ต์ ๋ณด
- ** ใ
๋ชจ๋ธ ์ ๋ณด
์ฌ์ฉ ๋ฐฉ๋ฒ
from peft import PeftModel
# ๋ฒ ์ด์ค ๋ชจ๋ธ ๋ก๋ (๋ถ๋ฅ์ฉ)
print("๋ฒ ์ด์ค ๋ชจ๋ธ ๋ก๋ฉ")
base_model_reload = AutoModelForSequenceClassification.from_pretrained(
"klue/bert-base",
num_labels=2
)
# ์
๋ก๋ํ LoRA ์ด๋ํฐ ๋ก๋
print(f"LoRA ์ด๋ํฐ ๋ก๋ฉ: yooranyeong/nsmc-sentiment-lora")
model_reload = PeftModel.from_pretrained(base_model_reload, model_name_upload)
tokenizer_reload = AutoTokenizer.from_pretrained(model_name_upload)
# GPU๋ก ์ด๋
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_reload = model_reload.to(device)
model_reload.eval()
print("๋ชจ๋ธ ๋ก๋ ์๋ฃ!")
print("์ด์ ์ด ์ฝ๋๋ก ์ด๋์๋ ๋ด ๋ชจ๋ธ์ ์ฌ์ฉํ ์ ์์ต๋๋ค!")
Note: ์ด ๋ชจ๋ธ์ ๊ต์ก ๋ชฉ์ ์ผ๋ก ๋ง๋ค์ด์ก์ต๋๋ค.
Model tree for yooranyeong/nsmc-sentiment-lora
Base model
klue/bert-base