司法試験特化日本語LLM
モデル概要
このモデルはelyza/Llama-3-ELYZA-JP-8Bをベースに、日本の司法試験問題でファインチューニングした特化モデルです。
特徴
- ベースモデル: elyza/Llama-3-ELYZA-JP-8B
 - 特化分野: 日本の司法試験(憲法、民法、刑法等)
 - 言語: 日本語
 - ファインチューニング手法: QLoRA (Quantized Low-Rank Adaptation)
 
学習情報
- 学習データ数: 399件
 - エポック数: 1
 - 学習時間: 0:04:03.975761
 - LoRA ランク: 4
 - 学習率: 1e-05
 
使用方法
LoRAアダプター版(eyepyon/judicial-exam-llama3-jpv5-lora-v3)
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
base_model = AutoModelForCausalLM.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
tokenizer = AutoTokenizer.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
model = PeftModel.from_pretrained(base_model, "eyepyon/judicial-exam-llama3-jpv5-lora-v3")
inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
マージ済みモデル版(eyepyon/judicial-exam-llama3-jpv5-merged-v3)
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("eyepyon/judicial-exam-llama3-jpv5-merged-v3")
tokenizer = AutoTokenizer.from_pretrained("eyepyon/judicial-exam-llama3-jpv5-merged-v3")
inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
注意事項
- このモデルは教育・研究目的で作成されています
 - 実際の司法試験や法的判断には使用しないでください
 - 出力結果は参考程度に留めてください
 
ライセンス
ベースモデルのLlama 3ライセンスに準拠します。
- Downloads last month
 - -
 
	Inference Providers
	NEW
	
	
	This model isn't deployed by any Inference Provider.
	🙋
			
		Ask for provider support
Model tree for eyepyon/judicial-exam-llama3-jpv5-merged-v3
Base model
elyza/Llama-3-ELYZA-JP-8B