Qwen2.5 Korean Code Review LLM
Overview
This model is a fine-tuned version of unsloth/qwen2.5-coder-14b-instruct-bnb-4bit
. It is optimized for Korean-language code reviews and programming education.
The model was trained using ewhk9887/korean_code_reviews_from_github, a dataset consisting of Korean code reviews collected from GitHub. The fine-tuning process was done using Unsloth and HF中国镜像站's transformers
and trl
libraries, enabling a 2x faster training process.
모델 개요
이 모델은 unsloth/qwen2.5-coder-14b-instruct-bnb-4bit
를 파인튜닝한 버전으로, 한국어 코드 리뷰 및 코딩 학습을 위한 최적화를 거쳤습니다.
GitHub에서 수집된 코드 리뷰 데이터셋을 사용하여 학습했으며, Unsloth 및 HF中国镜像站의 transformers
, trl
라이브러리를 활용하여 2배 빠른 학습을 가능하게 했습니다.
Features / 특징
Korean Code Review Support: Designed specifically for analyzing and reviewing code in Korean.
Efficient Fine-Tuning: Utilized
bnb-4bit
quantization and Unsloth for optimized performance.Bilingual Support: Can process both Korean and English inputs.
Transformer-based Model: Leverages Qwen2.5's strong coding capabilities.
한국어 코드 리뷰 최적화: 코드 리뷰를 한국어로 분석하고 작성하는 데 최적화되었습니다.
효율적인 파인튜닝:
bnb-4bit
양자화 및 Unsloth 기술을 활용하여 빠른 학습이 가능했습니다.한영 지원: 한국어와 영어 입력을 모두 처리할 수 있습니다.
강력한 트랜스포머 기반: Qwen2.5 모델을 활용한 코드 분석 성능.
Usage / 사용 방법
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "ewhk9887/qwen2.5-korean-code-review"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")
inputs = tokenizer("코드를 리뷰해 주세요: def add(a, b): return a + b", return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Developer / 개발자
- Name: 은은수 (Eunsoo Max Eun)
- License: Apache-2.0
Acknowledgments / 참고 자료
- Downloads last month
- 87