LoRA(Low-Rank Adaptation)와 풀 파인튜닝(full fine-tuning)의 CER (Character Error Rate) 성능 차이는 여러 가지 이유로 발생할 수 있습니다. 주된 이유는 모델의 적합성, 학습된 파라미터의 수, 훈련 데이터의 크기 및 모델이 학습할 수 있는 정보의 양에 따라 달라집니다. 아래에 그 이유들을 자세히 설명하겠습니다:1. 모델의 적합성 (Model Fit)풀 파인튜닝: 모델 전체를 훈련시킴으로써 모든 파라미터가 데이터에 적합하도록 최적화됩니다. 이로 인해 모델이 데이터의 특징을 더 잘 반영할 수 있으며, 특히 훈련 데이터와 테스트 데이터에서 성능 향상이 나타날 수 있습니다.LoRA: LoRA는 모델의 특정 레이어만 수정하여 효율적으로 학습을 진행하는 방법입니..