학습방법

모델을 더 똑똑하게, 또는 우리 것으로 만드는 방법들.


파인튜닝 (Fine-tuning)

사전학습된 모델을 자기 데이터로 추가 학습시키는 것. 가중치가 실제로 변한다. 지식이 모델 안에 새겨진다.

빗대자면 — 일반 대학 졸업생을 뽑아서 우리 조직의 사람으로 6개월 내부 교육시키는 것. 졸업생(베이스 모델)의 기반 위에 우리 문화·언어·역사가 쌓인다.

후니님 시스템에서: 후니님 27년 운동 언어, SSE 관점, 품앗이생협 현장 지식을 EXAONE에 새기는 작업이 파인튜닝이다. 현재 데이터셋 구축 중 (2026-04-28 기준 329건, 목표 500건).


LoRA (Low-Rank Adaptation)

원본 가중치는 건드리지 않고, 작은 보조 행렬만 따로 학습하는 방법.

원본 책에 직접 밑줄 긋는 게 아니라 포스트잇을 붙이는 것. 책은 그대로이고, 포스트잇만 갈아끼울 수 있다.

  • 학습에 필요한 GPU 메모리가 대폭 줄어든다
  • H100 1장으로 32B 모델 파인튜닝이 가능해진다
  • 추론 시 포스트잇(LoRA 가중치)을 원본에 합산해서 사용

후니님 시스템에서: EXAONE 32B를 HPC H100 1장에서 학습시킬 때 LoRA를 쓴다. 풀 파인튜닝은 메모리 부족으로 불가능 → LoRA만 현실적. → 2026 HPC 지원사업 - 시민재생에너지 사업자동화 AI 참조


QLoRA

양자화(Quantization) + LoRA를 결합한 방법. 원본 가중치를 INT4로 양자화해서 더 적게 올려놓고, LoRA 보조 행렬만 FP16으로 학습.

LoRA보다도 메모리 요구량이 낮다. 품질 손실은 있지만 경량 GPU 환경에서 실용적.

후니님 시스템에서: Colab Pro($10/월) 수준의 GPU에서 학습할 때 QLoRA가 현실 옵션이다.


RAG (Retrieval-Augmented Generation, 검색 증강 생성)

가중치를 바꾸지 않고, 질문을 받을 때마다 외부 문서를 검색해서 모델 입력에 끼워넣는 방법.

파인튜닝이 “사원을 교육시키는 것”이라면, RAG는 “사원에게 필요한 문서를 그때그때 책상 위에 올려주는 것.”

  • 지식을 업데이트하기 쉽다 (문서만 바꾸면 됨)
  • 최신 정보, 실시간 데이터에 강하다
  • 모델 자체를 재학습할 필요가 없다

후니님 시스템에서: 품아이 ChromaDB가 이 역할이다. 조합원이 질문하면 ChromaDB에서 관련 Q&A를 검색해 Gemini 입력에 붙여 답변을 만든다. 상세 → ChromaDB 컬렉션 현황, 품아이 전체 지도


연결