목차

<aside> 💡

RAG와 파인튜닝은 둘 다 LLM의 환각(Hallucination) 문제를 해결하고, 특정 도메인에 맞춘 답변을 생성하는 데 사용되는 대표적인 접근법입니다. 그러나 두 방식은 접근 방식, 비용, 난이도, 시간 측면에서 큰 차이를 보입니다.

</aside>

1️⃣ 개념 이해

RAG (Retrieval-Augmented Generation)

파인튜닝 (Fine-tuning)

2️⃣ 주요 비교표

항목 RAG 파인튜닝
비용 상대적으로 저렴 고비용 (GPU 사용료, 인건비)
구축 시간 빠름 (PoC 빠르게 가능) 느림 (데이터셋 구축 + 긴 학습시간)
난이도 쉬움 (검색 + LLM 호출만 하면 됨) 어려움 (LLM 구조 이해 + 학습 파이프라인 구축)
필요한 하드웨어 GPU 없이도 가능 (LLM API 사용 시) / 임베딩 시 GPU 사용 권장 고성능 GPU 필수 (A100급 다수 사용 권장)
확장성 문서만 추가하면 확장 가능 새로운 데이터가 생길 때마다 재학습 필요
성능 도메인 특화 지식 + 최신성 확보 용이 도메인 특화 지식 내재화로 높은 일관성
유지보수 문서 DB 갱신으로 간편 재파인튜닝 필요 (PEFT 사용 시 다소 경감)

3️⃣ 상세 비교

✔ 난이도: RAG가 더 쉬움

✔ 시간: RAG가 훨씬 빠름