728x90
반응형
RAG (Retrieval-Augmented Generation) 이란 무엇일까?
최근 LLM(대규모 언어 모델, Large Language Model)이 주목받으면서 RAG이란 용어가 많이 보인다.
그렇다면 RAG은 무엇일까?
LLM의 한계
GPT, Claude, Llama 같은 LLM은 대규모 텍스트 데이터를 학습해서 새로운 텍스트를 만들어내는 강력한 도구입니다.
하지만 여기에는 몇 가지 한계가 있습니다.
- 지식의 최신성 문제: 모델이 학습된 시점 이후의 정보는 알지 못합니다.
- 환각 (Hallucination): 사실이 아닌 내용을 그럴듯하게 만들어낼 수 있습니다.
- 전문 지식 부족: 특정 도메인(예: 의학, 법률, 기업 내부 문서 등)의 세부 사항은 부족할 수 있습니다.
즉, 모델만 단독으로 쓰기에는 신뢰성·정확성·최신성의 문제가 생길 수 있는 것이죠.
RAG의 등장
이런 한계를 해결하기 위해 고안된 방법이 바로 RAG (Retrieval-Augmented Generation) 입니다.
이름 그대로 검색(Retrieval) 과 생성(Generation) 을 결합한 방식입니다.
흐름을 간단히 정리하면:
- Retrieval (검색 단계)
- 사용자의 질문과 관련된 문서를 외부 지식베이스(예: 위키, 논문, 회사 내부 데이터 등)에서 찾아옵니다.
- Augmentation (보강 단계)
- 검색된 문서를 모델의 입력 프롬프트에 함께 넣어줍니다.
- Generation (생성 단계)
- LLM이 이 문서를 참고해서 더 정확하고 맥락에 맞는 답변을 생성합니다.
즉, RAG은 **“모델이 외부 지식을 참고해서 답한다”**는 구조라고 보시면 됩니다.
왜 중요한가?
RAG의 가장 큰 장점은 다음과 같습니다:
- 최신 정보 반영 → 외부 데이터베이스를 업데이트하면 모델도 최신 정보를 답할 수 있음
- 정확성 향상 → 모델이 스스로 만들어내기보다 실제 자료를 참고해서 답변
- 도메인 특화 가능 → 기업 내부 문서, 연구 논문, 매뉴얼 등 특정 데이터 기반 답변 가능
그래서 지금은 검색엔진, 기업용 챗봇, 연구 지원 도구, 법률/의학 상담 서비스 등 다양한 곳에서 RAG이 활용되고 있습니다.
간단한 예시
예를 들어, 모델에게 “2025년 9월 최신 NVIDIA GPU는 무엇인가요?” 라고 묻는다고 해봅시다.
- LLM 단독 → 2023년까지 학습된 데이터만 알고 있으니 “A100”이나 “H100” 같은 예전 정보를 답할 수 있음.
- RAG 적용 → 외부 검색을 통해 2025년 최신 GPU 정보(NVIDIA Blackwell 시리즈 등)를 찾아온 뒤, 그 내용을 반영해 정확한 답변 생성.
이렇게 RAG은 단순히 똑똑한 모델이 아니라, “정보를 가져와서 대답할 줄 아는 똑똑한 모델” 을 만든다는 점에서 중요합니다.
728x90
반응형
'공부 > 인공지능' 카테고리의 다른 글
LLM이 단어를 이해하는 방법: Word Embedding으로 보는 자연어의 숫자화 (2) | 2025.08.30 |
---|---|
LLM - 자연어 처리란? (3) | 2025.08.24 |
LLM이란? (2) | 2025.08.16 |