1. RAG란 무엇인가?


RAG는 LLM이 외부 지식 기반에서 정보를 검색(Retrieval)하여 이를 기반으로 답변을 생성(Generation)하는 하이브리드 접근 방식입니다.

  1. 개발 배경: 2020년 Meta AI와 공동 연구진에 의해 제안, 이후 다양한 변형과 개선이 진행됨 (논문 링크).
  2. 핵심 아이디어: LLM의 내장 지식에만 의존하지 않고, 외부 데이터를 검색해 더 정확하고 최신의 답변을 제공.
  3. 비유: "도서관 사서"처럼 질문에 맞는 책(정보)을 찾아 답을 만들어줌.


2. 왜 RAG가 필요한가?

LLM은 방대한 데이터를 학습하지만 한계가 있습니다:

  1. 문제점:
  2. 학습 시점 이후의 정보는 반영되지 않음(예: 2025년 정보 부족).
  3. 잘못된 정보(할루시네이션) 생성 가능성.
  4. 특정 도메인 지식 부족.
  5. RAG의 해결책:
  6. 외부 문서나 데이터베이스에서 최신 정보를 검색해 답변에 반영.
  7. 사실 기반 답변으로 신뢰도 향상.
  8. 예시: "2025년 AI 트렌드는?" → RAG가 최신 문서를 검색해 답변 제공.


3. RAG의 구조와 동작 방식

RAG는 두 가지 주요 단계로 작동합니다:

  1. 검색(Retrieval):
  2. 질문과 관련된 외부 문서나 데이터를 검색 엔진(예: FAISS, Elasticsearch)으로 찾음.
  3. 벡터 임베딩을 사용해 질문과 문서의 유사성을 계산.
  4. 생성(Generation):
  5. 검색된 문서를 LLM에 전달해 컨텍스트로 활용.
  6. LLM이 이를 기반으로 자연스러운 답변 생성.

동작 흐름:

  1. 사용자가 질문을 입력(예: "2025년 AI 트렌드는?").
  2. 검색 모듈이 관련 문서를 찾음(예: 최신 AI 보고서).
  3. LLM이 검색된 문서를 읽고 답변 생성(예: "2025년 AI는 RAG와 같은 기술이 주도...").


4. 활용 사례

RAG는 다양한 분야에서 유용합니다:

  1. 지식 기반 Q&A: 기업 문서나 매뉴얼에서 답변 생성.
  2. 교육: 학생 질문에 맞는 교재 내용 검색 및 설명.
  3. 고객 지원: FAQ나 지원 문서 기반 실시간 대응.
  4. 예시: "회사 정책에서 휴가 규정을 알려줘" → RAG가 내부 문서 검색 후 답변.



* Grok을 활용하여 정리하였습니다.