🧠 LLM 엔지니어링

RAG와 벡터 임베딩 이해하기

개발자 린다씨 2025. 4. 22. 16:10
반응형

🤖 벡터와 RAG 완전 이해하기 – LLM이 똑똑해지는 원리

이 글은 RAG(Retrieval-Augmented Generation)벡터 임베딩 개념, 그리고 그것이 LLM과 어떻게 연결되는지를 시각적으로 정리한 내용입니다.


🔹 1. LM vs. LLM: 뭐가 다른 걸까?

구분 LM (Language Model) LLM (Large Language Model)
의미 언어 모델 매우 크고 복잡한 언어 모
예시 BERT, GPT-2 등 GPT-4, Claude, Gemini 등
기능 문장 생성, 다음 단어 예측 문맥 이해, 질의응답, 요약, 생성 등
특징 상대적으로 작음 수십억~수천억 파라미터

🧠 요약: LLM은 크기와 기능 면에서 LM을 확장한 고성능 버전입니다.


🔹 2. 벡터 임베딩이란?

텍스트를 수치화된 의미의 점(Vector Point) 으로 바꾸는 과정입니다.

  • 예: King - Man + Woman = Queen 같은 벡터 수학 가능
  • 단어, 문장, 문서 등을 수백~수천 차원의 숫자 배열로 표현
  • 의미가 유사한 텍스트끼리는 벡터 공간에서도 가까운 위치에 존재

🧭 예를 들어, "Python 언어 강의" 와 "파이썬 튜토리얼"은 벡터 공간에서 나란히 배치될 수 있어요.


🔹 3. 그럼 RAG에서 벡터는 왜 중요할까?

✅ RAG(Retrieval-Augmented Generation)의 작동 원리:

  1. 사용자의 질문을 벡터로 변환
  2. 벡터 DB에서 관련된 벡터(=문서) 검색
  3. 해당 문서를 LLM에 넣고 최종 답변 생성

예:
Q: 에이미 랭커스터는 누구야?
→ 질문 벡터화 → 관련 문서 탐색 →
→ LLM이 응답: "항공 개척자였습니다."


📌 요약 정리

  • LLM: 대형 언어 모델로 고급 자연어 작업을 수행
  • 벡터 임베딩: 텍스트를 수치화해 의미 기반 검색 가능
  • RAG: 외부 지식에서 관련 정보를 검색해 LLM이 더 정확한 응답을 하게 함

🖼 다이어그램: RAG 작동 구조

위 그림은 질문 → 벡터화 → 관련 문서 검색 → LLM 응답 생성을 시각화한 것입니다.

반응형