반응형
🤖 벡터와 RAG 완전 이해하기 – LLM이 똑똑해지는 원리
이 글은 RAG(Retrieval-Augmented Generation) 와 벡터 임베딩 개념, 그리고 그것이 LLM과 어떻게 연결되는지를 시각적으로 정리한 내용입니다.
🔹 1. LM vs. LLM: 뭐가 다른 걸까?
구분 | LM (Language Model) | LLM (Large Language Model) |
---|---|---|
의미 | 언어 모델 | 매우 크고 복잡한 언어 모델 |
예시 | BERT, GPT-2 등 | GPT-4, Claude, Gemini 등 |
기능 | 문장 생성, 다음 단어 예측 | 문맥 이해, 질의응답, 요약, 생성 등 |
특징 | 상대적으로 작음 | 수십억~수천억 파라미터 |
🧠 요약: LLM은 크기와 기능 면에서 LM을 확장한 고성능 버전입니다.
🔹 2. 벡터 임베딩이란?
텍스트를 수치화된 의미의 점(Vector Point) 으로 바꾸는 과정입니다.
- 예:
King - Man + Woman = Queen
같은 벡터 수학 가능 - 단어, 문장, 문서 등을 수백~수천 차원의 숫자 배열로 표현
- 의미가 유사한 텍스트끼리는 벡터 공간에서도 가까운 위치에 존재
🧭 예를 들어, "Python 언어 강의" 와 "파이썬 튜토리얼"은 벡터 공간에서 나란히 배치될 수 있어요.
🔹 3. 그럼 RAG에서 벡터는 왜 중요할까?
✅ RAG(Retrieval-Augmented Generation)의 작동 원리:
- 사용자의 질문을 벡터로 변환
- 벡터 DB에서 관련된 벡터(=문서) 검색
- 해당 문서를 LLM에 넣고 최종 답변 생성
예:
Q: 에이미 랭커스터는 누구야?
→ 질문 벡터화 → 관련 문서 탐색 →
→ LLM이 응답: "항공 개척자였습니다."
📌 요약 정리
- LLM: 대형 언어 모델로 고급 자연어 작업을 수행
- 벡터 임베딩: 텍스트를 수치화해 의미 기반 검색 가능
- RAG: 외부 지식에서 관련 정보를 검색해 LLM이 더 정확한 응답을 하게 함
🖼 다이어그램: RAG 작동 구조
위 그림은 질문 → 벡터화 → 관련 문서 검색 → LLM 응답 생성을 시각화한 것입니다.
반응형
'🧠 LLM 엔지니어링' 카테고리의 다른 글
LangChain과 Chroma를 활용한 문서 임베딩 시각화 실습 01 (0) | 2025.04.26 |
---|---|
LLM 문서에서 특정 키워드 추출하는 방법 02 (Shopwise 지식기반 예제) (1) | 2025.04.25 |
LLM 문서에서 특정 키워드 추출하는 방법 01 (Shopwise 지식기반 예제) (1) | 2025.04.24 |
LangChain으로 시작하는 RAG 파이프라인 구축 여정 (1) | 2025.04.23 |
LLM 챗봇 만들기: 전자상거래 회사 지식 기반 질문응답 시스템 (RAG 구현 예제) (1) | 2025.04.21 |