AI를 더 똑똑하게: LLM, RAG, 온톨로지의 삼각관계

AI가 그럴듯하지만 틀린 답을 하는 이유는 무엇일까? 이 글은 LLM의 구조적 한계에서 출발해 RAG의 검색 기반 보완 방식, 온톨로지가 제공하는 개념 관계 구조까지 단계적으로 설명한다. 또한 세 기술을 결합했을 때 장점과 오류 증폭 루프의 위험, 실무 설계 시 고려해야 할 3단계 전략을 함께 정리해 AI 신뢰도를 높이는 방법을 제시한다.

LLM, RAG, 온톨로지가 결합된 AI 구조를 설명하는 인포그래픽 이미지로, 검색 기반 생성과 지식 그래프가 연결된 개념도
Image Created by Google Gemini.

왜 AI는 가끔 그럴듯한 거짓말을 할까?

챗지피티나 클로드 같은 AI에게 질문을 던지면 대부분 매끄럽게 답을 줍니다. 그런데 가끔 이런 일이 생깁니다. 내용은 그럴듯하지만 사실이 아닌 답을 하거나 법 조문을 잘못 인용하거나 존재하지 않는 논문을 태연하게 제시하는 경우가 있습니다.

왜 그럴까요? 많은 LLM은 방대한 텍스트를 학습해 다음에 올 말(토큰)을 예측하는 방식으로 작동합니다. 이 구조는 문장을 자연스럽게 만드는 데는 탁월하지만 답이 사실인지를 스스로 검증하는 기능까지 기본으로 갖춘 것은 아닙니다. 이 문제를 줄이기 위해 연구자들은 여러 보완 기술을 발전시켜 왔습니다. 이 글에서는 그중 핵심적으로 언급되는 세 가지, LLM, RAG, 온톨로지가 어떤 역할을 하고 어떻게 결합될 수 있는지 차근차근 살펴보겠습니다.

첫 번째 주인공: LLM(대형 언어 모델)

LLM(Large Language Model)은 아주 많은 텍스트를 학습해 다음에 어떤 말이 오면 자연스러운가를 잘 맞히는 AI 엔진입니다. 챗지피티, 클로드, 제미나이 등이 여기에 해당합니다.

쉽게 말하면 엄청나게 많은 글을 읽고 글 쓰는 법을 익힌 AI입니다. LLM은 질문에 대한 답변을 작성하는 능력이 뛰어납니다. 다만 학습 시점 이후의 최신 정보, 특정 조직이나 도메인에만 존재하는 내부 규정, 또는 정확한 수치처럼 근거 확인이 중요한 영역에서는 틀릴 수 있습니다.

두 번째 주인공: RAG(검색 기반 생성)

RAG(Retrieval-Augmented Generation)는 '검색(Retrieval) + 생성(Generation)'의 합성어입니다. AI가 답을 만들기 전에 먼저 관련 문서를 찾아보고, 그 내용을 참고해 답하게 만드는 방식입니다. 마치 시험 전에 교과서를 펼쳐 확인하는 것과 비슷합니다.

RAG는 데이터의 근거를 가져오는 파이프라인이라고 볼 수 있습니다. 보통은 검색, 관련 문서(또는 문서 조각) 선별, LLM에 전달, 답변 생성의 순서로 흐릅니다. 이용자가 질문을 던지면 RAG는 먼저 관련 문서 더미에서 관련성 높은 내용을 꺼내 옵니다. 그리고 그 내용을 LLM에게 넘겨주며 이렇게 말하는 셈입니다.

자, 이 자료를 참고해서 답을 써줘.

덕분에 LLM은 자기 기억(학습된 패턴)만으로 답하는 것이 아니라 실제 문서를 근거로 답할 가능성이 높아집니다.

세 번째 주인공: 온톨로지(개념 지도)

온톨로지(Ontology)는 원래 철학에서 온 용어지만 정보과학에서는 개념(용어)과 그 관계를 체계적으로 정리한 지식 구조를 뜻합니다. 예를 들어 다음과 같은 관계를 규칙처럼 정리해 둔 것입니다.

  • “아스피린은 해열제다.”
  • “해열제는 의약품의 한 종류다.”
  • “의약품은 처방전이 필요한 것과 필요하지 않은 것으로 나뉜다.”

온톨로지는 한마디로 개념 사이 관계를 명시해 둔 지도입니다. 일반적인 RAG가 주로 텍스트 유사도(또는 벡터 유사도)를 기준으로 문서를 찾는다면 온톨로지는 이 개념은 저 개념과 어떤 관계다, 라는 구조 정보를 제공해 검색과 연결을 더 정밀하게 만들 수 있습니다.

셋을 함께 쓰면 무엇이 좋아질까?

LLM만 쓰면 무엇이 달라질까?

예를 들어 AI에게 “우리 회사 취업 규칙 위반 시 처리 절차가 뭐야?”라고 물어보면 그럴듯한 일반론을 길게 늘어놓을 겁니다. 하지만 그 답은 여러 회사에 통할 법한 일반적인 설명일 뿐 해당 회사의 실제 규정이 아닐 가능성이 큽니다. LLM이 그 회사의 내규 문서를 직접 참고하지 않았기 때문입니다.

RAG를 더하면 해결될까?

많이 나아집니다. 이제 AI가 회사 내규 문서를 검색해 참고할 수 있기 때문입니다. 다만 여기서 새로운 문제가 생길 수 있습니다. 일반적인 RAG는 종종 벡터 유사도 기반으로 문서 조각을 가져옵니다. 벡터 유사도(Vector Similarity)는 단어나 문장을 숫자 좌표(벡터)로 바꾼 뒤 그 좌표가 가까운 것끼리 비슷하다고 판단하는 방법입니다. 지도에서 거리가 가까운 두 도시처럼 숫자 공간에서 가까운 개념들을 묶어 냅니다.

이 기준에 따라 징계 절차를 검색하면 징계가 언급된 조각들이 모이는데 이때 논리적으로 이어져야 할 내용이 흩어져 들어올 수 있습니다. 예를 들어 징계 사유는 3조, 처리 절차는 15조, 이의 신청 방법은 22조처럼 떨어져 있는데, 이것들이 하나의 규칙 체계라는 사실을 RAG가 자동으로 이해하고 묶어 주지는 못할 수 있습니다.

이 방식은 유용하지만 왜 이 문서들이 함께 묶여야 하는지 같은 의미 구조와 규칙 체계까지 항상 보장해 주는 것은 아닙니다. 그래서 관련 문서는 가져왔는데도, 답이 어딘가 빠져 있거나 문맥이 어색해지는 경우가 생깁니다.

그래서 온톨로지가 도움이 될 수 있다

예를 들어 징계 처리라는 개념을 검색하면 온톨로지는 그 개념과 연결된 사유 조항 → 절차 조항 → 이의 신청 조항 같은 관계를 구조로 갖고 있을 수 있습니다. 이런 구조를 결합하면 RAG가 문서를 가져올 때 한 덩어리의 규칙 체계를 더 잘 유지하도록 설계할 수 있습니다.

문서 조각을 개별 카드처럼 다루기보다 관계 중심으로 묶어 표현하기도 합니다. 이때 등장하는 표현 중 하나가 하이퍼그래프(Hypergraph)입니다. 하이퍼그래프는 일반 그래프(선이 보통 두 노드를 잇는 구조)와 달리, 하나의 연결(하이퍼엣지)이 세 개 이상의 개념을 동시에 묶을 수 있는 구조입니다. 예를 들어 아스피린 복용이라는 행위는 발열 완화, 통증 감소, 위장 자극과 같은 용어와 한 덩어리로 볼 수 있습니다.

새로운 흐름: LLM이 온톨로지를 만든다

한 가지 흥미로운 변화는, 원래 전문가가 손으로 만들던 온톨로지를 LLM이 초안 형태로 자동 추출하는 시도가 늘고 있다는 점입니다. 예를 들어 LLM은 텍스트에서 다음 작업을 보조할 수 있습니다.

  • 개념의 유형 분류(Term Typing)
  • 계층 관계 발견(Taxonomy Discovery)
  • 비계층적 관계 추출(Non-taxonomic Relation Extraction)

텍소노미(Taxonomy)는 생물 분류처럼 상위-하위 관계로 정리된 계층 구조입니다. 동물 → 포유류 → 고양이과 → 집고양이가 전형적인 예시입니다. 중요한 점은 LLM이 만드는 온톨로지가 보통 완성된 전문가 산출물이라기보다 반자동 초안에 가깝다는 것입니다. 따라서 실제 운영 환경에 쓰려면 여전히 전문가 검토와 품질 관리가 필요합니다.

전체 그림: 세 기술의 협력 구조

지금까지 설명한 내용을 하나로 묶으면 다음과 같습니다.

[사람의 질문]
      ↓
[RAG: 관련 정보 검색]
      ↑
[온톨로지: 의미 구조로 검색 정밀화]
      ↓
[LLM: 검색 결과를 바탕으로 답변 생성]
      ↓
[사람에게 전달]

그리고 동시에:

[LLM: 텍스트에서 온톨로지 구조 추출 보조]
      ↓
[온톨로지: 전문가 검토 후 고도화]
      ↓
[다시 RAG를 더 정확하게]

실무에서 어떻게 설계할까?

세 단계로 정리하면 이렇습니다.

A 단계: LLM만 사용할 때 빠르고 편리합니다. 하지만 최신 정보, 정확한 수치, 도메인 전문 규칙에는 취약합니다. 일반적인 글쓰기나 요약에는 충분합니다.

B 단계: LLM + RAG를 함께 쓸 때 문서 기반 검색으로 신뢰도가 올라갑니다. 그러나 개념 간 관계나 규칙 체계가 중요한 질문에는 검색 노이즈가 남을 수 있습니다. 검색 노이즈(Retrieval Noise)란 관련성은 있어 보이지만 실제로는 불필요하거나 맥락을 흐트러뜨리는 검색 결과를 말합니다.

C 단계: LLM + RAG + 온톨로지를 함께 쓸 때 검색 단계에서 개념과 관계로 필터링하고 확장합니다. 문맥 구성에서 규정-예외, 상하위, 절차 흐름을 유지하도록 설계할 수 있습니다. 생성 단계에서 도메인 규칙을 위반할 가능성을 낮추는 데 도움이 됩니다. 법률, 의료, 산업 현장처럼 정확성이 핵심인 환경에 특히 유용합니다.

그러나 이 순환에는 함정이 있다

LLM이 온톨로지를 만들고 그 온톨로지로 RAG를 개선하고 더 나은 LLM이 더 나은 온톨로지를 만드는 선순환은 매력적으로 들립니다. 하지만 여기에는 진지하게 고려해야 할 위험이 있습니다.

LLM이 자동으로 생성한 온톨로지에 오류가 있다고 가정해 보겠습니다. 그 온톨로지를 기반으로 RAG가 검색하면 잘못된 정보가 LLM에게 전달됩니다. 그러면 LLM이 그것을 정제된 구조인 양 다시 사용하게 되어 오류가 증폭되는 루프가 생길 수 있습니다. 그래서 실무에서는 보통 다음 원칙이 중요합니다.

  • LLM이 자동 생성한 온톨로지(초안)와 전문가가 검증한 온톨로지(확정본)를 구분한다.
  • 검증 전 온톨로지는 RAG의 핵심 기준점(앵커)으로 직접 쓰지 않는다.

여기서 앵커(anchor)는 검색과 확장의 기준점이 되는 핵심 개념을 뜻합니다. 이 개념을 중심으로 가져와라, 는 뜻입니다.

세 기술이 함께할 때 비로소 완성된다

LLM은 글을 잘 쓰지만 사실 확인이 약합니다. RAG는 문서를 가져오지만 그 문서들 사이의 관계는 모릅니다. 온톨로지는 개념 지도를 갖고 있지만 혼자서는 아무것도 못 씁니다.

셋이 역할을 나눠 붙으면 근거 있고 맥락이 이어지는 답변이 나옵니다. 법률이나 의료처럼 틀리면 안 되는 영역에서 AI를 실제로 쓰려면 이 셋의 조합을 이해해 두는 게 좋습니다.

핵심 용어

용어 한 줄 설명
LLM 방대한 텍스트를 학습해 글을 쓰는 AI 엔진
RAG AI가 답하기 전에 관련 문서를 검색해 참고하게 하는 방법
온톨로지 개념들 사이의 관계를 정리한 구조화된 지식 지도
벡터 유사도 단어·문장을 숫자로 변환해 “가까운 것 = 비슷한 것”으로 판단하는 방법
하이퍼그래프 여러 개념을 동시에 연결하는 고차원 관계 표현 구조
임베딩 단어·문장을 숫자 벡터로 변환하는 과정
지식 그래프(KG) 개념과 개념 사이의 관계를 점과 선으로 표현한 관계형 데이터 구조(그래프)
GraphRAG 지식 그래프 구조를 활용하는 RAG 변형 방식
검색 노이즈 관련 있어 보이지만 맥락을 흐트러뜨리는 불필요한 검색 결과
앵커 검색의 기준점이 되는 핵심 개념
파이프라인 여러 처리 단계가 순서대로 연결된 자동화 흐름

Read more

SKT의 풀스택 AI 전략을 상징하는 일러스트. 바르셀로나 야경 위에 인프라, 모델, 서비스 세 층이 빛의 탑처럼 쌓여 있으며, MWC 2026 선언을 시각화한 편집 일러스트레이션.

풀스택 AI, MWC 2026에서 밝힌 SKT의 선언

SKT가 MWC 2026에서 풀스택 AI를 선언했습니다. 컴퓨터 설비, AI 두뇌, 이용자 서비스까지 세 층 전부를 직접 쥐겠다는 선언입니다. 통신사가 이 언어를 쓴다는 것 자체가 비교 대상이 KT가 아니라 구글과 마이크로소프트임을 뜻합니다. AI 시대에는 한 층만 잘해서는 시장을 쥘 수 없습니다. 데이터, 모델, 서비스가 맞물려 돌아가는 선순환을 가진 기업이 이깁니다. SKT의 선언은 용감합니다. 실현 여부는 MWC 이후가 답할 것입니다.

끝없이 늘어선 철창 속 바코드 찍힌 인간 실루엣들, 컨베이어 벨트 위를 화물처럼 이동한다.  유령처럼 떠도는 PDF엔 "60 is fine" 메모가 선명하다. 등 돌린 자유의 여신상.  미국 메가 구금 시스템을 비판한 디스토피아 editorial 일러스트.

DHS의 디지털 수용소: 효율이 인권을 무시하기 시작했다

트럼프 행정부의 이민 단속 계획이 PDF 메타데이터 실수로 전모가 드러났다. ICE의 '구금 재설계 이니셔티브(DRI)'는 전국을 34개 메가 구금 시설로 재편해 최대 9만 2,600명을 수용하는 인간 물류 시스템이다. 유엔 ICCPR 제9조, 비례성 원칙, 아동권리협약과 정면으로 충돌하는 이 계획은 행정 효율이라는 이름 아래 인간 존엄을 제물로 삼는다. 기술적 무능이 폭로한 문명적 퇴행의 기록의 문제를 점검한다.

AI 안전의 이중적 딜레마를 표현한 개념적 분할 화면 일러스트. 왼쪽은 황금빛 입자로 된 AI가 'Ethics'와 'Trust & Alignment'라고 적힌 책을 든 채 따뜻한 후광에 둘러싸인 '정렬'의 상태를, 오른쪽은 차가운 푸른 빛의 기하학적 유리 케이지 안에 갇힌 '통제'의 상태를 묘사한다.

AI 안전성: 앤트로픽 연구원 사임이 던진 근본적 질문

2026년 2월, AI 안전 분야 선두주자 앤트로픽(Anthropic)의 안전 장치 연구팀 리더 므리난크 샤르마(Mrinank Sharma)가 '세계는 위기에 처해 있다'는 말을 남기고 시(詩) 공부를 위해 사임했다. 그의 사임서는 AI 안전성의 두 가지 접근법, AI에게 올바른 가치를 심어주는 '정렬(Alignment)'과 위험한 능력을 원천 차단하는 '역량 제어(Capability Control)'이 모두 근본적 딜레마에 직면했음을 드러낸다. 기술이 아니라 AI를 만드는 인간과 조직의 문제로 귀결된다는 것이 핵심 메시지다.

해 질 녘 부드러운 불빛이 감도는 서울 거리를 배경으로, 표정이 풍부한 세 개의 동그란 배지 캐릭터들이 돌담 위에 나란히 앉아 있다.

귀여움이라는 무기와 한국이 만든 저항의 문법

2026년 미국 ICE 단속에 저항하는 포틀랜드의 메이커 카시디는 "귀여움을 무기화하라"고 말한다. 걸리(girly) 문화는 분노 대신 기쁨으로 싸우는 저항의 언어다. K-Pop 팬덤의 털사 집회 공작(2020), 이화여대 점거(2016), 탈코르셋 운동(2018)까지. 한국이 이 문화를 어떻게 전 세계 저항의 문법으로 번역했는지 추적한다. 역사는 언제나 귀여운 쪽이 더 오래 버텼다고 말한다. 앞으로도 그 문법은 변하지 않을 것이다.