8.1. 그래프와 LLM의 시너지 – 하이브리드 AI 시스템의 구조
서론: 두 기술의 만남이 필요한 이유
오늘날 기업 환경에서 대규모 언어 모델(LLM)은 혁신적인 가능성을 제시하며 비즈니스 프로세스를 변화시키고 있습니다. LLM은 방대한 텍스트 데이터를 학습하여 인간과 유사한 수준의 언어 구사 능력을 보여주지만, 명확한 한계 또한 가지고 있습니다. 모델의 지식은 특정 시점에 고정되어 있어 최신 정보를 반영하지 못하며, 때로는 사실과 다른 정보를 그럴듯하게 생성하는 ‘할루시네이션(환각)’ 문제를 일으키기도 합니다. 이는 신뢰성이 생명인 기업 환경에서 치명적인 약점이 될 수 있습니다.
한편, 데이터를 저장하고 관리하는 전통적인 데이터베이스 시스템은 정형화된 데이터를 효율적으로 처리하는 데에는 뛰어나지만, 데이터 요소들 간의 복잡하고 미묘한 관계를 탐색하는 데에는 비효율적일 수 있습니다. 여러 테이블을 연결하는 복잡한 JOIN 연산은 쿼리 성능을 저하시키고, 데이터에 내재된 깊은 통찰력을 발견하기 어렵게 만듭니다.
이러한 배경에서 LLM과 Neo4j와 같은 속성 그래프 데이터베이스(Property Graph Database)를 결합한 하이브리드 AI 시스템은 각 기술의 단점을 상호 보완하고 강력한 시너지를 창출하는 핵심 전략으로 부상하고 있습니다. 그래프 데이터베이스는 데이터 간의 관계를 중심으로 정보를 저장하여, LLM에게 기업이 보유한 최신 데이터에 기반한 정확하고 동적인 컨텍스트를 제공합니다. 이 하이브리드 구조를 통해, 기업은 산재한 데이터로부터 더 깊이 있는 통찰력을 얻고, 환각 현상을 획기적으로 줄인 신뢰도 높은 답변을 생성할 수 있습니다. 본 장에서는 이 두 기술을 결합하여 차세대 AI 시스템을 구축하는 구체적인 아키텍처와 그 과정을 단계별로 상세히 설명하고자 합니다.
8.1.1.사전 지식그래프 구축
이 단계는 하이브리드 AI 시스템의 성공을 좌우하는 가장 중요한 초석입니다. 사전 지식그래프 구축은 LLM에게 특정 비즈니스 도메인에 대한 깊이 있는 지식을 제공하는 ‘두뇌’ 또는 ‘장기 기억 저장소’를 만들어주는 과정과 같습니다. 기업 내부에 흩어져 있는 비정형 문서, 보고서, 데이터베이스 등의 자산을 단순히 모아두는 것을 넘어, 그 안에 담긴 정보들을 서로 연결된 지식 네트워크로 변환하는 작업입니다. 잘 구축된 지식그래프는 LLM이 사실에 기반하여 추론하고 답변할 수 있는 견고한 토대를 제공하며, AI 시스템 전체의 신뢰성과 정확성을 결정하는 핵심 기반이 됩니다. 여기서 설명하는 아키텍처는 이처럼 안정적으로 사전 구축된 지식 베이스를 질의하는 데 초점을 맞춘 것으로, 상호작용할 때마다 그래프가 실시간으로 진화하는 ‘에이전트 메모리(Agentic Memory)’ 시스템과는 구별된다는 점을 참고해 주시기 바랍니다.
LLM을 활용하여 기업의 비정형 텍스트 데이터로부터 Neo4j와 같은 속성 그래프 데이터베이스(Property Graph Database)에 지식그래프를 구축하는 과정은 다음과 같은 세부 단계로 이루어집니다.
1단계: 데이터 처리 및 핵심 정보 추출 (Entity & Relationship Extraction)
첫 번째 단계는 LLM이 기업이 보유한 방대한 양의 비정형 텍스트 문서(예: 내부 기술 문서, 프로젝트 보고서, 시장 분석 자료 등)를 읽고 이해하는 과정입니다. 이는 마치 도메인 전문가가 문서를 정독하며 핵심 내용을 파악하는 것과 유사합니다.
LLM은 자연어 처리 능력을 활용하여 텍스트 내에서 중요한 의미를 가지는 핵심 개체(Entity)를 식별합니다. 예를 들어, 인물, 회사, 제품, 기술 용어 등이 이에 해당합니다. 그리고 단순히 개체를 찾아내는 것을 넘어, 이들 사이의 관계(Relationship)까지 추출합니다. 예를 들어, “‘Quantum Systems’는 'NeoChip'이 상장되기 전인 2016년부터 이 회사를 소유했다”는 텍스트에서 LLM은 NeoChip과 Quantum Systems라는 개체와 소유했다(owned)는 관계, 그리고 시작 및 종료 시점과 같은 속성 정보를 구조화된 데이터로 뽑아냅니다. 이 과정을 통해 비정형 텍스트가 기계가 처리하고 분석할 수 있는 정형화된 지식 조각들로 변환됩니다.
2단계: 그래프 데이터 변환 및 적재 (Graph Construction)
다음으로, 앞에서 추출된 구조화된 지식 조각들을 그래프 데이터베이스에 저장합니다. 이 과정에서 각 데이터 요소는 그래프 모델의 기본 구성 요소로 매핑됩니다.
개체(Entity)는 그래프의 노드(Node)가 됩니다.
관계(Relationship)는 두 노드를 연결하는 관계(Relationship)가 됩니다.
예를 들어, ‘Quantum Systems’와 ‘NeoChip’은 각각의 노드로 생성되고, ‘소유했다’는 정보는 ‘Quantum Systems’ 노드에서 ‘NeoChip’ 노드로 향하는 OWNED라는 유형의 관계로 표현될 수 있습니다. 이렇게 텍스트 속 문장들은 서로 유기적으로 연결된 지식 네트워크, 즉 지식그래프(Knowledge Graph)로 재탄생합니다. 이로써 데이터는 더 이상 고립된 조각이 아닌, 관계 속에서 새로운 의미를 갖는 자산이 됩니다.
3단계: 검수 및 고도화
LLM이 자동으로 지식그래프를 채워나가는(populating) 능력은 매우 뛰어나지만, 그 결과물이 완벽하다고 할 수는 없습니다. 특히 지식그래프의 청사진 역할을 하는 핵심 온톨로지(Ontology), 즉 스키마를 설계하는 과정은 매우 신중한 전략적 접근이 필요합니다.
핵심 온톨로지 설계는 도메인 전문가의 깊이 있는 통찰력을 바탕으로 이루어져야 합니다. 비즈니스의 핵심 개념과 그들 사이의 관계를 어떻게 표준화하고 단순화할 것인지를 결정하는 이 과정은 AI 시스템의 일관성과 정확성을 좌우하는 기반이 됩니다. LLM은 이렇게 전문가가 설계한 온톨로지에 따라 방대한 데이터로부터 인스턴스를 추출하고 그래프를 채우는 데 탁월한 성능을 보입니다.
하지만 핵심 스키마 설계 자체를 LLM에 전적으로 자동화하려는 시도는 매우 위험할 수 있습니다. 이는 기존 데이터 모델에 내재된 결함이나 불일치를 오히려 증폭시켜, 결과적으로 지식그래프 전체의 논리적 일관성과 정확성을 훼손할 위험이 크기 때문입니다. 따라서 LLM이 추출한 ‘이도’와 ‘세종대왕’이 동일 인물임을 확인하고 하나의 노드로 병합(Entity Resolution)하는 것과 같은 데이터 정제 작업과 더불어, 전문가 주도의 온톨로지 설계는 지식그래프의 품질을 최고 수준으로 끌어올리기 위한 필수적인 고도화 과정입니다.
이 단계의 최종 목표는 기업 내부에 흩어져 있던 정보들을 AI가 탐색하고, 연결하고, 추론할 수 있는 ‘살아있는 지식 자산’으로 전환하는 것입니다. 이제, 이렇게 잘 구축된 지식그래프를 기반으로 사용자의 질문에 어떻게 지능적으로 답변하는지 다음 절에서 구체적으로 살펴보겠습니다.
8.1.2. 질의 응답
사전에 구축된 지식그래프는 이제 AI 시스템의 강력한 두뇌 역할을 할 준비가 되었습니다. ‘질의 응답’ 단계는 바로 이 지식그래프를 활용하여 사용자의 질문에 정확하고 깊이 있는 답변을 제공하는, 하이브리드 AI 시스템의 가치가 실현되는 순간입니다.
여기서 우리는 단순 정보 검색을 넘어선 ‘그래프 검색 증강 생성(GraphRAG)‘이라는 한 차원 진보된 접근법을 사용합니다. 기존의 RAG(Retrieval-Augmented Generation)는 벡터 검색을 통해 의미적으로 유사한 텍스트 ‘조각’들을 찾아 LLM에게 제공합니다. 하지만 이 방식은 지식을 단절된 사실들의 집합으로 취급하며, 사실들이 어떻게 연결되어 있는지에 대한 인식이 부족합니다. 이로 인해 여러 정보를 넘나드는 복잡한 추론에 근본적인 한계를 보입니다. GraphRAG는 지식그래프의 구조적 정보를 활용하여 단편적인 사실들을 넘어, 서로 연결된 ‘맥락’을 검색하고 이를 기반으로 답변을 생성합니다. 이를 통해 기존 RAG의 한계를 극복하고 훨씬 더 정확하며 맥락이 풍부한 답변을 생성할 수 있습니다.
사용자가 질문을 입력했을 때부터 최종 답변을 받기까지의 GraphRAG 프로세스는 다음과 같은 4단계의 흐름으로 진행됩니다.
1단계: 사용자 질문 이해 및 분석
모든 과정은 사용자의 자연어 질문으로부터 시작됩니다. 예를 들어, 사용자가 “프로스퍼 로보틱스 창업자들의 최신 소식은 무엇인가요?“와 같은 질문을 입력하면, LLM이 먼저 이 질문의 의도를 분석합니다. LLM은 질문의 핵심이 ‘프로스퍼 로보틱스’라는 회사와 그 ‘창업자들’, 그리고 그들과 관련된 ‘최신 소식’이라는 것을 파악합니다. 이 단계는 답변을 찾는 데 필요한 핵심 개체와 관계가 무엇인지를 명확히 정의하는 과정입니다.
2단계: 지식그래프 탐색 및 정보 검색 (Knowledge Retrieval)
질문의 의도가 파악되면, 시스템은 사전 구축된 Neo4j 지식그래프에서 관련 정보를 탐색합니다. 이 과정에서 LLM은 분석된 질문 의도를 바탕으로 그래프를 조회할 쿼리를 생성합니다. 여기서 LLM이 직접 Neo4j의 그래프 조회 언어인 Cypher 쿼리를 생성하는 ‘Text2Cypher’ 방식은 가장 유연하고 강력한 접근법 중 하나입니다. Cypher는 Neo4j와의 상호작용을 통해 사실상의 산업 표준으로 자리 잡았으며, 새로운 국제 표준 그래프 질의 언어인 GQL(Graph Query Language)에도 큰 영향을 주었습니다.
예를 들어, 위의 질문에 대해 LLM은 다음과 유사한 Cypher 쿼리를 생성할 수 있습니다.
다만, Text2Cypher 방식은 마치 ‘그림을 그리는 것’과 같아서 자유도가 높은 만큼 실패의 가능성도 존재합니다. 따라서 실제 시스템 아키텍처에서는 이 외에도 정해진 패턴의 쿼리만 허용하는 ‘Cypher 템플릿’이나, 정해진 블록을 조립하듯 쿼리를 구성하는 ‘동적 Cypher 생성’ 같은 더 제약적이고 안정적인 방식들을 함께 고려하여 유연성과 신뢰성 간의 균형을 맞추는 전략을 취합니다.
이러한 방식들의 공통된 강력함은 단순 키워드 검색을 뛰어넘는 ‘다중 홉(Multi-hop)‘ 추론에 있습니다. 위 쿼리는 ‘프로스퍼 로보틱스’라는 회사(1홉)와 관련된 ‘창업자’를 찾고(2홉), 다시 그 창업자들이 언급된 ‘최신 기사’를 찾아내는(3홉) 복잡한 관계 추적을 단 한 번의 질의로 수행합니다. 이처럼 그래프 구조를 따라 여러 단계의 관계를 넘나들며 정보를 탐색하는 능력은 GraphRAG만이 제공할 수 있는 독보적인 장점입니다.
3단계: 검색 결과 기반의 컨텍스트 강화 (Context Augmentation)
Neo4j로부터 검색된 결과는 정확하고 구조화된 데이터(사실 정보)의 집합입니다. 이 데이터는 LLM에게 전달될 최종 프롬프트를 구성하는 데 사용됩니다. 즉, 원래의 사용자 질문과 함께 Neo4j에서 가져온 ‘창업자들의 이름, 관련 기사 제목, 날짜’ 등의 사실 정보가 하나의 강화된 컨텍스트로 결합됩니다.
이 단계는 LLM이 창의적인 답변을 생성하되, 반드시 제공된 ‘사실’에 근거하도록 만드는 핵심적인 ‘가드레일’ 역할을 합니다. LLM이 마음대로 정보를 꾸며내는 것을 방지하고, 지식그래프라는 신뢰할 수 있는 출처 내에서만 답변을 구성하도록 강제하는 것입니다.
4단계: 근거 기반의 최종 답변 생성 (Grounded Response Generation)
마지막으로, 사실 정보로 강화된 컨텍스트를 입력받은 LLM이 사용자에게 제공할 최종 답변을 자연스러운 문장으로 생성합니다. 예를 들어, 다음과 같은 답변이 생성될 수 있습니다.
“프로스퍼 로보틱스의 창업자들에 대한 최신 소식은 다음과 같습니다. 창업자 A는 최근 ‘AI 윤리’에 관한 기사에서 언급되었으며, 창업자 B는 ‘차세대 로봇 기술’ 관련 최신 논문을 발표했습니다. [출처: 기사 A, 논문 B]”
이렇게 생성된 답변은 지식그래프에서 가져온 명확한 데이터에 기반하므로, ‘할루시네이션’을 획기적으로 줄일 수 있습니다. 사용자는 신뢰할 수 있는 정보를 얻게 되며, 필요하다면 답변의 근거가 된 출처까지 확인할 수 있습니다.
결론적으로, GraphRAG 기반의 하이브리드 아키텍처는 기업의 AI 도입에 있어 다음과 같은 중대한 비즈니스 가치를 제공합니다.
- AI 할루시네이션의 비즈니스 리스크 완화: 모든 답변이 검증된 내부 지식그래프 데이터에 근거하므로, 사실과 다른 정보를 제공하여 발생할 수 있는 법적, 재정적, 평판 리스크를 크게 줄일 수 있습니다. 이는 기업이 생성형 AI를 핵심 업무에 자신 있게 도입할 수 있는 기술적 안전장치가 됩니다.
- 기존 데이터 자산으로부터 더 깊이 있는 통찰력 확보: 데이터 간의 관계를 직접 탐색하여 “A와 관련 있는 B의 C는 무엇인가?”와 같은 복잡한 질문에 답할 수 있습니다. 이는 사일로에 갇혀 있던 데이터들을 연결하여, 이전에는 발견할 수 없었던 새로운 비즈니스 기회와 숨겨진 패턴을 발견하게 해줍니다.
- 신뢰할 수 있고 감사 가능한(Auditable) AI 시스템 구축: 기존 RAG의 의사결정 과정이 ‘완전히 불투명(completely opaque)’했던 것과 달리, GraphRAG는 AI가 ‘왜 그렇게 답변했는지’에 대한 근거를 그래프 경로를 통해 명확히 추적하고 제시할 수 있습니다. 이는 AI 시스템의 투명성을 확보하고, 규제 준수 및 내부 감사 요구사항을 충족시키는 핵심적인 설명 가능성(Explainability)을 제공합니다.
이러한 장점들은 GraphRAG가 단순한 기술적 발전을 넘어, 기업이 AI를 도입하여 실질적인 비즈니스 가치를 창출하는 데 있어 왜 중요한 전략적 선택지가 되는지를 명확히 보여줍니다.

