NerdVana
  • 홈
  • About
  • 아카이브
  • 메인으로
블로그로 돌아가기

LLM으로 고인돌과 고분을 다시 읽는 법: 비밀이 아니라 맥락을 복원하는 기술

LLM은 고인돌·고분의 정답을 발굴하지 않는다. 대신 파편화된 기록을 정리하고, 지역·시기·용어의 불일치를 드러내며, 검증 가능한 질문을 생성한다. RAG·멀티모달·공간 데이터 결합은 ‘설명’이 아니라 ‘검증 루프’를 강화하는 장치다. 기술은 유산을 대신 해석하지 않으며, 해석의 책임은 언제나 질문하는 사람에게 남는다.
조회 10
# LLM으로 고인돌과 고분을 다시 읽는 법: 비밀이 아니라 맥락을 복원하는 기술 ![대표 이미지: LLM 기술로 고고학 기록을 정리하고 맥락을 복원하는 과정](https://nerdvana.kr/download?f=20260120_120249_1eb8b226.jpg) LLM은 역사를 대체하지 않는다. 다만 우리가 놓친 연결을 다시 보게 만든다. 내가 지금 고인돌과 고분을 LLM으로 이야기하는 이유는 단순하다. 유산의 난점은 신비가 아니라 기록의 단절이며, 단절은 대개 정리와 검증의 문제로 남기 때문이다. 여기서 말하는 “비밀”은 미스터리가 아니다. **데이터의 빈틈**이다. 고인돌과 고분은 한국 고고학의 중심축이다. 그러나 대중의 언어로는 “거대한 돌”과 “큰 무덤”으로 평평해지기 쉽다. 현장과 기록의 언어는 더 복잡하다. 표기 체계가 다르고, 같은 단어가 다른 뜻으로 쓰이며, 발굴보고서와 전시 해설문은 서로 다른 목적을 가진다. LLM은 그 복잡성을 없애는 도구가 아니다. 복잡성의 구조를 드러내는 도구다. ## 유산의 난점은 ‘발굴’이 아니라 ‘정리되지 않은 기록’에 있다 고인돌과 고분에 대한 정보는 이미 많다. 발굴보고서, 논문 초록, 박물관 해설문, 지자체 문화재 기록, 사진 캡션 같은 자료가 층층이 쌓여 있다. 문제는 양이 아니라 결이 다르다는 점이다. 한 자료의 문장은 ‘학술 분류’를 위한 문장이고, 다른 자료의 문장은 ‘관람객 이해’를 위한 문장이다. 이 결의 차이가 누적되면, 같은 유산이 서로 다른 유산처럼 읽힌다. 고고학은 원래 파편을 다루는 학문이다. 파편은 유물만이 아니다. 기록도 파편이다. 예컨대 지명 표기가 시대와 기관에 따라 흔들리고, 시대 구분이 문서마다 다르게 요약되며, 용어가 ‘동의어처럼’ 섞여 쓰인다. “석실묘/돌방무덤” 같은 쌍은 대표적이다. 이때 연구자에게 필요한 것은 더 그럴듯한 설명이 아니라, 불일치가 어디서 생겼는지 추적하는 능력이다. 나는 데이터 파이프라인을 다루며 한 가지를 배웠다. 데이터는 옮기는 순간보다 ‘의미가 어긋나는 순간’이 무섭다. 고분 양식 분류도 결국 타입 불일치와 싸우는 일이다. LLM은 그 싸움을 대신하지 않는다. 다만 불일치의 후보를 빠르게 드러낸다. > 여기서부터는 기술이 아니라 태도의 문제다. ## LLM이 바꾸는 것은 ‘정답’이 아니라 ‘질문의 품질’이다 LLM이 강한 지점은 두 가지다. 첫째, 문서 묶음에서 반복 구조를 찾아 항목화하는 능력이다. 둘째, 서로 다른 문서의 표현 차이를 비교해 “같은 현상을 다른 언어로 말한 흔적”을 제안하는 능력이다. 이 능력은 역사적 사실을 생성하는 능력과 다르다. 전자는 정리이고, 후자는 창작에 가깝다. 우리는 전자를 쓰고 후자를 경계해야 한다. 고인돌·고분 연구에서 LLM을 쓰는 이유는 “숨은 비밀을 풀기”가 아니다. **잃어버린 맥락을 복원하기 위한 질문을 생성**하기 위해서다. 기술은 답을 내놓는 대신, 답이 성립하려면 무엇이 더 필요했는지 보여준다. 이때 중요한 것은 모델의 유창함이 아니라, 근거가 문서로 환원되는가 하는 점이다. ![발굴-정리-해석-검증 파이프라인 구조 이미지](https://nerdvana.kr/download?f=20260120_120300_e0f5613c.jpg) LLM을 ‘발굴-정리-해석-검증’의 파이프라인으로 놓으면 윤곽이 선명해진다. 고고학의 절차와 기술의 절차가 닮아 있기 때문이다. 발굴이 현장에서 흙을 걷어내는 일이라면, LLM 파이프라인은 문서에서 잡음을 걷어내는 일에 가깝다. 그리고 마지막은 늘 검증이다. ## 발굴-정리-해석-검증: LLM 파이프라인의 실제 형태 ### 1) 발굴: 자료 수집은 ‘많이’가 아니라 ‘다양하게’가 핵심이다 LLM에 넣을 자료는 논문만이 아니다. 발굴보고서, 전시 해설, 문화재 지정 문서, 사진 캡션, 지자체 기록은 서로 다른 관점을 가진다. 관점이 다르면 편향도 다르고, 편향이 다르면 서로의 빈틈을 메울 수 있다. 수집 단계에서부터 “한 종류의 문서만으로 세계를 만들지 않겠다”는 원칙이 필요하다. 다만 여기서 욕심을 부리면 곧바로 무너진다. 문서의 품질과 출처가 정리되지 않으면, LLM은 혼합된 언어를 그대로 섞어 그럴듯한 문장을 만든다. 그럴듯함은 이 단계에서 가장 위험한 신호다. ### 2) 정리: 텍스트 정규화는 고고학의 ‘측량’에 해당한다 정규화는 화려하지 않다. 지명 표기를 통일하고, 시대 구분 표기를 맞추고, 용어를 표준화한다. 이 과정은 읽는 사람에게는 지루하지만, 해석의 오류를 줄이는 가장 값비싼 작업이다. ![LLM 검증 실패 사례와 근거 추적 메커니즘 이미지](https://nerdvana.kr/download?f=20260120_120309_87ae79ff.jpg) 나는 보통 정규화를 세 층으로 나눈다. 첫째, 표기 통일(띄어쓰기, 한자/한글, 로마자 표기). 둘째, 동의어 맵(석실묘/돌방무덤 같은 표현을 같은 노드로 묶되, 문서별 사용 맥락은 보존). 셋째, 메타데이터(문서 출처, 작성 시점, 목적, 요약 수준)다. LLM은 이 메타데이터가 있을 때 비로소 “왜 이런 문장이 나왔는지”를 설명할 수 있다. 정리 단계는 기술의 문제가 아니라 해석 윤리의 문제이기도 하다. 어떤 용어를 표준으로 삼는 순간, 다른 언어의 흔적이 지워진다. 따라서 통일은 ‘삭제’가 아니라 ‘연결’이어야 한다. 원문 표현을 남기고, 표준 표현을 병기하는 방식이 안전하다. ### 3) 해석: 요약·비교는 ‘가설 생성’까지만 허용된다 해석 단계에서 LLM이 하는 일은 대개 세 가지다. 첫째, 문서군별 핵심 문장 추출과 요약. 둘째, 지역·시기별 서술 패턴 비교. 셋째, 분류 체계의 충돌 지점 탐지다. 여기서 한 번은 의도적으로 모델을 흔들어볼 필요가 있다. 같은 고분군에 대해 서로 다른 문서를 주고 “핵심 차이를 표로 뽑아라”라고 시키면, 모델은 빈칸을 채우려는 충동을 드러낸다. 그 순간이 가장 위험하다. 모델은 모른다고 말하기보다, 문장으로 세계를 완성하려 한다. 따라서 해석은 가설까지만이다. “이런 연결이 가능하다”는 후보를 만들고, 다음 단계에서 그 후보를 깨뜨리는 방향으로 검증한다. LLM은 정리와 비교에 쓰고, 결론은 사람의 몫으로 남겨야 한다. ### 4) 검증: RAG는 ‘아는 척 금지’ 장치다 2026년의 실무에서 LLM을 안전하게 쓰는 기본 장치는 RAG(검색 결합 생성)다. RAG의 핵심은 성능이 아니라 태도다. 모델이 답을 만들기 전에 문서에 다시 묻게 만든다. 나는 보통 출력 규칙을 단순하게 잡는다. - 주장마다 근거 문장을 붙인다. - 근거 문장은 문서 ID와 함께 제시한다. - 근거가 없으면 “근거 없음”이라고 쓰게 한다. 이 규칙 하나로 문장의 성격이 바뀐다. 설명이 아니라 기록이 된다. 그리고 기록은 반박 가능해진다. 멀티모달도 같은 방향에서 이해해야 한다. 사진·도면·현장 이미지에서 특징을 읽어 텍스트와 맞물리게 할 수 있다. 그러나 이미지 해석은 특히 착시가 잦다. 따라서 멀티모달은 “결정”이 아니라 “대조”에 써야 한다. 텍스트의 설명과 이미지의 특징이 충돌하는 지점을 찾아내는 데 가치가 있다. 지도와 공간 데이터 결합은 또 다른 종류의 검증이다. 분포를 지도 위에 올리면, 특이 분포가 보인다. 특이 분포는 곧바로 ‘의미’가 아니다. 다만 “왜 이곳만 다른가”라는 질문을 강제한다. LLM은 그 질문을 정교하게 만들 수 있다. ## 실패 사례: 그럴듯한 오답이 가장 고약하다 LLM의 실패는 대개 세 범주로 나타난다. 첫째, 시대 착오다. 서로 다른 시기의 특징을 한 문단에 섞는다. 둘째, 지명 혼동이다. 동명이 지명, 행정구역 변천, 표기 차이를 하나로 뭉갠다. 셋째, 근거의 환각이다. 실제 문서에 없는 문장을 “인용처럼” 만들어낸다. 나는 이 실패를 일부러 노출시키는 편을 택한다. 모델에게 “출처를 달라”고 요구하고, 그 출처 문장을 원문에서 대조한다. 대조 과정에서 모델의 습관이 드러난다. 모델이 틀렸다는 사실보다, **어떤 조건에서 틀리는지**가 더 중요하다. 검증 루프는 기술 장치이면서 동시에 글쓰기 윤리다. 독자는 전문가가 아닐 수 있다. 따라서 글쓴이는 “그럴듯함”을 제거할 책임이 있다. LLM을 쓴 글일수록, 근거로 돌아가는 습관이 문장의 품격을 만든다. ## 독자가 따라 할 수 있는 질문 템플릿 5개 아래 템플릿은 LLM을 ‘설명 기계’가 아니라 ‘정리·대조 기계’로 쓰기 위한 장치다. 가능하면 RAG 환경에서, 문서 출처를 붙이는 설정으로 실행하는 편이 낫다. 1. **반복 구조 추출** - “이 고분군 설명 문서들에서 반복되는 구조를 (입지/축조 방식/내부 구조/부장 관련 서술) 항목으로 나눠 정리해줘. 각 항목마다 근거 문장을 문서 ID와 함께 붙여줘.” 2. **용어 불일치 탐지** - “문서 A와 문서 B에서 같은 대상을 가리키는 듯하지만 다른 단어로 쓰인 표현을 찾아줘. 동의어 후보와, 문맥 차이를 함께 적어줘.” 3. **시기·지역별 비교 표** - “A 지역과 B 지역의 고인돌 설명을 비교해, (형태 묘사/분포 서술/해석 프레임)에서 차이가 나는 지점을 표로 만들어줘. 각 칸에 근거 문장도 넣어줘.” 4. **주장-근거 분리** - “이 문서에서 ‘관찰(사실 서술)’과 ‘해석(추정·평가)’을 분리해줘. 해석으로 분류한 문장은 왜 해석인지 기준을 함께 적어줘.” 5. **검증 계획 생성** - “지금까지 요약한 내용 중 근거가 약한 주장 5개를 골라줘. 각 주장마다 확인해야 할 1차 자료 유형(발굴보고서/도면/사진/지정 문서 등)과 확인 절차를 제안해줘.” 이 템플릿의 목적은 하나다. 모델이 말하게 하지 말고, 문서가 말하게 하는 것. LLM은 그 사이를 정리하는 비서로만 두는 것이 안전하다. ## 본질: 기술은 유산을 ‘복원’하지 못한다, 다만 우리의 질문을 복원한다 고인돌과 고분은 오래된 돌과 흙의 구조물이 아니다. 그것은 공동체의 노동, 권력의 표식, 죽음을 다루는 제도, 기억의 기술이 겹친 결과물이다. 따라서 해석은 언제나 불완전할 수밖에 없다. 불완전함을 인정하는 태도가 곧 학문의 품격이다. LLM은 이 불완전함을 제거하지 못한다. 오히려 불완전함을 숨길 가능성이 있다. 유창한 문장은 빈틈을 가린다. 그래서 LLM을 쓰는 사람은 더 엄격해져야 한다. 더 많은 출처, 더 촘촘한 용어, 더 잦은 대조가 필요하다. 그럼에도 LLM이 가치 있는 이유는 분명하다. 우리가 놓친 연결을 후보로 제시하고, 기록의 불일치를 노출하며, 질문의 수준을 끌어올린다. 고고학에서 진전은 대개 거대한 발견이 아니라, 작은 정합성의 누적에서 나온다. LLM은 그 누적을 돕는 도구가 될 수 있다. ## 결론: 유산은 땅속에 묻혀 있지 않다 고인돌과 고분의 “비밀”은 숨겨진 정답이 아니다. 기록이 흩어져 생긴 공백이다. LLM은 그 공백을 메우기보다, 공백의 모양을 정확히 그려준다. 그리고 그 모양이 보일 때 비로소, 우리는 다음 발굴을 어떤 질문으로 시작해야 하는지 알게 된다. 유산은 땅속에 묻혀 있지 않다. 우리가 덜 정교하게 물어왔던 질문 속에 묻혀 있다.
10
조회수
0
좋아요
0
공유

관련 포스트

2026년 AI 대 AI 사이버전쟁: 북한 해커의 가상자산·방산 기술 탈취에 맞서는 방어의 질서

2026년 AI 대 AI 사이버전쟁: 북한 해커의 가상자산·방산 기술 탈취에 맞서는 방어의 질서

AI 대 AI 사이버전쟁은 이미 시작되었고, 문제는 속도가 아니라 방어의 질서다. 북한 해커 이슈를 공포가 아닌 ‘목표-수단-환경’으로 구조화하면, 가상자산 탈취와 방산 기술 유출은 예측 가능한 경제 모델로 읽힌다. 완벽한 방어가 아니라 피해 확산을 멈추는 우선순위가 승패를 가른다.

2026년 한국 기업의 AI 에이전트: 기록과 결재의 문법을 다시 쓰는 자동화

2026년 한국 기업의 AI 에이전트: 기록과 결재의 문법을 다시 쓰는 자동화

2026년의 AI 에이전트는 유행이 아니라, 기업의 의사결정 구조를 재배치하는 기술이다. 한국 기업의 도입은 ‘자율 실행’보다 ‘감사 가능한 위임’으로 수렴하며, 성패는 모델 성능이 아니라 데이터 표준화·권한 설계·로그와 재현성에 달려 있다.

2026년 AI 시대 한국 기업의 디지털 전환: 데이터 인프라와 규제 대응의 질서 설계

2026년 AI 시대 한국 기업의 디지털 전환: 데이터 인프라와 규제 대응의 질서 설계

2026년의 디지털 전환은 ‘AI 도입’이 아니라 ‘기록과 책임의 체계’를 다시 짜는 일이다. 한국 기업은 데이터 인프라를 운영 가능한 형태로 정비하고, 규제를 법 조항이 아닌 아키텍처 요구사항으로 번역해야 한다. 감사 가능성을 공통 인프라로 만들 때, 보안·품질·AI 적용이 함께 전진한다.

© 2025 NerdVana. All rights reserved.

홈으로 블로그