심볼해석-추론설명 네트워크
대규모 언어모델(LLM)은 다양한 지적 과제를 수행하며 인공지능의 새로운 가능성을 열었지만, 여전히 법률 판단, 복잡한 상식 추론, 고정밀 의사결정과 같이 높은 신뢰성이 요구되는 영역에서는 근본적 한계를 드러내고 있다. 대표적으로 헬루시네이션(hallucination), 지식 충돌(knowledge conflict), 비일관적 추론 경로 등은 LLM이 내린 결론의 타당성을 평가하기 어렵게 만들며, 실제 활용에 큰 제약을 준다. 정보 보강(RAG)이나 모델·데이터 스케일링과 같은 기존 접근은 이러한 구조적 문제를 근본적으로 해결하지 못하고 있으며, 특히 법률·의료처럼 결과의 정확성과 설명 가능성이 필수적인 분야에서는 더욱 한계가 뚜렷하다.
반면 인간의 추론은 다양한 정보와 규칙을 심볼 단위로 해석하고, 그 과정의 적절성을 가치함수(value function)를 통해 평가함으로써 안정적이고 일관된 결론을 도출한다. 즉, 인간은 단순히 지식을 나열하는 것이 아니라, 서로 다른 추론 경로를 종합해 “어떤 해석이 합리적인가”를 판단하며 최종 결론에 이른다. 이러한 구조는 복잡한 문제에서도 강건한 추론을 가능하게 하지만, 현존 LLM에는 이러한 심볼 기반 해석과 적절성 평가는 거의 구현되어 있지 않다.
본 연구는 이러한 한계를 극복하기 위해, 인간의 심볼적 추론 방식을 인공지능 구조에 통합한 SIREN(Symbol Interpretation and Reasoning Explanation Network)을 제안한다. SIREN은 다양한 추론 경로에서 생성되는 정보를 심볼 수준에서 해석하고, 그 과정의 적절성과 일관성을 평가함으로써 기존 LLM이 제공하지 못한 설명 가능하고 강건한 고차 추론 능력을 구현하는 것을 목표로 한다. 이를 통해 고위험·고정밀 환경에서 신뢰할 수 있는 차세대 추론 시스템의 기반을 마련하고자 한다.
LLM 추론 시스템의 한계ㅡ
LLM 해석 기반 추론의 한계
심볼 기반 추론 시스템의 한계
기여도 기반 심볼 평가
가치함수 기반 추론 추출
심층 심볼 연산 네트워크
논증 기반 프레임워크