PhD Proposal: Cognitive Architecture for Large Language Models

이 글은 ChatGPT로 저의 PhD Proposal 을 요약한 것 입니다.
인공지능(AI)은 인간의 사고를 모방하는 수준을 넘어, 인간의 인지 과정 자체를 깊이 연구하는 단계에 이르렀다. 그러나 대형 언어 모델(LLM)은 여전히 몇 가지 근본적인 한계를 가지고 있다. 이 연구에서는 인지 아키텍처(Cognitive Architectures, CA)를 LLM에 결합하여 이러한 한계를 해결하는 방안을 제안한다.
인지 아키텍처는 인간의 인지 과정을 모듈화하여 설계한 시스템으로, 다음과 같은 요소로 구성된다.
기존의 LLM은 대규모 데이터 기반 학습을 통해 패턴을 예측하지만, 논리적 추론 능력과 장기 기억 유지에 한계가 있다. 반면, CA는 보다 체계적인 사고 과정을 모방하는 데 초점을 맞춘다. 이 연구에서는 이러한 CA의 구조적 특성을 LLM과 결합하여 보다 강력한 AI 모델을 구축하는 것을 목표로 한다.
이를 해결하기 위해, 인지 아키텍처 기반의 LLM(Cognitive Architecture for Large Language Models, CALM)을 제안한다. CA의 구조적 요소를 활용하여 LLM의 한계를 보완하고, 보다 논리적이며 투명한 AI 시스템을 구축하는 것이 목표이다.
이 연구는 다음과 같은 세 가지 핵심 질문을 다룬다.
이 연구에서는 CA를 LLM 내부에 완전히 결합하는 것이 아니라, 특정 지점에서 개입하는 방식을 고려한다. 토큰 수준에서의 개입(Shallow Integration)과 신경망 가중치 수준에서의 개입(Deep Integration)을 구분하여 연구한다.
이 연구는 AI가 단순한 패턴 인식 도구를 넘어, 보다 체계적인 사고 능력을 갖추도록 하는 것을 목표로 한다. 특히 다음과 같은 점에서 연구의 의미를 찾을 수 있다.
결국 이 연구는 AI가 단순한 도구를 넘어 인간과 협력하는 지능적 시스템으로 발전하는 길을 모색하는 데 기여할 것이다.