메타가 4조원에 인수한 마누스, 그 핵심 기술이 오픈소스로 풀렸습니다
마누스의 4조원 가치를 만든 파일 기반 메모리 시스템이 무료 클로드 코드 스킬로 공개되었습니다. AI 에이전트 개발자라면 반드시 알아야 할 내용입니다.
AI 에이전트를 써보신 분들은 아실 겁니다. 복잡한 작업을 맡기면 어느 순간 처음 요청과 전혀 다른 방향으로 가고 있는 AI를 발견하게 되죠.
이건 사용자의 문제가 아닙니다. 대규모 언어 모델이 가진 구조적 한계입니다. 이 문제를 해결한 회사 마누스(Manus)는 메타에 25억 달러(약 4조원)에 인수되었고, 최근 한 개발자가 그 핵심 원리를 클로드 코드 스킬로 구현해 공개 3일 만에 깃허브 스타 1,000개 가까이 기록했습니다.
문제의 본질 - 왜 AI 에이전트는 목표를 잊어버리는가
LLM에는 컨텍스트 윈도우라는 고정된 작업 메모리 한계가 존재합니다.
- 대화가 길어질수록 초기에 설정한 목표가 모델의 활성 어텐션에서 밀려남
- 중요한 정보가 어텐션 메커니즘의 유효 범위 밖으로 사라짐
- 에이전트가 점차 원래 요청과 다른 방향으로 표류함
이 현상을 **목표 표류(Goal Drift)**라고 부릅니다. 도구 호출이 50회 이상 이어지면 거의 필연적으로 발생합니다.
마누스의 해법 - 파일 시스템을 외부 메모리로 활용
마누스가 찾은 해답은 의외로 단순했습니다. AI에게 메모하게 만드는 것이죠.
- 파일 시스템을 에이전트의 영구 기억 저장소로 활용
- 컨텍스트 윈도우의 물리적 한계를 완전히 우회
- 필요할 때마다 저장된 정보를 불러와 참조
이 접근법은 컨텍스트 엔지니어링 - LLM의 작업 메모리 안팎으로 정보가 흐르는 방식을 설계하는 기법의 한 형태입니다.
오픈소스 구현 - 3-파일 메모리 시스템
planning-with-files라는 클로드 코드 스킬은 마누스의 원리를 세 개의 마크다운 파일로 구현합니다.
- task_plan.md - 목표, 진행 단계, 에러 로그를 담은 마스터 플랜. 모든 주요 결정 전에 이 파일을 읽도록 설계됨
- notes.md - 리서치 결과와 중간 데이터를 저장하는 공간. 컨텍스트 윈도우 과부하를 방지함
- [deliverable].md - 최종 산출물이 쌓이는 파일
아름다운 점은 단순함에 있습니다. 커스텀 인프라도, 데이터베이스도 필요 없이 디스크 위의 마크다운 파일만으로 충분합니다.
핵심 메커니즘 - 결정 전 계획 파일 재참조
이 시스템의 가장 중요한 규칙은 한 문장입니다.
“Before any major decision, read the plan file.” 모든 주요 결정 전에 계획 파일을 다시 읽어라.
- LLM의 어텐션 메커니즘은 가장 최근 입력된 토큰에 강하게 반응함
- 결정 직전에
task_plan.md를 읽으면 원래 목표가 컨텍스트 최상단에 복원됨 - 더 긴 컨텍스트 윈도우가 아닌, 정보 배치의 최적화로 문제를 해결함
컨텍스트 윈도우를 늘리는 건 무차별 대입입니다. 전략적 정보 배치가 진짜 엔지니어링입니다.
에러 처리 - 무한 재시도 루프의 차단
두 번째 핵심 설계는 에러 기록 강제입니다.
- 에러 발생 시
task_plan.md의 에러 섹션에 반드시 기록 - AI가 실패를 명시적으로 인정하게 만듦
- 동일한 실수의 반복 대신 계획 수정으로 유도
- 디버깅 로그가 부수 효과로 자동 축적됨
이게 없으면 에이전트는 같은 벽에 반복적으로 부딪히면서 토큰과 컨텍스트만 소모하게 됩니다.
시사점 - AI 에이전트 성능의 새로운 기준
3일 만에 1,000 스타 가까이 기록한 이유는 명확합니다. 수조원 규모의 아키텍처 인사이트를 터미널만 있으면 누구나 쓸 수 있게 되었기 때문입니다.
더 깊은 교훈은 AI 에이전트의 성능이 모델 크기나 파라미터 수가 아닌 메모리 아키텍처 설계 - 모델의 한계 주변으로 정보의 흐름을 어떻게 구조화하느냐에 달려 있다는 점입니다.
최고의 에이전트는 가장 큰 두뇌를 가진 게 아닙니다. 메모하는 법을 아는 에이전트입니다.
뉴스레터 구독하기
최신 프로젝트, 아티클, AI와 웹 개발 실험에 대한 소식을 받아보세요.