# 메타가 4조원에 인수한 마누스, 그 핵심 기술이 오픈소스로 풀렸습니다 > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ > Reading time: 3 minutes > Language: ko > Tags: ai, ai-에이전트, claude-code, 오픈소스, 컨텍스트-엔지니어링 ## Canonical https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-core-tech-open-source-planning-with-files/ ko: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ja: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ zh-CN: https://tonylee.im/zh-CN/blog/manus-core-tech-open-source-planning-with-files/ zh-TW: https://tonylee.im/zh-TW/blog/manus-core-tech-open-source-planning-with-files/ ## Description 마누스의 4조원 가치를 만든 파일 기반 메모리 시스템이 무료 클로드 코드 스킬로 공개되었습니다. AI 에이전트 개발자라면 반드시 알아야 할 내용입니다. ## Summary 메타가 4조원에 인수한 마누스, 그 핵심 기술이 오픈소스로 풀렸습니다 is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - 문제의 본질 - 왜 AI 에이전트는 목표를 잊어버리는가 - 마누스의 해법 - 파일 시스템을 외부 메모리로 활용 - 오픈소스 구현 - 3-파일 메모리 시스템 - 핵심 메커니즘 - 결정 전 계획 파일 재참조 - 에러 처리 - 무한 재시도 루프의 차단 - 시사점 - AI 에이전트 성능의 새로운 기준 ## Content AI 에이전트를 써보신 분들은 아실 겁니다. 복잡한 작업을 맡기면 어느 순간 처음 요청과 전혀 다른 방향으로 가고 있는 AI를 발견하게 됩니다. 이건 사용자의 문제가 아닙니다. 대규모 언어 모델이 가진 구조적 한계입니다. 이 문제를 해결한 회사 마누스(Manus)는 메타에 25억 달러(약 4조원)에 인수되었고, 최근 한 개발자가 그 핵심 원리를 클로드 코드 스킬로 구현해 공개 3일 만에 깃허브 스타 1,000개 가까이 기록했습니다. ## 문제의 본질 - 왜 AI 에이전트는 목표를 잊어버리는가 LLM에는 컨텍스트 윈도우라는 고정된 작업 메모리 한계가 존재합니다. - 대화가 길어질수록 초기에 설정한 목표가 모델의 활성 어텐션에서 밀려남 - 중요한 정보가 어텐션 메커니즘의 유효 범위 밖으로 사라짐 - 에이전트가 점차 원래 요청과 다른 방향으로 표류함 이 현상을 **목표 표류(Goal Drift)**라고 부릅니다. 도구 호출이 50회 이상 이어지면 거의 필연적으로 발생합니다. ## 마누스의 해법 - 파일 시스템을 외부 메모리로 활용 마누스가 찾은 해답은 의외로 단순했습니다. AI에게 메모하게 만드는 것입니다. - 파일 시스템을 에이전트의 영구 기억 저장소로 활용 - 컨텍스트 윈도우의 물리적 한계를 완전히 우회 - 필요할 때마다 저장된 정보를 불러와 참조 이 접근법은 **컨텍스트 엔지니어링** - LLM의 작업 메모리 안팎으로 정보가 흐르는 방식을 설계하는 기법의 한 형태입니다. ## 오픈소스 구현 - 3-파일 메모리 시스템 [planning-with-files](https://github.com/OthmanAdi/planning-with-files)라는 클로드 코드 스킬은 마누스의 원리를 세 개의 마크다운 파일로 구현합니다. - **task_plan.md** - 목표, 진행 단계, 에러 로그를 담은 마스터 플랜. 모든 주요 결정 전에 이 파일을 읽도록 설계됨 - **notes.md** - 리서치 결과와 중간 데이터를 저장하는 공간. 컨텍스트 윈도우 과부하를 방지함 - **[deliverable].md** - 최종 산출물이 쌓이는 파일 아름다운 점은 단순함에 있습니다. 커스텀 인프라도, 데이터베이스도 필요 없이 디스크 위의 마크다운 파일만으로 충분합니다. ## 핵심 메커니즘 - 결정 전 계획 파일 재참조 이 시스템의 가장 중요한 규칙은 한 문장입니다. **"Before any major decision, read the plan file." 모든 주요 결정 전에 계획 파일을 다시 읽어라.** - LLM의 어텐션 메커니즘은 가장 최근 입력된 토큰에 강하게 반응함 - 결정 직전에 `task_plan.md`를 읽으면 원래 목표가 컨텍스트 최상단에 복원됨 - 더 긴 컨텍스트 윈도우가 아닌, 정보 배치의 최적화로 문제를 해결함 컨텍스트 윈도우를 늘리는 건 무차별 대입입니다. 전략적 정보 배치가 진짜 엔지니어링입니다. ## 에러 처리 - 무한 재시도 루프의 차단 두 번째 핵심 설계는 에러 기록 강제입니다. - 에러 발생 시 `task_plan.md`의 에러 섹션에 반드시 기록 - AI가 실패를 명시적으로 인정하게 만듦 - 동일한 실수의 반복 대신 계획 수정으로 유도 - 디버깅 로그가 부수 효과로 자동 축적됨 이게 없으면 에이전트는 같은 벽에 반복적으로 부딪히면서 토큰과 컨텍스트만 소모하게 됩니다. ## 시사점 - AI 에이전트 성능의 새로운 기준 3일 만에 1,000 스타 가까이 기록한 이유는 명확합니다. 수조원 규모의 아키텍처 인사이트를 터미널만 있으면 누구나 쓸 수 있게 되었기 때문입니다. 더 깊은 교훈은 AI 에이전트의 성능이 모델 크기나 파라미터 수가 아닌 **메모리 아키텍처 설계** - 모델의 한계 주변으로 정보의 흐름을 어떻게 구조화하느냐에 달려 있다는 점입니다. 최고의 에이전트는 가장 큰 두뇌를 가진 게 아닙니다. 메모하는 법을 아는 에이전트입니다. **링크**: [planning-with-files on GitHub](https://github.com/OthmanAdi/planning-with-files) ## Related URLs - Author: https://tonylee.im/ko/author/ - Publication: https://tonylee.im/ko/blog/about/ - Related article: https://tonylee.im/ko/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/ko/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/ko/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/ko/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.