返回首頁

AI agent 的外骨骼:超級個體增幅框架

Dr. JDr. J
6 分鐘閱讀
AI agent 的外骨骼:超級個體增幅框架

每個超級個體都需要處理不同面向的工作,可能是開發、發表文章、錄製影片、工作專案,甚至事業體的各種事項。
在 Claude Code、Codex 這類 AI agent 出來後透過強大的工作能力,的確增加了很多工作效率

但有一個一直存在尚未解決的問題:個人化上下文 (personal context)

我自己使用 Claude Code 之後的真實痛點是
跟 AI 聊了一個多小時,討論某個技術決策,說清楚了背景、列出了取捨、最後達成共識。
隔天打開新對話時,我要先解釋一次背景、技術偏好,還有上次那個決策的脈絡……

就這樣,「準備工作」用掉了十分鐘。

每次都要重新交代一遍雖然是一種低度的、持續的消耗,但相當耗費「認知切換負擔」。
重複要回想進度、找資料並且交代 AI 久了真的會心累

有嘗試過像 Mem0 這類記憶工具,但總是用起來不是很順手。
因為這類工具基本上就是用不同方式儲存的「資料庫」
資訊固然是記得,但每次 AI agent 去讀取這些資訊後都還要重新「消化」

直到我看到了鴨哥分享的 context-infrastructure ,馬上就知道這就是我一直想要的框架雛形,
一套可以將資訊消化,並且在跟 AI 對話時就能進入上下文的框架!

正確的上下文就像將 AI agent 穿上一個外骨骼,讓 agent 更有效率的完成各種任務、目標。

實戰範例

情況一:跨 session 繼續工作

我在做一個 app 的架構決策,討論到一半要去處理別的事。幾小時後回來,不需要重新交代背景,下個 session 開始的時候跟他說「繼續討論 app 的架構決策」,agent 立刻知道我停在哪、當時考慮了什麼選項、還有什麼沒決定。

情況二:避免 AI 給「正確但不適合我」的答案

我問 AI 怎麼處理某個效能瓶頸,以前它會給我各種方案,我得花時間過濾哪些符合我的系統設計原則。現在因為 rules/ 裡已經說清楚我的偏好和原則,它給的方案通常就是我實際上會採用的方向。

情況三:管理跨週期的專案脈絡

我在跑一個副業專案,開發週期拉得很長,兩個禮拜可能只動幾次。以前每次回來都要花時間重新想「我上次決定了什麼、卡在哪、下一步是什麼」,而且資料可能分散在不同資料夾,光找出來就消耗了很大的精力。

現在這個專案有一個 contexts/projects/ 下的文件,記錄著當前的核心假設、已決定的事、還開放的問題。每次 session 開始把它丟給 AI,不到一分鐘就能繼續上次的思路——AI 知道我現在在驗證什麼、哪些路已經走過了、哪些東西是我故意暫時不管的。

三層架構

L3(rules/)——「我是什麼樣的人」

這一層放的是幾乎不變的東西:工作哲學、技術偏好、決策原則、和 AI 的合作方式。

舉個例子:我在 rules/USER.md 裡有一條寫著,我在做架構決策時優先考慮「我能不能看透它的底層」,其次才是功能完整度。AI 在給我方案的時候就不會推薦我一個「功能很強但你不知道它在幹嘛」的工具。

L1/L2(memory/)——「最近觀察到的 pattern」

這一層不是原始記錄,是提煉過的洞察。比如「過去一個月,每次估計 API 整合時間都低估了 40%」或者「這個技術決策反覆出現,值得建立明確的原則」。

這層的內容不是我手動維護的。每天晚上有一個叫 Observer 的腳本自動掃描當天的工作記錄,把重要的 signal 寫進 memory/OBSERVATIONS.md。每週日,Reflector 再把積累的觀察提煉,有通用性的教訓升進 rules/

這是我最喜歡這個系統的地方:記憶固化是自動發生的。

L0(contexts/)——「發生了什麼」

原始記錄層。工作日誌、研究筆記、思考覆盤、這篇文章本身。這層不直接載入,但 AI 需要的時候可以查。

這不是知識庫,是框架

框架和知識庫聽起來像是同一件事,但做的事情完全不同。

知識庫的邏輯是:把你說過的東西存起來,需要的時候撈出來。
Mem0 本質上就是在從你的對話裡萃取事實,塞進資料庫,下次對話時召回幾條相關的。
它是被動的:你說什麼它就存什麼,哪些重要、哪些要召回,由系統決定。

框架的邏輯不一樣。框架是你主動設計的結構,說清楚「我是什麼樣的人、我怎麼思考、我現在在做什麼、什麼樣的答案對我有用」,定義 AI 和你互動的方式。

另一個重點是框架會「載入」

記憶庫要真的送到 agent 的上下文中,必須:收到任務 -> 查詢資料 -> 辨認和消化找出有用的資料 -> 讀取到上下文 -> 執行任務
框架則是少了很多步驟:收到任務 -> 讀取需要的資訊到上下文 -> 執行任務

總結

AI agent 越來越強,但「個人化」一直是缺的那塊。

問題不在記憶量,而在結構:需要一個讓 AI 知道「你是誰、你怎麼思考、你現在在幹嘛」的框架。

三層架構做的就是這件事——L3 定義你是誰、L1/L2 捕捉近期 pattern、L0 保留原始脈絡。
最後加上 Observer-Reflector pipeline 自動維護固化記憶。


Repo:github.com/Hangghost/Exocortex

下一篇會聊 Observer-Reflector pipeline 的設計細節——現在長什麼樣、踩過什麼坑、還有什麼問題沒解決。


這是《真正的第二大腦》系列的第二篇。第一篇:你跟 AI 說了那麼多,它為什麼每次都失憶?

Dr. J

Dr. J

喜歡這篇文章嗎?

訂閱電子報,不錯過最新內容!