Andrej Karpathy Just 10x’d Everyone’s Claude Code
🕐 約 10-15 分鐘
🎯 開場示範:知識系統 Visual Showcase
- 36 條 YouTube 影片:presenter 將自己所有近期影片整理成互聯知識網絡,用 Obsidian graph view 可視化
- 自動化完成:完全靠 Claude Code 抓取影片 transcript,自動建立所有關係連結,無需手動
- 兩個 Vault:一個專放 YouTube 知識,另一個係個人 second brain(業務、員工、Q2 計劃等)
- 靈感來源:Andrej Karpathy 在 X 發帖講 LLM knowledge base,短短幾日大量轉發,引爆熱話
💡 Karpathy LLM Knowledge Base 核心概念
- Data Ingest:將原始文件(PDF、文章等)丟入 Claude Code,LLM 自動整理
- IDE = Obsidian:只係用嚟視覺化 markdown files,非必要但好睇
- Q&A Phase:可以直接查詢整個 wiki,LLM 自動維護 index files 同 brief summaries,唔需要 vector database
- 知識複利:普通 AI 對話係 ephemeral(對完即忘),LLM Wiki 令知識像銀行利息咁 compound,係最大突破點
- Token 效率:有 X 用戶將 383 個散落文件 + 100+ 個會議 transcript 整合成 wiki,token 使用量跌 95%
🛠️ 5 分鐘 Setup 示範(Step by Step)
- 前置:下載免費 Obsidian app(obsidian.md),只係用嚟睇 graph
- Step 1:Obsidian 建新 vault(例:demo vault),存到本地
- Step 2:用 VS Code 或 terminal 打開 vault 資料夾,啟動 Claude Code
- Step 3:將 Karpathy 原文 prompt(來自佢 X post / gist)貼入 Claude Code,加上自訂指令(告訴 Claude 佢係 LLM wiki agent,逐步引導,建立 claude.md schema)
- Step 4:Claude 自動建立架構:
raw/同wiki/資料夾,subfolders(concepts、entities、sources),index 文件,operation log
📥 加入資料同 Ingest 流程
- Obsidian Web Clipper:Chrome extension,可以一鍵將網頁文章直接推入 vault 嘅
raw/資料夾 - Ingest 示範:將 “AI 2027” 文章 clip 入去,再叫 Claude Code 去 ingest
- Claude 會問問題:項目焦點係咩?要幾詳細?想強調咩?(讓 LLM 更好理解 context)
- 結果:一篇長文章 → 約 25 個互連 wiki pages,涵蓋人物、組織、概念、分析
- 時間:單篇文章約 10 分鐘;批量 36 條 YouTube transcripts 約 14 分鐘
🕸️ Graph View 同關係建立
- 實時可視化:Obsidian graph view 可以睇住 wiki pages 一個個生成,關係連結即時出現
- Hub 節點:重要人物(Eli、Thomas Daniel)或概念(AI governance)會成為大 hub
- 深度導航:點擊 OpenAI → 連到 model spec → 連到 LLM psychology model,層層遞進
- 一篇文章產生嘅關係:6 個人物、5 個組織、1 個 AI systems 頁、多個 concepts 頁
🤖 Query、Agent 整合同 Hot Cache
- 查詢方式:可以直接喺 Claude Code 環境查詢,或者將外部 AI agent 指向 wiki 資料夾
- Executive Assistant 整合:將 wiki path 寫入 claude.md,AI agent(“Herk 2”)可以自動讀取 index、subindex、搜尋 wiki
- Hot Cache(hot.md):喺 wiki 資料夾內放一個 ~500 words 嘅快取文件,儲存最近對話 context
- Hot Cache 好處:防止 agent 每次都要 crawl 整個 wiki 去搵最近 context,大幅減少 token 使用
🔧 Linting 同維護
- 定期 Lint:Karpathy 建議定期跑 LLM health check,掃描整個 wiki
- Lint 功能:找出資料不一致、用 web search 補充缺失資訊、發現新文章候選、確保結構可擴展
- 唔需要 re-embed:更新 wiki 只需 lint,唔需要像傳統 RAG 咁重新做 embedding
⚖️ LLM Wiki vs 傳統 Semantic Search RAG 對比
| 維度 | LLM Wiki | 傳統 RAG |
|---|---|---|
| 搜尋方式 | 讀 index + 跟 links | 相似度搜尋(chunk matching) |
| 理解深度 | 深(關係連結) | 淺(chunk 相似) |
| 基礎設施 | 純 markdown files | Embedding model + Vector DB + chunking pipeline |
| 成本 | 基本免費(只收 token) | 持續 compute + storage 費用 |
| 維護 | 跑 Lint 即可 | 要 re-embed 先能更新 |
| 弱點 | 唔適合百萬級文件 | 適合 enterprise 大規模 |
結論:數百頁以內 → LLM Wiki 完勝。百萬文件級別 → 仍需傳統 RAG。
🏢 對業務嘅實際意義
- 成本極低:唯一費用係 token,無 infra 費用
- 5 分鐘即可 setup:門檻極低,任何人都做到
- Modular Vaults:業務知識、內容研究可分開放,按需插入 AI agent
- AI 員工整合:Executive assistant 可以直接讀你嘅業務 wiki,成為真正懂你業務嘅助手
- Hot Cache 省錢:日常對話唔需要每次 crawl 全部 wiki,大幅降低 token 消耗
⚠️ 限制同風險
- 唔適合企業級規模:百萬文件以上,成本同效率都不及傳統 RAG
- Ingest 需要時間:唔係即時,大量文件要等
- 需定期 Lint:唔係完全 zero maintenance,要定期清理
- Karpathy 原 prompt 係 vague 嘅:好處係可高度定制,壞處係需要自己理解同調整