Andrej Karpathy Just 10x’d Everyone’s Claude Code

🕐 約 10-15 分鐘


🎯 開場示範:知識系統 Visual Showcase

  • 36 條 YouTube 影片:presenter 將自己所有近期影片整理成互聯知識網絡,用 Obsidian graph view 可視化
  • 自動化完成:完全靠 Claude Code 抓取影片 transcript,自動建立所有關係連結,無需手動
  • 兩個 Vault:一個專放 YouTube 知識,另一個係個人 second brain(業務、員工、Q2 計劃等)
  • 靈感來源:Andrej Karpathy 在 X 發帖講 LLM knowledge base,短短幾日大量轉發,引爆熱話

💡 Karpathy LLM Knowledge Base 核心概念

  • Data Ingest:將原始文件(PDF、文章等)丟入 Claude Code,LLM 自動整理
  • IDE = Obsidian:只係用嚟視覺化 markdown files,非必要但好睇
  • Q&A Phase:可以直接查詢整個 wiki,LLM 自動維護 index files 同 brief summaries,唔需要 vector database
  • 知識複利:普通 AI 對話係 ephemeral(對完即忘),LLM Wiki 令知識像銀行利息咁 compound,係最大突破點
  • Token 效率:有 X 用戶將 383 個散落文件 + 100+ 個會議 transcript 整合成 wiki,token 使用量跌 95%

🛠️ 5 分鐘 Setup 示範(Step by Step)

  • 前置:下載免費 Obsidian app(obsidian.md),只係用嚟睇 graph
  • Step 1:Obsidian 建新 vault(例:demo vault),存到本地
  • Step 2:用 VS Code 或 terminal 打開 vault 資料夾,啟動 Claude Code
  • Step 3:將 Karpathy 原文 prompt(來自佢 X post / gist)貼入 Claude Code,加上自訂指令(告訴 Claude 佢係 LLM wiki agent,逐步引導,建立 claude.md schema)
  • Step 4:Claude 自動建立架構:raw/wiki/ 資料夾,subfolders(concepts、entities、sources),index 文件,operation log

📥 加入資料同 Ingest 流程

  • Obsidian Web Clipper:Chrome extension,可以一鍵將網頁文章直接推入 vault 嘅 raw/ 資料夾
  • Ingest 示範:將 “AI 2027” 文章 clip 入去,再叫 Claude Code 去 ingest
  • Claude 會問問題:項目焦點係咩?要幾詳細?想強調咩?(讓 LLM 更好理解 context)
  • 結果:一篇長文章 → 約 25 個互連 wiki pages,涵蓋人物、組織、概念、分析
  • 時間:單篇文章約 10 分鐘;批量 36 條 YouTube transcripts 約 14 分鐘

🕸️ Graph View 同關係建立

  • 實時可視化:Obsidian graph view 可以睇住 wiki pages 一個個生成,關係連結即時出現
  • Hub 節點:重要人物(Eli、Thomas Daniel)或概念(AI governance)會成為大 hub
  • 深度導航:點擊 OpenAI → 連到 model spec → 連到 LLM psychology model,層層遞進
  • 一篇文章產生嘅關係:6 個人物、5 個組織、1 個 AI systems 頁、多個 concepts 頁

🤖 Query、Agent 整合同 Hot Cache

  • 查詢方式:可以直接喺 Claude Code 環境查詢,或者將外部 AI agent 指向 wiki 資料夾
  • Executive Assistant 整合:將 wiki path 寫入 claude.md,AI agent(“Herk 2”)可以自動讀取 index、subindex、搜尋 wiki
  • Hot Cache(hot.md):喺 wiki 資料夾內放一個 ~500 words 嘅快取文件,儲存最近對話 context
  • Hot Cache 好處:防止 agent 每次都要 crawl 整個 wiki 去搵最近 context,大幅減少 token 使用

🔧 Linting 同維護

  • 定期 Lint:Karpathy 建議定期跑 LLM health check,掃描整個 wiki
  • Lint 功能:找出資料不一致、用 web search 補充缺失資訊、發現新文章候選、確保結構可擴展
  • 唔需要 re-embed:更新 wiki 只需 lint,唔需要像傳統 RAG 咁重新做 embedding

⚖️ LLM Wiki vs 傳統 Semantic Search RAG 對比

維度LLM Wiki傳統 RAG
搜尋方式讀 index + 跟 links相似度搜尋(chunk matching)
理解深度深(關係連結)淺(chunk 相似)
基礎設施純 markdown filesEmbedding model + Vector DB + chunking pipeline
成本基本免費(只收 token)持續 compute + storage 費用
維護跑 Lint 即可要 re-embed 先能更新
弱點唔適合百萬級文件適合 enterprise 大規模

結論:數百頁以內 → LLM Wiki 完勝。百萬文件級別 → 仍需傳統 RAG。


🏢 對業務嘅實際意義

  • 成本極低:唯一費用係 token,無 infra 費用
  • 5 分鐘即可 setup:門檻極低,任何人都做到
  • Modular Vaults:業務知識、內容研究可分開放,按需插入 AI agent
  • AI 員工整合:Executive assistant 可以直接讀你嘅業務 wiki,成為真正懂你業務嘅助手
  • Hot Cache 省錢:日常對話唔需要每次 crawl 全部 wiki,大幅降低 token 消耗

⚠️ 限制同風險

  • 唔適合企業級規模:百萬文件以上,成本同效率都不及傳統 RAG
  • Ingest 需要時間:唔係即時,大量文件要等
  • 需定期 Lint:唔係完全 zero maintenance,要定期清理
  • Karpathy 原 prompt 係 vague 嘅:好處係可高度定制,壞處係需要自己理解同調整