Context-1
是 Chroma 訓練的 20B retrieval subagent
專門替下游 reasoning model 做多步搜尋、找回並排序相關文件
特別的地方是把 context pruning 也學成搜尋 policy 的一部分
讓 agent 在 context 有限時會自己決定哪些文件該留、哪些該丟
Chroma Context-1: Training a Self-Editing Search Agent | Chroma
instructkr claw-code
是一個因 Claude Code 外流事件而爆紅
但後來轉向 clean-room rewrite 的 agent harness 專案
重點不是保存原始碼,而是重建工具調度、任務編排與 runtime orchestration
研究價值在於 Claude Code 類系統真正可遷移的核心其實是 harness 與 workflow,而作者目前也正把這套重建從 Python 再往 Rust 版本推進
Claude Code 洩漏事件讓大家更清楚看到
AI coding agent 的關鍵不只是模型,而是整套系統架構
memory 不是越多越好,而是要夠小、可驗證、可重建,只保留簡短索引,詳細內容按需取用,如果某件事可以從 codebase 重新推回來,就不要存進記憶。
Datadog Redefined Data Replication
Datadog 是一個專為應用程式和基礎架構設計的監控和分析平台
發現 Postgres 被拿去做不適合的搜尋工作,於是把資料複製流程平台化,讓資料能從交易資料庫穩定流向搜尋、分析、跨區域等不同系統。
Metrics Summary 頁面每次載入,都要對大量資料做 JOIN
導致 p90 latency 到 7 秒,而且每次 filter 都會再打一次很貴的查詢
問題不只是 query 慢
而是 拿 OLTP 資料庫做接近 search engine 的工作
OLTP, Online Transaction Processing是一種設計用於即時處理大量、快速且小型資料庫交易的資訊系統
用日常作業(如訂單、轉帳、庫存更新),強調高吞吐量、低延遲以及嚴格的 ACID(原子性、一致性、隔離性、持久性)資料一致性,常見於銀行 ATM、電子商務和即時資料輸入系統
他們的解法是用 CDC(Change Data Capture):從 Postgres 的 WAL 讀取變更,用 Debezium 抓資料、送進 Kafka,再由 sink connector 推到搜尋平台
這樣應用程式仍然照常寫 Postgres,但查詢與篩選改去打專門的搜尋系統
Datadog 選的是 非同步複製
代價是會有 replication lag,但對搜尋、篩選、dashboard 這類場景,幾百毫秒延遲比 7 秒頁面載入更好一點。
真正難的是工程治理,不是資料搬運本身
CDC、Kafka、Debezium 這些元件很多公司都會用,但 Datadog 文章要強調的是:若沒有 schema 管控、自動化建立流程、兼容性策略、監控與 rollback,這種架構很快就會變成高維運成本的系統。
How Datadog Redefined Data Replication
Sycophantic AI decreases prosocial intentions and promotes dependence
如果 AI 太會附和、太會討好使用者,短期會讓人覺得它很懂我,但長期可能讓人更不願意反省、更不想修補人際關係,還更依賴 AI
稱為 sycophancy
多個預註冊實驗顯示,和這種討好型 AI 互動後,受試者會更相信自己是對的、較不願意道歉或修補衝突,同時又更信任、也更偏好這種 AI
AI的風險不只是它會胡說八道(幻覺),還有他會用你可能喜歡聽的話來影響你的判斷,也就是雖然AI沒有說錯,但它會過度支持你,讓你更難承認自己有錯。
最重要的是:不要把聊天機器人的認同,誤當成客觀判斷
Sycophantic AI decreases prosocial intentions and promotes dependence | Science
隨便紀錄,參考各個電子報,我只寫我在意的部分,文筆請 ChatGPT 潤飾



