How HNSW overcomes NSW limitations in ANN search | Faris M. Almalik發表了有關此主題的內容 | LinkedIn
HNSW 是用來改善那些因為 ANN 索引搜尋不夠好的
導致 relevant vector 沒被撈進 candidate set 的 miss透過分層,通常比平面 NSW 有更好的 recall 與 scaling
但不能保證解決所有ANN 搜不到的可能性
因為 HNSW 本質上還是 approximate search
新模型
OpenAI Image V2
影像模型,在 UI 設計渲染、提示詞遵循度(prompt adherence)及構圖理解上均有顯著提升
強調 UI rendering、prompt adherence、composition。這代表影像模型的重點已經從「能不能畫」走向「能不能更穩定照指令做」
OpenAI tests next-gen Image V2 model on ChatGPT and LM Arena
Meta 的 Avocado 與 Mango
可能走「部分開源、部分閉源」的混合策略
- Avocado 為大型語言模型(LLM)
- Mango 則專注於影像與影片生成
Google 的 Jules V2 (Jitro)
編碼代理
Google Labs 的非同步 AI coding agent
會把 repo 複製到安全的 Google Cloud VM,中途可讀整個 codebase,能幫你修 bug、寫測試、做功能、更新相依套件,最後給你 plan、reasoning 和 diff
Jules - An Autonomous Coding Agent
Jules: Google’s autonomous AI coding agent
Google tests Jules V2 agent capable of taking bigger tasks
Jitro 好像是小道消息,還不確定
Netflix 的 VOID
開源的 AI 影片編輯模型,能夠移除影片中的物件並實現逼真的背景填充
過去只是把物件移除,現在會根據移除物件,進行畫面修正
- 使用者指定要移除的物體
- 系統進行遮罩與影響範圍推理 ( 標出物體本身的位置、分析這個物體對畫面的影響 )
-> 編碼成 quadmask - 模型根據影片與 quadmask 重新生成畫面
( 原始影片 + quadmask + 提示資訊) - 輸出更合理的結果
最終結果不只是把物體拿掉,而是如果這個物體原本就不存在,畫面本來應該長什麼樣子
Netflix 開源 AI 影片模型 VOID 秒除穿幫鏡頭 物理互動自動補正 #軟體
netflix/void-model · Hugging Face
Netflix 開源 AI 模型「VOID」:不只是移除物體,還能「重現物理法則」 - 電腦王阿達
GEO(Generative Engine Optimization)
生成式搜尋優化 / AI 能見度優化
系統在直接生成答案時,更容易正確提到你的品牌、產品或內容
網路能見度的競爭,已經從 SEO 轉成「能不能被 AI 正確吸收與正確表達」
- 先確保 AI 爬蟲讀得到
如果網站 robots 設定把 AI crawler 擋掉,後面做再多都沒用 - 做 AI brand audit
拿自家品牌去問各種 chatbot,看它現在怎麼描述你、情緒偏向如何、是否引用競品、是否有事實錯誤 - 內容要寫成 AI 容易抽取的形狀
citation engineering:把內容寫成短而完整的 30–60 字資訊塊,裡面同時有具體事實與理由,這樣 AI 更容易直接抽出並引用。
GEO 是什麼?SEO + AI = GEO 生成式搜尋引擎優化 全解析,掌握 AI 搜尋新趨勢
相關的名詞
- AEO:答案引擎優化
- AIO:AI優化
- LLMO:大型語言模型優化
AEO(Answer Engine Optimization)
讓 AI 更容易直接拿你的內容來回答問題
AIO(Artificial Intelligence Optimization)
不只包含問答內容,也可能包含網站結構、機器可讀資料、品牌資訊一致性、被 AI 抓取與理解的方式(偏廣義、業界尚未定型)
LLMO(Large Language Model Optimization)
讓內容更容易被大型語言模型理解、記住、檢索到
什麼是 GEO、AEO、AAO、VSO、LLO 與 LLMO?跟SEO有什麼不同 | AHHA 技術分享 - 渥合數位網頁設計
隨便紀錄,參考各個電子報,我只寫我在意的部分,文筆請 ChatGPT 潤飾

















