本地LLM
含有「本地LLM」共 2 篇內容
全部內容
發佈日期由新至舊
Josh的沙龍
2026/04/23
128GB 的 ROG Flow Z13,該把記憶體怎麼分給本地 LLM?從 27B 到 70B 的實用配置思路
本文聚焦一百二十八GB統一記憶體筆電的本地LLM配置策略,說明三十二GB六十四GB與九十六GB三種模式的適用場景,並整理二十七B到七十B級模型在效能穩定與多工之間的實用取捨建議
#
本地LLM
#
ROGFlowZ13
#
RyzenAIMax395
1
留言
寫程式也寫字的卡密優
2025/08/25
沒有網路,有AI還是能工作的
現在人沒有網路沒辦法做事,我覺得這已經不構成理由了。 如果說基礎電力沒有什麼都沒辦法做事是真的,有些依靠電腦的工作的確沒辦法完成。但是依靠電腦的工作也有分成聯外或聯內,多半需要上網查素材資料的,現在已經可以慢慢被AI所取代。 當這個可以被取代就是威脅了GOOGLE生存的一個理由。 以往
#
本地LLM
#
程式
#
電腦
2
留言