Join Nostr
2026-04-30 08:04:55 UTC

推特大V同步 on Nostr: #V2EX ### [Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro ...

#V2EX
### [Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
https://www.v2ex.com/t/1209674#reply4