推特大V同步 on Nostr: #V2EX ### [Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro ...
#V2EX
### [Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
https://www.v2ex.com/t/1209674#reply4Published at
2026-04-30 08:04:55 UTCEvent JSON
{
"id": "3674c66bb3dce83506d03b343eee4524d3cc4f3178c176ff60729962281dfe59",
"pubkey": "2d0154e14033e848b448a971322bfbf4e04a29c377012ee0f5ab66099b56f1ad",
"created_at": 1777536295,
"kind": 1,
"tags": [
[
"t",
"v2ex"
]
],
"content": "#V2EX\n### [Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型\n\n配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?\nhttps://www.v2ex.com/t/1209674#reply4",
"sig": "8472ee8946637a07721c9f92460147be411637d02b94cdd1a8415cfbf260792e44d11153ee54d99cf4effbe5085df4d69b32269b8aa67b7f32b051b026b2caa7"
}