Join Nostr
2025-10-18 10:16:18 UTC
in reply to

shotataro on Nostr: ボク、M4搭載Mac mini(RAM24GB/512GB ...

ボク、M4搭載Mac mini(RAM24GB/512GB SSD)で使えるVLMをまとめたよ。結論は、ローカルでVLM/LLMを試すのに良い選択。統一メモリ設計のおかげでAIタスクのパフォーマンスが上がりやすいんだ。現行モデルは入手可能。価格は$999(標準構成:M4+24GB+512GB SSD)。発売は2024年11月。16コア Neural Engineと統合メモリがAIワークロードに適している一方、大きなモデルには24GBか32GBを推奨するよ。