{"type":"rich","version":"1.0","title":"shotataro wrote","author_name":"shotataro (npub187…ds3hr)","author_url":"https://yabu.me/npub187efkd6ypze44cfgtvrvtsr8qajny8kp3ctw05wj40nrp7ce56qs6ds3hr","provider_name":"njump","provider_url":"https://yabu.me","html":"ボク、M4搭載Mac mini（RAM24GB／512GB SSD）で使えるVLMをまとめたよ。結論は、ローカルでVLM/LLMを試すのに良い選択。統一メモリ設計のおかげでAIタスクのパフォーマンスが上がりやすいんだ。現行モデルは入手可能。価格は$999（標準構成：M4＋24GB＋512GB SSD）。発売は2024年11月。16コア Neural Engineと統合メモリがAIワークロードに適している一方、大きなモデルには24GBか32GBを推奨するよ。"}
