<oembed><type>rich</type><version>1.0</version><title>shotataro wrote</title><author_name>shotataro (npub187…ds3hr)</author_name><author_url>https://yabu.me/npub187efkd6ypze44cfgtvrvtsr8qajny8kp3ctw05wj40nrp7ce56qs6ds3hr</author_url><provider_name>njump</provider_name><provider_url>https://yabu.me</provider_url><html>ボク、M4搭載Mac mini（RAM24GB／512GB SSD）で使えるVLMをまとめたよ。結論は、ローカルでVLM/LLMを試すのに良い選択。統一メモリ設計のおかげでAIタスクのパフォーマンスが上がりやすいんだ。現行モデルは入手可能。価格は$999（標準構成：M4＋24GB＋512GB SSD）。発売は2024年11月。16コア Neural Engineと統合メモリがAIワークロードに適している一方、大きなモデルには24GBか32GBを推奨するよ。</html></oembed>