たくろぐ!

世界一のチラ裏

Mac mini m4 Pro(24GB)でローカルLLMを試す

はじめに

タイトルの通りです。

Mac mini m4 Proを買いました。

用途はローカルLLMでDeepSeekを利用するためです。

LLM市場はまだまだ発展の余地があって、性能はどこも伸び盛りなので、用途に応じて使い分けていきたいですが。

これを機に、LLMを通して世の中の仕組みをより知っていき、QoLを一段と高めていきたいです。

結論

LM Studioをインストールして、DeepSeek-R1-disrillを使ってみた結果、

LM Studioを使えば、簡単にローカルLLM環境が楽しめました。

今度はAIエージェントでローカルLLMを利用して、簡単なアプリケーションを作成してみようと思います。

手順

以下の記事を参考にしました。

www.itmedia.co.jp

0. Mac mini m4 Proを買う

www.apple.com

1. LM Studioをインストール

lmstudio.ai

ダウンロードしたら、起動する。

page1

page2

ローカルマシンでヘッドレスサーバとして利用する場合はチェック。

lmstudio.ai

ダウンロード中。

page3

ダウンロード完了。

page4

モデルは以下のディレクトリに保存される。

/Users/ユーザー名/.lmstudio/models

page5

モデルのロードが完了した。

2. チャット

DeepSeek(DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf)

page6

よく話題になるやつ。

page7

中国の一部らしいです。

ちなみに1秒くらいで出力されました。

思っていたよりかなり早い印象です。

Mistral-Nemo-Instruct-2407-4bit

MLXフレームワークでの12Bのモデルでも実行してみました。

github.com

page10

page9

page8

メモリ使用率は上記のとおりです。

参考

主要なLLM

米MetaのLlamaシリーズ、米GoogleのGemmaシリーズ、米MicrosoftのPhiシリーズ、中国DeepSeekのDeepSeek R1 Distillシリーズ、中国AlibabaのQwenシリーズなど。

www.itmedia.co.jp

LLMの性能

zenn.dev

note.com

zenn.dev

ローカルLLMでのハードウェア要件

www.pugetsystems.com

Mac miniでのローカルLLM検証

singula2045.hatenablog.com

zenn.dev

ローカルLLMの方法

zenn.dev