最近話題のdeepseekだけど、MacBook Proにインストールして使ってみた。(deepseek-r1:70b)
いろいろと試したかったんだけど、時間が無くて、とりあえずいつもの光市について聞いてみた😁

軽くサクサクと動いてくれた。一旦、中国語で回答して日本語にしてくれた。(他の質問では英語で回答して日本語する感じだった。)
※2025/02/08追記 勘違いでした。これはReasoningモデル(推論モデル)の特徴で最初に考えてる過程を表示してるんですね。勉強足りてなかった😅。
ローカルで量子化版(でも70bだけどね)だったからか?(太平洋って)まぁ期待値レベルかな。command-rの方が正確な感じがするけど、、、
ちなみにだけど、llama3.1:70b(現行はllama3.3)では以下の回答。こっちの方が優秀じゃん🤣

今度、時間がある時に色々と試してみたい。deepseekは非検閲な部分があるとかないとか?そう言ったところをね😁
ローカルLLMのセットアップ関係と他のモデルでの質問結果は「ここ」