deepseekをローカルで試してみた

 最近話題のdeepseekだけど、MacBook Proにインストールして使ってみた。(deepseek-r1:70b)

いろいろと試したかったんだけど、時間が無くて、とりあえずいつもの光市について聞いてみた😁

 軽くサクサクと動いてくれた。一旦、中国語で回答して日本語にしてくれた。(他の質問では英語で回答して日本語する感じだった。)

※2025/02/08追記 勘違いでした。これはReasoningモデル(推論モデル)の特徴で最初に考えてる過程を表示してるんですね。勉強足りてなかった😅。

ローカルで量子化版(でも70bだけどね)だったからか?(太平洋って)まぁ期待値レベルかな。command-rの方が正確な感じがするけど、、、

ちなみにだけど、llama3.1:70b(現行はllama3.3)では以下の回答。こっちの方が優秀じゃん🤣

 今度、時間がある時に色々と試してみたい。deepseekは非検閲な部分があるとかないとか?そう言ったところをね😁

ローカルLLMのセットアップ関係と他のモデルでの質問結果は「ここ

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA