昨日、gpt-ossが出た。早速ollamaで20bと120bを試してみた。僕のMacBookProでもどちらも普通に動作させることができた。
ollama版は量子化されているとの話もあるけど、ollamaはMXFP4 形式をネイティブにサポートしているって書いていたけど、
これまで使ったローカルLLMと比較すると、レベチで抜群の出来具合で、アウトプットも普通にクラウド版のChatGPTを使っている感じだった。deepseek-r1、gemma3、qwen3よりもすごいと思った。
ここでは感想のみで技術的なことは書かないけど、ちょっとした革命が起こった感じがした。
ついでにLM Studioの方が流行ってるっぽいので、インストールして20bを試してみた。これからは、LM Studioも触っていこうと思う。
また、近く(明日の8月8日とか?)クラウド版ではGPT-5が出るそうで、最近大人しくなっていたYoutubeやXも一気ににぎわうだろう。
当面、ローカルでの利用はこれがメインで、画像入力の場合はGemma3かな。
ちょっと先になるかもしれないけど、これをベースにAIエージェントを作ってみようかと思う今日この頃です。(Difyでやっても面白いかもしれないなぁ)
ところで、llama4ってどうなったんだろう、、、