ITで遊ぶ

ローカルAI 話題のLFM2.5をRyzen9で試した

  • AI

小さくまとまったモデルだと話題なので、ちょっとだけ試しました。

ダウンロード先
LFM2.5-1.2B-Thinking-GGUF

とりあえず使ったモデルファイルは以下のとおり


FROM ./lfm2.5-1.2b-Thinking-Q4_K_M.gguf

# パラメータ設定(必要に応じて)
PARAMETER temperature 0.7
PARAMETER top_p 0.9

# プロンプトテンプレート設定
TEMPLATE """{{ if .System }}<|system|>
{{ .System }}<|end|>{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}<|end|>{{ end }}<|assistant|>
{{ .Response }}<|end|>"""

下手にnum_gpuを書くとメモリーを圧迫し、なにも書かなくてもGPUメモリーにいい感じで乗ってくれました。
たしかに日本語で会話できるモデルです。Q4_K_Mでファイルサイズが731MBと小さいのでテストに使うのに手頃かもしれません。

あー、もちろんOllamaで問題なく動きました。

関連記事

  1. AIをローカル環境で動かす(3:GUI編)

  2. ローカルLLMでAIを強化する(6:Ollamaのプログラム版編)

  3. ローカルLLMのAIを強化する(7.RAG編)

  4. AI彼女をローカル環境で動かす (5:大人編)

  5. AIをローカル環境で動かす(1:基礎)

  6. ローカルLLMのAIの向こう(8. 最先端の議論)

  7. 今のAIについての疑問

  8. AIをローカル環境で動かす(2:Ollama)