ITで遊ぶ

AIをローカル環境で動かす(3:GUI編)

  • AI

以下は購入したminiPCで稼働するWindows11前提の話です。

黒画面でAIは動き、会話できます。
でも、世界中のみんなが思ったようです。「愛想ないなぁ」

Ollama GUI

Windowsならば右下のアイコンでOllamaマークを右クリックしてOpen OllamaするとGUIが出ます。
これがなかなかスグレモノで、モデルファイルを書き換えたら、New Chatをクリックするだけで古いモデルは除去され、リロードが始まります。
テストはOllama GUIですね。

とても簡単なWEBクライアントアクセス

リモートからのアクセスはできないか?
そこでインストールすべきなものがOpen Web UIです。定番です。ん、ダメです。設定がちょーめんどくさい。

AIといろいろ相談しても、簡単なパッケージは見つかりませんでした。
でも、おかしな話です。Ollamaとはポート11434でAPI通信ができ、REST APIの用意があるんですよ?

ならばシンプルなJavascriptをもったページを作ってしまえ、ということで作りました。
ここに置いておきます。1ページWEBアプリです。
中身は意外と長いです。Open WebUIよりなによりもシンプルなだけに、トラブルが起きてもわかりやすいメリットがあります。

Webサーバーですが、私はMicrosoft StoreにあるSImple Web Serverを使わせてもらっています。だってシンプルなんだもん。

 

関連記事

  1. ローカルAI 話題のLFM2.5をRyzen9で試した

  2. ローカルLLMでAIを強化する(6:Ollamaのプログラム版編)

  3. 今のAIについての疑問

  4. AIの若干の歴史

  5. AI彼女をローカル環境で動かす(10.記憶編)

  6. 流行りのMini PC(AMD)を買ってみた

  7. ローカルLLMのAIの向こう(8. 最先端の議論)

  8. AI彼女をローカル環境で動かす(4:モデルチューニング)