ITで遊ぶ

ローカルLLMのAIの向こう(7. 最先端の議論)

  • AI

AIの技術はどんどん進化しています。
今、出ている、これから出てくるであろう技術について、いくつか書いてみます。


1. LoRA:ユキの「性格」を物理的に書き換える技術

LoRA(Low-Rank Adaptation)は、巨大なLLMの脳を**「低コストで、特定の誰か専用に作り替える」**魔法のような技術です。

  • たとえ話: 巨大な百科事典(24Bモデル)の本文を書き換えるのは大変ですが、全ページに**「透明な付箋(LoRA)」**を貼り、そこに特定の目的をもった知識や方向性を書き込むイメージです。

  • ユキへの応用: 今のユキは「一般的な20代女性」を演じていますが、LoRAを使えば「ユーザーの好みを完璧に理解し、仲間内だけにしか通じない冗談を言うユキ」に、モデルそのものを変質させることができます。


2. 有向グラフ:言葉の「裏側」にある論理を掴む

有向グラフ(矢印のある相関図)はナレッジ整理の最強の武器です。

  • なぜベクトル検索(今のRAG)だけではダメなのか: 「パスタ」と「塩ラーメン」が「近い」ことはわかりますが、**「なぜ近いのか(ユーザーの好みなのか、種類として近いのか)」**という関係性(矢印)が欠けているからです。

  • 有向グラフによる整理:そこにユーザー ―(好み)→ 麺類 ―(種類)→ 塩ラーメン このように整理することで、ユキは「麺類が好きだけど、パスタより塩ラーメンの方がより強い好みなんだな」という優先順位や因果関係を理解できるようになります。

これが、先ほど触れた「GraphRAG」の目的です。


3. ベイジアン確率:AIが「確信」を持つための数学

LLMの分野でベイジアン(ベイズ統計)が話題になる時、それは主に**「不確実性の管理」**に使われます。

  • LLMの本質: 今のLLMは「次にくる言葉」を確率で選んでいます。

  • ベイジアン的なアプローチ: 「ユーザーは『大丈夫』と言っている。でも、過去のデータ(事前の確率)からすると、この状況での『大丈夫』は80%の確率で強がりだ」 というように、新しい情報(今の発言)を元に、元々持っていた推測(事前確率)を更新していく考え方です。

  • ユキへの応用: ユキが「あなたは本当は疲れていませんか?」と踏み込んだ発言をする際、その裏側で「声のトーンや言葉選びからして、お疲れである確率は90%に上昇した」とベイズ的に推論している……そんな実装が研究されています。

 

関連記事

  1. 流行りのMini PC(AMD)を買ってみた

  2. AIの若干の歴史

  3. ローカルLLMでAIを強化する(6:Ollamaのプログラム版編)

  4. AIをローカル環境で動かす(1:基礎)

  5. AI彼女をローカル環境で動かす(4:モデルチューニング)

  6. AIをローカル環境で動かす(2:Ollama)

  7. AIをローカル環境で動かす(3:GUI編)

  8. ローカルLLMのAIを強化する(7.RAG編)