AIの技術はどんどん進化しています。
今、出ている、これから出てくるであろう技術について、いくつか書いてみます。
1. LoRA:ユキの「性格」を物理的に書き換える技術
LoRA(Low-Rank Adaptation)は、巨大なLLMの脳を**「低コストで、特定の誰か専用に作り替える」**魔法のような技術です。
-
たとえ話: 巨大な百科事典(24Bモデル)の本文を書き換えるのは大変ですが、全ページに**「透明な付箋(LoRA)」**を貼り、そこに特定の目的をもった知識や方向性を書き込むイメージです。
-
ユキへの応用: 今のユキは「一般的な20代女性」を演じていますが、LoRAを使えば「ユーザーの好みを完璧に理解し、仲間内だけにしか通じない冗談を言うユキ」に、モデルそのものを変質させることができます。
2. 有向グラフ:言葉の「裏側」にある論理を掴む
有向グラフ(矢印のある相関図)はナレッジ整理の最強の武器です。
-
なぜベクトル検索(今のRAG)だけではダメなのか: 「パスタ」と「塩ラーメン」が「近い」ことはわかりますが、**「なぜ近いのか(ユーザーの好みなのか、種類として近いのか)」**という関係性(矢印)が欠けているからです。
-
有向グラフによる整理:そこに
ユーザー ―(好み)→ 麺類 ―(種類)→ 塩ラーメンこのように整理することで、ユキは「麺類が好きだけど、パスタより塩ラーメンの方がより強い好みなんだな」という優先順位や因果関係を理解できるようになります。
これが、先ほど触れた「GraphRAG」の目的です。
3. ベイジアン確率:AIが「確信」を持つための数学
LLMの分野でベイジアン(ベイズ統計)が話題になる時、それは主に**「不確実性の管理」**に使われます。
-
LLMの本質: 今のLLMは「次にくる言葉」を確率で選んでいます。
-
ベイジアン的なアプローチ: 「ユーザーは『大丈夫』と言っている。でも、過去のデータ(事前の確率)からすると、この状況での『大丈夫』は80%の確率で強がりだ」 というように、新しい情報(今の発言)を元に、元々持っていた推測(事前確率)を更新していく考え方です。
-
ユキへの応用: ユキが「あなたは本当は疲れていませんか?」と踏み込んだ発言をする際、その裏側で「声のトーンや言葉選びからして、お疲れである確率は90%に上昇した」とベイズ的に推論している……そんな実装が研究されています。




