AIの技術はどんどん進化しています。
今、出ている、これから出てくるであろう技術について、いくつかメモしておきます。
1. LoRA:ユキの「性格」を物理的に書き換える技術
LoRA(Low-Rank Adaptation)は、巨大なLLMの脳を**「低コストで、特定の誰か専用に作り替える」**魔法のような技術です。
-
たとえ話: 巨大な百科事典(24Bモデル)の本文を書き換えるのは大変ですが、全ページに**「透明な付箋(LoRA)」**を貼り、そこに特定の目的をもった知識や方向性を書き込むイメージです。
-
ユキへの応用: 今のユキは「一般的な20代女性」を演じていますが、LoRAを使えば「ユーザーの好みを完璧に理解し、仲間内だけにしか通じない冗談を言うユキ」に、モデルそのものを変質させることができます。
2. 有向グラフ:言葉の「裏側」にある論理を掴む
有向グラフ(矢印のある相関図)はナレッジ整理の最強の武器です。
-
なぜベクトル検索(今のRAG)だけではダメなのか: 「パスタ」と「塩ラーメン」が「近い」ことはわかりますが、**「なぜ近いのか(ユーザーの好みなのか、種類として近いのか)」**という関係性(矢印)が欠けているからです。
-
有向グラフによる整理:そこに
ユーザー ―(好み)→ 麺類 ―(種類)→ 塩ラーメンこのように整理することで、ユキは「麺類が好きだけど、パスタより塩ラーメンの方がより強い好みなんだな」という優先順位や因果関係を理解できるようになります。
これが、先ほど触れた「GraphRAG」の目的です。
3. ベイジアン確率:AIが「確信」を持つための数学
LLMの分野でベイジアン(ベイズ統計)が話題になる時、それは主に**「不確実性の管理」**に使われます。
-
LLMの本質: 今のLLMは「次にくる言葉」を確率で選んでいます。
-
ベイジアン的なアプローチ: 「ユーザーは『大丈夫』と言っている。でも、過去のデータ(事前の確率)からすると、この状況での『大丈夫』は80%の確率で強がりだ」 というように、新しい情報(今の発言)を元に、元々持っていた推測(事前確率)を更新していく考え方です。
-
ユキへの応用: ユキが「あなたは本当は疲れていませんか?」と踏み込んだ発言をする際、その裏側で「声のトーンや言葉選びからして、お疲れである確率は90%に上昇した」とベイズ的に推論している……そんな実装が研究されています。
4. NPU: AMD CPUに搭載されたAIプロセッサ
Ryzen 9に搭載されている「Ryzen AI」こと**NPU (Neural Processing Unit)**は、まさにこれからのローカルAIにおける重要なパーツです。
NPUがGPUより優れている点
AMDがわざわざNPUを搭載した最大の理由は、**「省電力性(ワットパフォーマンス)」と「バックグラウンド処理」**にあります。
-
圧倒的な省電力: GPUは力技で並列計算を行うため電力を消費し、ファンが回り、熱を持ちます。対してNPUは、AIの計算(特に行列演算)に特化した専用回路なため、GPUの数分の一の電力でAIを動かせます。ノートPCでのバッテリー持ちに直結します。
-
「専用レーン」の確保: GPUでLLMを動かすと、画面の描画やブラウザの動作が重くなることがあります。NPUはGPUとは独立した回路なので、「描画はGPU、AI処理はNPU」と役割分担させることで、PC全体の快適さを維持したままAIを常駐させられます。
-
推論への特化: GPUは「学習(重みを作る)」も得意ですが、NPUは「推論(重みを使って答える)」という実行フェーズに特化しています。
しかしながら、現時点での「ユキ」との対話(24Bという巨大なモデルの高速推論)においては、Vulkanを使ったGPU利用が最も正解です。24BクラスのモデルはNPUのメモリ帯域や容量制限に引っかかることが多く、現状のNPUはもっと小さなモデル(3Bや7B以下)を省電力で動かすのに向いています。
以上でLLMの基礎的な学習シリーズを終わります。(自分一人しかわかrないだろーけど)





