ファインチューニング

事前学習済みのLLMを、特定のタスクやドメインに合わせて再学習する技術。モデルの振る舞い(文体、出力形式、推論パターン)を調整できる。

仕組み

  1. ベースモデル(GPT-4、Claudeなど)を用意
  2. 自社データセット(入力・出力ペア)を準備
  3. モデルのパラメータを少し調整(追加学習)
  4. 特定タスクに最適化されたモデルが完成

RAGとの違い

手法 仕組み 適したケース 更新コスト
ファインチューニング モデル自体を再学習 文体、出力形式の調整 高(再学習が必要)
RAG 検索結果をプロンプトに追加 知識の追加・更新 低(データ追加のみ)

重要な違い:

適したユースケース

ファインチューニングが有効

RAGが有効

併用が最適

ファインチューニングの種類

1. Full Fine-tuning

2. LoRA(Low-Rank Adaptation)

3. Prompt Tuning

コストと工数

初期構築:

運用:

限界

  1. 頻繁な更新に不向き: 毎日変わる情報には対応できない
  2. データ品質に依存: 低品質データで学習すると性能が下がる
  3. 過学習リスク: 特定データに偏りすぎる可能性
  4. 説明可能性の低下: なぜその回答をしたのか分かりにくい

ファインチューニングのベストプラクティス

  1. まずプロンプトエンジニアリングを試す: 再学習は最後の手段
  2. RAGとの組み合わせを検討: 知識はRAG、振る舞いはファインチューニング
  3. 評価データセットを用意: 学習データと別に、性能測定用のデータを準備
  4. 過学習を監視: 学習データへの過適合を防ぐ

主要プラットフォーム

関連