iPAS練功房

名詞解釋

Fine-tuning 是什麼?微調、RAG、Prompt Engineering 一次搞懂

2026-03-22

一句話解釋

Fine-tuning(微調)是指拿一個已經預訓練好的模型,用你自己的資料再訓練一輪,讓它更擅長處理你的特定任務。

用比喻來理解

預訓練模型就像一個受過通識教育的畢業生——他什麼都懂一點,但不是任何領域的專家。

Fine-tuning 就是讓他去做「在職訓練」:用特定領域的資料(法律文件、醫療記錄、客服對話等)再訓練一陣子,讓他在這個領域更專業。

預訓練 vs Fine-tuning

階段預訓練Fine-tuning
資料量超大量(網路文本)相對少量(特定領域)
訓練時間數週到數月數小時到數天
計算資源極高(數千 GPU)相對低
目標學會語言的通用知識適應特定任務

你不需要從零訓練一個模型,只需要在別人訓練好的基礎上做微調。這是 Fine-tuning 最大的價值——站在巨人的肩膀上

Fine-tuning 的類型

全量微調(Full Fine-tuning)

更新模型的所有參數。效果最好,但需要較多計算資源和資料。

LoRA(Low-Rank Adaptation)

只更新模型中一小部分的參數(低秩矩陣),大幅降低計算成本。這是目前最流行的微調方法。

Prompt Tuning

不改模型參數,只學習一組「軟提示」加在輸入前面。成本最低,但效果有限。

什麼時候該用 Fine-tuning?

適合的場景

  • 需要模型產出特定風格或格式的文字
  • 特定領域的專業術語和知識(法律、醫療、金融)
  • 模型需要學會某種分類邏輯
  • 需要更高的任務準確度

不適合的場景

  • 只是需要存取最新資訊 → 用 RAG
  • 只是需要改變回答格式 → 用 Prompt Engineering
  • 資料量太少(幾十筆)→ 效果不會好

Fine-tuning vs RAG vs Prompt Engineering

這三個概念很常一起出現在考題中:

方法改什麼成本適用場景
Prompt Engineering改輸入的提示零成本調整回答風格和格式
RAG加入外部知識需要即時、準確的知識問答
Fine-tuning改模型參數需要模型學會新的行為模式

實務上,這三者經常組合使用。例如:先做 Fine-tuning 讓模型適應領域語言,再用 RAG 提供最新資料,最後用 Prompt Engineering 控制輸出格式。

注意事項

災難性遺忘(Catastrophic Forgetting)

微調過程中,模型可能會「忘記」預訓練時學到的通用知識。解決方法:

  • 控制學習率(用較小的學習率)
  • 混合通用資料和專業資料一起訓練
  • 使用 LoRA 等參數高效的微調方法

資料品質比數量重要

100 筆高品質的標註資料,效果可能比 10,000 筆低品質的資料更好。微調的資料需要仔細清洗和標註。

iPAS 考試怎麼考?

必記重點

  1. Fine-tuning = 用自己的資料「再訓練」已有的模型
  2. 跟 RAG 和 Prompt Engineering 的差異
  3. LoRA 是目前主流的參數高效微調方法
  4. 災難性遺忘是微調的常見風險

常見考題方向

  • 「某企業希望讓 AI 以特定的公司語氣撰寫行銷文案,最適合使用哪種方法?」→ Fine-tuning
  • 「Fine-tuning 和 Prompt Engineering 最主要的差異為何?」→ Fine-tuning 改變模型參數,Prompt Engineering 只改變輸入
  • 「使用少量資料微調模型時,最適合使用哪種技術?」→ LoRA