AI 名詞說明(2026-04)

AI 名詞說明

AI 發展速度非常快,三不五時就有新名詞,如果你對 AI 名詞有疑問,不妨參考這篇文章。

大語言模型 (LLM)

Large Language Model (LLM) 是一種可以處理自然語言的模型,它會根據我們輸入的文字,計算出下一個詞可能出現的機率分布,再依照設定挑選出下一個詞(有時會選最可能的,有時也會保留一些隨機性)。

在討論 AI 的時候,可能會有人問你喜歡哪一個模型(Model),其實就是在問你喜歡哪一個 LLM。

如果你喜歡 ChatGPT,你可能會回答「我喜歡 ChatGPT 模型」,但事實上這並不夠準確。

當你開始使用 ChatGPT、Gemini、Claude 等 AI 工具,細心的你可能會注意到,我們是可以選擇模型(Model)的,例如使用 ChatGPT 的時候,你可以選擇 GPT-5.4 或 GPT-5.4 mini 或 GPT-5.4 nano 等等不同的模型。 因此,準確來說 "ChatGPT" 是一個 AI Chat 工具,而不是一個模型(Model)。

所以現在再來看, OpenAI 跟 ChatGPT 是什麼關係? OpenAI 是一家 AI 公司,它開發了 ChatGPT 這個 AI Chat 產品,而 ChatGPT 有多種模型(Model)可以選擇,像是GPT-5.4 或 GPT-5.4 mini 或 GPT-5.4 nano 等等不同的模型。

相同的概念再來看 Claude 以及 Gemini:

Claude 是由 Anthropic 公司開發的 AI 工具,目前他的主流模型選擇有:Opus-4.6, Sonnet-4.5, Haiku-4.5 等不同的模型。

Gemini 是由科技巨頭公司 Google 所開發的 AI 產品,Gemini 有 Gemini 3.1 Pro, Gemini 3 Flash, Nano Banana Pro 等模型可供選擇。

Agent Application

為什麼 ChatGPT、Gemini、Claude 等工具可以回應我們問題並做出行動呢?因為該工具的背後運行了 Agent 來處理我們下達的指令。

這些軟體並不只是簡單地把我們的文字傳送給 LLM 而已,他們會動態管理提示詞、控制 LLM 輸出,讓 LLM 可以使用工具操作我們系統中的檔案等等。

現在,很多人稱呼這種可以理解自然語言能並且真的可以為我們做事的軟體為 Agent

但我個人比較習慣稱呼 ChatGPT、Gemini、Claude 這種軟體為 Agent Application,因為 Agent 是寄宿在 Agent Application 中的一個有特定身份、目標與工具的獨立個體。

Agent

Agent 與 AI 聊天機器人(如:ChatGPT),最大的區別在於:它不只是「會說話的百科全書」,而是「會做事的虛擬員工」,它是一個具備目標導向、自主性與環境互動能力的軟體系統。

Github Copilot 對 Agent 的說明是:

An agent is an AI system that autonomously plans and executes coding tasks.
You give the agent a high-level goal, and it breaks the goal down into steps, executes those steps with tools, and self-corrects when it hits errors.

在 Github Copilot 中,我們可以新增自訂義的 Agent,我們可以設定不同的 Agent 的人格特質、工作特質、可用工具等等。讓 Agent 更像是解決特定問題的專家。

這裡提到的管理可用工具,其實就是間接在管理 Agent 的權限,像是只給 read 工具、而不給 write 工具。

提示詞 Prompt

這是我們跟 AI 溝通最直接的辦法,下「提示詞(Prompt)」

不管你是用 ChatGPT、Gemini、Claude 還是其他 AI 工具,你都可以透過一個文字輸入框,將文字訊息(甚至附加檔案)傳給 AI。

在這個動作所傳送給 AI 的資訊內容就叫做 提示詞 (Prompt)

在某些 Agent Application 中,提示詞 (Prompt) 可已被儲存成一個檔案,方便我們重複使用。

上下文 Context

現代的 Agent Application 很智能,它們傳送給 LLM 的訊息除了我們當下提供的 Prompt 之外,還會自動幫我們引入 INSTRUCTIONS, SKILLS, AGENTS.md 等內容。

這些由Agent Application 背後幫我們整理的資訊 + 當前對話的歷史訊息 + 提示詞 組合而成的整體資訊就是我們所說的 Context

Context Scope

Context 是 AI 把事情做對的關鍵!

當我們傳送給 LLM 的訊息,沒有足夠且有效的 Context,就像是老闆交辦任務給我們的時候,沒把任務內容說清楚,我們只能通靈,賭看看老闆是否滿意。

如果矯枉過正的把所有資訊塞給 AI,反而會導致 AI 錯亂,降低表現。如何把 Context 給的剛好,是門藝術。

AGENTS.md

2025 年之前,每一個 Agent Application 都有自己一套維護固定規則的模式,像是 gemini-cli 使用 GEMINI.md,Cursor 使用 Rules 等等。

2025 年後許多 Agent Application 開始支援使用 AGENTS.md,這讓團隊中使用不同的 Agent Application 的夥伴們可以共用同一份憲法檔案。

雖然 AGENTS.md 開始被廣泛使用,但像是 Claude Code 目前還是沒有內建自動讀取,官方的做法是要 Claude Code 的 User 在 CLAUDE.md 中加入 @AGENTS.md 來手動引入

INSTRUCTIONS

在 Github Copilot 中 INSTRUCTIONS 是一種可以指定檔案範圍的憲法檔案,讓 AI 在處理該檔案範圍內的程式碼時,必須遵守的規則。

我們可以依照不同的路徑載入不同的 instruction 檔案,這在模組化良好的大型專案中很有效,你可以特定模組的領域知識、背景故事、業務考量、開發規則等等,這樣 Coding Agent 在處理該模組的程式碼時,就可以做處更符合需求的結果。

例如我們可以透過下面這份 instruction 來讓 Coding Agent 在處理 test 目錄中的 ts 檔時遵守獨有規則。

---
applyTo: test/**/*.ts
---
# 核心目標
在處理此範圍內的檔案時,請確保測試代碼具有高度的可讀性、可維護性與獨立性。
 
# 規則與慣例
- **命名規範**: 測試案例標題應使用 "should [預期行為] when [特定情況]" 的格式。
- **結構標準**: 遵循 AAA 模式 (Arrange-Act-Assert),並使用註解明確標註這三個區塊。
- **框架偏好**: 優先使用 Vitest 作為測試執行器,並搭配 `vi.mock()` 進行模組模擬。
- **斷言風格**:
  - 優先使用 `expect(...).toBe(...)` 進行基本型別比較。
  - 對於物件比對,使用 `toStrictEqual` 而非 `toEqual`。
- **禁止事項**:
  - 嚴禁在測試檔案中使用 `any` 型別。
  - 避免測試之間的狀態共享,確保每個 `it` 或 `test` 塊都能獨立執行。
  - 不要模擬 (Mock) 你正在測試的目標對象本身。

INSTRUCTIONS 是穩定載入的,只要目標檔案吻合 applyTo 的規則,就可以穩定被 Coding Agent 套用。

很可惜這種穩定的按需載入並不是每一個 Agent Application 都有支援。但是我們可以自己實作類似的概念,例如在 AGENTS.md 中加入這樣的訊息:當你要修改 test/**/*.ts 的檔案時,請務必遵守 docs/TEST_GUIDELINES.md

SKILLS

SKILL 是一種按需加載資訊的機制,Agent Application 一開始只會把 SKILL.md 中的 name, description 資訊載入到 Context 中,然後在執行任務時,由 LLM 依照 Context、Prompt 的資訊自主決定是否要動態加載完整的 SKILL.md 文件內容。

SKILL 概念推出的時候,之所以討論度高,是因為除了動態加載內容以外,他還教會了使用者要提供工具、資源給 AI 使用,這對沒想過可以這樣用 AI 的人來說是個很大的驚喜,完全開啟了另一個世界。

你知道有個叫做 Tessl 的工具,專們用來管理 SKILL 嗎?目前我還沒開始用,如果你有使用,不妨跟我分享你的使用心得。

Specification-Driven Development (SDD)

Specification-Driven Development(SDD)是一種「先把規格說清楚,再讓 AI 與人類共同落地」的開發方法。它通常會先有可被人與機器理解的規格(例如需求、限制、驗收標準、介面契約),再進入實作與驗證。

在 AI Coding 的情境中,SDD 的價值是把「模糊需求」轉成「可執行的上下文」,降低反覆猜需求與重工的成本。你可以把它想成:先把藍圖畫準,再讓 Coding Agent 高速施工。

常見流程可以簡化成:Specify(定義)→ Plan(規劃)→ Task(拆解)→ Implement(實作)。其中人類負責對齊目標與關鍵決策,Agent 負責加速產出與回饋。

近期討論度高的 SDD:

Harness

LangChain Blog - The Anatomy of an Agent Harness 有提到:Agent = Model + HarnessHarness 指的是「模型以外,讓模型真的能完成工作的整套機制」。

這包含像是 system prompt、tools / skills / MCP、檔案系統、sandbox、流程編排、hooks、驗證回路等等。模型負責生成;Harness 負責提供邊界、能力與回饋。

我自己是這樣對比想像的:我是一個 Agent,我的頭腦(靈魂)是個 LLM,我的身體/做事原則/方法/工具以及遵守的規範是 Harness

RAG

RAG (Retrieval-Augmented Generation) 是一項結合「搜尋」與「生成」的技術名詞。

一般情況 AI 回答問題僅能依賴過去訓練時學到的記憶,容易產生資訊過時或虛構事實(幻覺)的問題。而 RAG 就像是給了 AI 翻課本的權利:當使用者提問時,系統會先從指定的資料庫中檢索出最新、最相關的資訊,再交由 AI 進行整合輸出。

這項技術普遍用於需要即時性、準確性、可溯源的場景,例如:客服系統、教育平台、法律諮詢、技術文件助手等。

有興趣可以參考我寫的檢索增強生成 RAG 的介紹與實作文章。

結語

本文介紹了 13 個跟 AI 相關的名詞,日後若有新的名詞出現,我也會更新這篇文章,歡迎時常回來看看。