wen aidev
Published on

AI 應用基礎篇:理解 AI 與開發架構

AI 應用開發架構總覽圖

前言

現在openai,gemini,claude 公司都有直接提供api給開發者使用,所以實際上是不用理解ai訓練過程也能直接使用, 對開發者來說理解 AI model架構,是為了了解ai model 的"能耐"。

像是多模態模型可以產生圖片和接收理解使用者上傳的圖片」。

開發者角色 只需要理解應用層面分層架構。這些架構不是強制規範,不用被因此限定住.

1.Ai模型訓練

模型訓練(Model Training)是讓 AI 模型學會執行特定任務的過程。 簡化來看,其流程如下:

資料收集 → 模式學習 → 參數調整 → 驗證效果

  1. 資料收集(Data Collection):準備大量與任務相關的資料,例如文字(Text)、圖片(Image)、聲音(Audio)
  2. 模式學習(Pattern Learning):透過演算法(Algorithm),模型從資料中找出規律與特徵(Features)。
  3. 參數調整(Parameter Tuning):根據預測結果持續調整模型的參數(Parameters),以提升準確率。
  4. 驗證效果:測試模型在新數據上的表現

更精確的流程(適用於大型模型)

Pretraining → Finetuning → Post-training(如 RLHF)→ Testing

各階段解釋:

  1. Pretraining(預訓練)  模型使用大量非結構化資料(如網頁、書籍等)學習通用語言模式。這階段模型學會「語言常識」,但不特定於某任務。

  2. Finetuning(微調)  模型針對特定任務或領域資料進行再訓練,例如醫療問答、客戶服務等。

  3. Post-training(後訓練)/強化學習(如 RLHF)  可能包含人類回饋訓練(Reinforcement Learning from Human Feedback),讓模型在回應品質上更貼近人類期望。

  4. Testing / Evaluation(測試/驗證)  在未見過的資料集上測試模型的泛化能力。

    💡 大型語言模型(如 GPT)通常會經歷預訓練與微調兩個階段,先透過大規模語料建構語言能力,再針對特定任務進行調整與優化。

AI 模型訓練硬體架構

AI 模型訓練的硬體架構示意圖

訓練 vs 推理

  • 訓練階段:需要大量 GPU 算力,時間可能長達數週或數月
  • 推理階段:使用已訓練好的模型來回答問題或生成內容

對開發者來說,我們主要關注推理階段。使用現成的 AI 模型來建構應用。

如果要客製化模型

自己訓練ai model 成本是很嚇人的 通常是採用Finetuning (微調)現有的模型。

現代 AI 應用架構

2.現代 AI 應用簡易分層架構:

AI 應用架構分層圖

現代 AI 應用的三層架構

🚀 應用層 (AI Applications)

這是使用者能直接的使用的工具:

  • 對話 AI:ChatGPT、Claude、Gemini 等聊天機器人
  • 創作工具:Midjourney、DALL·E、Runway 等圖像/影片生成工具
  • 程式開發:GitHub Copilot、Cursor 等程式碼助手

🛠️ 開發框架層 (Development Frameworks)

這是開發者最常接觸的層面,提供建構 AI 應用的工具,也是未來文章主要會寫的部分:

LLM 框架

  • LangChain:最受歡迎的 LLM 應用開發框架
  • LlamaIndex:專注於資料檢索和 RAG 系統
  • Semantic Kernel:Microsoft 開發的企業級框架
  • AutoGen:多 Agent 協作框架

向量資料庫

  • Pinecone:雲端向量資料庫服務
  • Chroma:開源向量資料庫
  • 用途:儲存和檢索文檔嵌入向量,支援 RAG 系統

開發者角色使用這些框架快速建構 AI 應用,不需要從零開始寫 AI 邏輯

no code平台 像是dify ,flowise 是等同這層,用拖曳元件取代coding而已。

🧠 模型服務層 (Model Services)

這是 AI 能力的底層來源:

API 服務

  • OpenAI API:GPT 系列模型的官方 API
  • Anthropic API:Claude 模型的官方 API
  • 特點:付費使用,穩定可靠,無需自行部署

開源模型

  • Llama 3:Meta 開發的開源大語言模型
  • Mistral:歐洲開發的高效能開源模型
  • 特點:免費使用,需要自行部署(gpu算力)和管理

模型部署

  • Ollama:本地部署開源模型的簡便工具
  • vLLM:高效能模型推理引擎
  • 用途:將開源模型部署到自己的伺服器.

開發者角色:通常是使用API搭配框架快速建構 AI 應用,
也可選擇部署開源模型=>要注意的是ai GPU運算費用是很貴的。

架構層級的選擇策略

新手建議路徑1

  1. 第一步:使用 API 服務(OpenAI API)

    • 成本低、上手快
    • 專注於應用邏輯,不用管模型部署
  2. 第二步:學習開發框架(LangChain,autogen)

    • 提高開發效率
  3. 第三步:先做簡單應用

    • chatbot、聊天機器人、簡易ai agent

新手建議路徑2 (no code)

  1. 第一步:使用 API 服務(OpenAI API)

    • 成本低…上手快
    • 專注於應用邏輯,不用管模型部署
  2. 第二步:直接使用nocode 平台(dify,flowise ai,langflow等)-這類nocode平台手動拖曳連接就可以 做出來的內容其實就是等同langchain框架 缺點是無法細部設定,要開發複雜邏輯也比較困難

  3. 第三步:先做簡單應用

    • chatbot、聊天機器人、rag

不同框架對比

框架

適用場景

優點

注意事項

LangChain

建構聊天機器人、RAG 問答系統、多工具 AI 助理

高度模組化、支援工具串接與多模型整合

學習曲線略高,容易堆疊複雜結構

LlamaIndex

文件搜尋、RAG 系統、知識庫整合

索引結構彈性高,支援多資料來源連結

主要聚焦資料檢索,需搭配其他框架完成完整應用

Semantic Kernel

企業流程整合、AI 工具插件、.NET 生態應用

支援技能模組與 Planner,易與傳統程式結合

生態系偏 .NET,用戶需熟悉 C# 或 Python

AutoGen

多代理人協作、任務自動分工、複雜多步驟任務

支援多角色互動、可模擬團隊對話與決策流程

架構較複雜,需清楚定義代理人職責與溝通流程

3.AI 應用開發的關鍵概念

1. RAG (Retrieval-Augmented Generation)

概念:結合資料檢索和文字生成,讓 AI 能回答特定領域問題

工作流程

  1. 將企業文檔轉換為向量
  2. 使用者提問時,先檢索相關文檔
  3. 將檢索結果作為上下文,讓 LLM 生成回答

    最簡單理解Rag就是讓ai模型像是查書後回答 書=向量資料庫

2. Agent (AI 代理)

概念:能自主決策和執行任務的 AI 系統

特點

  • 可以呼叫外部工具和 API
  • 具備記憶
  • 能分解複雜任務為小步驟

    例子: cursor ,manus

3. 多模態 AI (Multimodal AI)

概念:能處理文字、圖像、音訊等多種資料類型的 AI

應用

  • 圖文並茂的內容生成
  • 語音助手
  • 視覺問答系統

現在大模型基本上都是多模態 open ai,claude,Gemini 這已經變成幾乎標準配備.
=>小模型或開源模型不一定是多模態.

簡單說多模態就是:

訓練的時候就用圖片+文字訓練所以=>模型能理解圖片,可生成圖片回應使用者

總結

現在你已經掌握 AI 應用開發的整體架構

現代 AI 系統通常採用分層設計:

應用層:最接近使用者的產品功能,例如聊天機器人、問答系統、智能搜尋等

框架層:開發者常用的應用開發工具,如 LangChain、AutoGen、LlamaIndex 等

模型層:提供核心 AI 能力的基礎模型,例如 GPT-4、Claude、Mistral 等

對多數開發者來說,工作重心會落在 應用層框架層:你會整合 API、串接資料、設計工作流程,並透過框架快速構建可用的 AI 功能。

下一篇文章,我們會深入介紹這些開發框架的實作方式


支持作者 ☕

台灣用戶:

透過 LINE Pay 支持

國際用戶:

透過 Ko-fi 支持

留言討論