blog: https://blog.wu-boy.com/2025/12/building-ai-powered-github-workflows-with-llm-action-zh-tw/
GitHub: https://github.com/appleboy/LLM-action
1. 解決「輸出不可預測」的問題: LLM Action 支援 Tool Schema 結構化輸出,使用者可以預先定義 JSON Schema,強制 LLM 的回應符合指定的格式。這將 AI 輸出從傳統的「難以解析的自由文字」轉變為「可程式化、可預測的結構化資料」。結構化資料的每個欄位會自動轉換為 GitHub Actions 的輸出變數,讓後續的自動化步驟能直接取用,從而實現精準的條件判斷(例如根據審查結果決定是否阻擋合併)和流程控制。
2. 解決「服務商綁定」的問題: LLM Action 提供了統一介面,可串接任何 OpenAI 相容的服務。這使得使用者能夠自由且無縫地切換各種 LLM 服務,包括雲端的 OpenAI、Azure OpenAI,或本地部署的自託管方案(如 Ollama、LocalAI 等),提供了極大的彈性。
總結來說,LLM Action 透過結構化輸出和統一介面,真正實現了端到端的 AI 自動化工作流程,使得 AI 輸出能夠可靠地直接驅動後續的 Code Review、PR 摘要、Issue 分類或多語言翻譯等自動化流程