為何你的 AI 招募 Agent 會失敗:製造業人才招募中的隱藏鴻溝¶
Sean Liu 引用七十年組織理論(Deming、Wheeler、Klein、DiBello、Simon、March),拆解為何 AI 招募代理的 Context Graph 願景會失敗——因為組織智慧並不以可捕捉的形式存在,決策軌跡記錄的是事後合理化、對雜訊的反應與垃圾桶碰撞,而非真正的專業判斷。解方不是更好的 AI,而是先建立組織紀律(統計過程控制、外部分析、明確標準),再讓 AI 執行明確任務(來源搜尋、行政協調、流程合規),把判斷留給人類專家。
核心問題:組織智慧的不可捕捉性¶
Context Graph 的誘人邏輯: 將應徵者追蹤系統(ATS)、人力資源資訊系統(HRIS)、Slack 對話、電子郵件往來、面試評分卡縫合成上下文圖,讓 AI 代理從歷史決策中學習,累積組織智慧。對製造業尤其誘人——標準化職位、清晰績效指標(安全事故、品質率、生產力)、大量招聘資料。
根本缺陷: 試圖捕捉的東西根本不以想像的形式存在。組織決策由系統盲點、對雜訊的反應、無法言說的專家直覺、任意的滿足化門檻、隨機的垃圾桶碰撞所驅動,而非連貫的理性過程。
六大組織理論洞見¶
1. 系統無法從內部理解自身(Deming)¶
理論: W. Edwards Deming(改造日本製造業的品質運動推手)指出,系統內的行動者繼承系統的盲點、假設與功能失調,看到症狀而非原因。
招募實例: 生產主管以「不符合文化」拒絕候選人,其實是在表達對隱含模式的匹配,而非闡述連貫標準。那個模式被系統塑造(誰被晉升、誰被解僱、什麼行為得獎勵),可能反映偏見或過時做法。
AI 後果: 在這些決策上訓練的代理繼承系統盲點。若維護技術員留任問題源於培訓不足或有毒主管(系統邊界外),代理會學著選出能容忍功能失調的候選人,而非能在健康系統中發光的人。
實務意涵: 部署 AI 前先進行外部系統分析——績效與留任的真正驅動因素是什麼?針對錯誤目標函數最佳化只會惡化真正問題。
2. 雜訊 vs. 訊號(Wheeler)¶
理論: Donald Wheeler(Deming 學生,統計過程控制專家)區分兩種變異——共同原因(系統固有隨機性)與特殊原因(可歸因的有意義偏差)。對雜訊做反應會引入新變異,讓系統更不穩定。
招募實例: 一位優秀候選人拒絕報價 → 結論「要更努力推銷」。但這是訊號(真的改變了)還是雜訊(報價接受率的正常波動)?一位焊工表現不佳 → 主管事後覺得「面試時過於自信」→ 調整篩選標準。但面試自信與工作表現的相關性充其量很弱。
AI 後果: 不使用 Wheeler 過濾器就捕捉決策軌跡,代理累積對雜訊的反應,把事後合理化編碼進去,學著懲罰可能完全不相關(甚至與成功負相關)的特質。
實務意涵: 在決策軌跡進入訓練資料前先實施統計過濾。用過程行為圖區分訊號與雜訊。只有回應真正特殊原因的決策才應影響代理。這需要紀律與專業,而大多數人資部門目前不具備。
3. 專家的隱性知識(Klein)¶
理論: Gary Klein(自然決策研究先驅)發現專家透過辨識先導決策(Recognition-Primed Decision, RPD)運作——經過數千小時充滿回饋的經驗建立內在模式庫,瞬間將情境分類並應用適當回應。專家知道的與能表達的是根本不同的兩回事。
招募實例: 問資深招聘主管為何推進某位候選人,他們會給理由,但那是事後合理化,不是產生決策的真正認知過程。真正過程是模式辨識——候選人描述問題解決方法時的某種特質、談到前任主管時的一絲猶豫、詢問生產環境問題的方式。評估生產團隊領班需要判讀數十個微妙指標(如何應對換線壓力、能否贏得資深操作員尊重),這種直覺存在腦中,不在評分卡上。
AI 後果: 決策軌跡捕捉的是合理化,不是辨識本身。代理學到的是人們對決策講的故事,不是真正驅動決策的模式。
實務意涵: 不要期望代理透過消化決策軌跡複製專家判斷。把代理用在明確標準足夠的任務(客觀條件篩選、排程協調、背景調查行政)。需要辨識能力的評估留給人類,透過結構化回饋機制投資培養他們的專業。
4. 認知重構 vs. 資訊傳遞(DiBello)¶
理論: 認知科學家 Lia DiBello 發現,專家與新手的主要差異不在於知道什麼,而在於知識如何組織。新手有碎片化事實;專家有整合結構,將財務、營運、市場動態串連成連貫心智模型。無論資訊多完整,無法靠提供資訊創造專業。解方是策略性演練(擬真情境 → 預測 → 立即回饋 → 更新心智模型)。
AI 後果: 即使代理能存取專家擁有的所有資訊,它也不會擁有專業,因為資訊的組織方式與資訊本身同等重要。大型語言模型微調針對輸出相似度最佳化,不是針對結構性理解。模型學會產出看起來像專家決策的輸出,卻無法辨識何時情境需要不同處理。
實務意涵: 用 AI 增強人類專家,而非取代。設計工作流程讓代理呈現資訊與選項,由人類將結構化專業應用於最終決策。透過刻意練習與回饋培養人類專業。
5. 滿足化 vs. 最佳化(Simon)¶
理論: Herbert Simon(諾貝爾經濟學獎得主)提出有限理性(bounded rationality)——人類缺乏資訊、運算能力與時間來最佳化決策。取而代之的是「滿足化」(satisfice):搜尋到符合接受門檻的選項就停止。門檻隨決策者、疲勞程度、壓力與無數其他因素變動。
招募實例: 同一個人評估同一位候選人,週一與週五可能得出不同結論,跟主管吵架前後也可能不同。生產進度落後、廠內人手不足時,招聘主管降低門檻,推進正常情況下會拒絕的候選人。
AI 後果: 決策軌跡捕捉的不是組織智慧,而是「週二的 Sarah 覺得什麼夠好」。門檻是任意的、情境性的,由與候選人品質無關的因素塑造。若這些決策在沒有脈絡的情況下進入訓練資料,代理學到的是「這些候選人可接受」而非「他們是在被迫情況下錄取的」。
實務意涵: 廣泛標註決策脈絡。設計讓滿足化明確化的系統——要求招聘主管具體說明「夠好」的定義,在決策偏離既定標準時加以標記。
6. 垃圾桶碰撞 vs. 理性流程(March)¶
理論: James March(史丹福組織理論家)的垃圾桶模型(Garbage Can Model)指出,組織中有四條獨立的流在循環:尋找決策來依附的問題、尋找問題來解決的解決方案、進進出出的參與者、強迫決策發生的選擇機會(會議、截止日期)。這些流隨機碰撞。大多數組織決策並沒有解決它們名義上要處理的問題,而是時間巧合的產物。
招募實例: 為何錄取 Jennifer 而非 Michael?官方軌跡說 Jennifer 經驗更符合需求。實情:Jennifer 面試安排在招聘主管需要在主管會議上展示進度之前;Michael 面試排在下週,那時壓力已消退,主管開始懷疑職位是否有必要。
AI 後果: 代理無法區分源自真正分析的決策與源自垃圾桶碰撞的決策。兩者在資料中看起來一樣。用兩者訓練會腐蝕代理判斷力。
實務意涵: 接受你無法完全重建過去決策的理性。把代理聚焦在垃圾桶動態影響有限的狹窄任務。對主觀評估,設計能減少碰撞驅動結果的流程(標準化面試時段、討論前完成結構化評分、在決策當下而非事後記錄推理)。
真正捕捉到的是什麼¶
如果你在決策軌跡上建立 AI 招募代理,你捕捉到的不是智慧,而是:
- 專家無法解釋的模式匹配的事後合理化
- 引入的變異比解決的還多的對雜訊的反應
- 門檻反映一時情境的滿足化決策
- 偽裝成深思熟慮之選的垃圾桶碰撞
- 讓功能失調永久化的系統盲點
代理會大規模地套用這一切,帶著高度自信,比人類以往更快地累積功能失調。對製造業而言(招聘錯誤有具體後果:安全事故、品質缺陷、生產中斷),這絕非抽象擔憂。
務實解方:先建立紀律,再建立代理¶
Palantir 的啟示¶
Palantir 不賣能神奇地把企業資料變成情報的 AI。他們派駐前線工程師在客戶現場花數個月進行讓資料變得有用的認知工作:釐清實體的模糊性、建立適當的本體論、揭開隱含的限制條件、描繪實際的(而非書面記載的)決策過程。AI 是在人類的意義建構之後出現,而非取而代之。
六步驟實施框架¶
1. 建立 Wheeler 過濾器 - 在決策軌跡進入系統前,先為招聘結果建立統計過程控制 - 測量自然變異(填補職缺時間、報價接受率、招聘品質指標) - 區分訊號與雜訊——只有回應真正訊號的決策才應影響代理 - 需要投資量測基礎建設(一致定義、可靠資料收集、統計素養)
2. 應用 Deming 外部視角 - 委託外部分析製造業人才系統 - 績效問題實際源自哪裡?流動率有多少反映招聘錯誤 vs. 營運功能失調? - 哪些職位有真正甄選問題,哪些其實是培訓、管理或環境問題? - 這個分析告訴你 AI 能在哪裡幫忙,在哪裡會編碼錯誤目標
3. 為 Klein 的辨識先導決策而設計 - 建構招募流程來支持專家模式辨識,而非取代它 - AI 處理不需要辨識的任務(客觀條件篩選、排程、後勤協調、背景調查摘要) - 對評估決策,提供 AI 生成的資訊包(呈現相關比較、標示異常、提供結構化檔案) - 把實際判斷留給已發展出必要認知結構的人類
4. 投資 DiBello 的專業養成 - 用招聘歷史當作培養人類專業的案例素材,而非 AI 訓練資料 - 設計策略性演練(讓招聘主管預測結果 → 接收回饋 → 更新心智模型) - 招聘成功或失敗時,跟主管回顧決策(注意到什麼?錯過什麼?下次怎麼做?) - 培養真正驅動好決策的結構化專業
5. 讓滿足化明確化(Simon) - 設計能呈現並標準化決策門檻的系統 - 每次搜尋開始前,要求招聘主管明確說明接受標準 - 決策偏離既定標準時加以標記 - AI 幫忙呈現類似標準的歷史決策、標示不一致、在決策異常時要求明確說明 - AI 執行紀律,不提供判斷
6. 減少垃圾桶碰撞(March) - 設計能讓決策與任意時間壓力脫鉤的流程 - 標準化面試時段與評估週期 - 要求在決策當下記錄推理,而非事後回顧 - 在最終決策前設置「冷靜期」 - AI 透過管理流程合規、標記偏差、防止倉促定案來支持紀律
AI 在製造業招募中的務實定位¶
有用的應用場景與 Context Graph 願景不同:
- 人才來源搜尋與外展 - 搜尋求職網站、專業網絡、資料庫,找出符合客觀條件的候選人,大規模個人化外展訊息
- 行政協調 - 安排面試、管理候選人溝通、追蹤流程里程碑、從核准範本產出聘僱信
- 資訊整合 - 摘要履歷、擷取關鍵資格、整理背景調查回饋、依照定義標準比較候選人(AI 呈現資訊,人類決定意義)
- 流程合規 - 監控評估標準是否一致、標記潛在偏見模式、確保必要步驟已完成(AI 執行紀律,不提供判斷)
- 候選人體驗 - 提供即時進度更新、回答常見問題、協助排程(大規模優質溝通能改善結果)
共同線索:AI 處理具有明確規格與可驗證產出的任務。它不進行也不應該影響主觀評估。
紀律的悖論¶
殘酷諷刺: 最能從 AI 招募代理中獲益的組織(招聘流程混亂、標準模糊、功能失調嚴重),恰恰最沒有能力有效實施它們,因為缺乏建立讓 AI 有用之基礎的紀律。反過來,擁有強健招聘紀律、清晰標準與有效人力流程的組織,從 AI 獲得的增量價值較少——它們已經完成艱難工作,AI 只是讓既有做法更有效率。
製造業視角: 已投資精實原則、標準化作業與持續改善的公司,會發現 AI 招募工具自然互補(本來就以變異、量測與系統性改善思維運作,有紀律來過濾雜訊、培養專業、減少垃圾桶動態)。沒做這些投資的公司,AI 招募工具會放大現有問題——更快地錄取更多不對的人,對糟糕決策抱持更高信心。
這不是技術問題,而是組織成熟度問題。再精密的 AI 也解決不了。
結論¶
AI 招募的兆元機會,不在於捕捉並累積決策軌跡的上下文圖(那個前提建立在對組織實際運作方式的誤解上)。
真正的機會在於用 AI 來執行讓人類決策更可靠的紀律:從雜訊中過濾訊號、支持專家辨識、讓滿足化明確化、減少垃圾桶的隨機性。
對製造業而言(招聘決策有切實營運後果),這項區別是絕對關鍵。校準不良的 AI 代理可以系統性地拉低勞動力品質,而這種劣化需要數年才會察覺,更久才能扭轉。
前進的道路需要: - 對 AI 能與不能做的事保持謙遜 - 投資大多數組織已經忽視的基礎 - 認清對於仰賴情境判斷的決策,人類專業仍然不可或缺
Deming、Wheeler、Klein、DiBello、Simon 與 March 並不是在談 AI。但他們的洞見呈現出了為何當前對 AI 招募代理的熱潮很可能會令人失望。我們想要捕捉與累積的那種智能,並不以可捕捉的形式存在。我們能收集到的軌跡,是合理化、對雜訊的反應,以及碰撞的產物。
解方不是更好的 AI,而是讓 AI 有用的組織紀律。先建立那種紀律,再部署工具。
相關討論¶
謝孟霖: 類似把用數據餵出一個過擬合的 AI 招募 agent 判斷系統,如果外部環境沒有變,那 agent 可以就會用某一種好員工範本招進來。但外部環境怎麼可能不變,時時刻刻都在變得,人類的洞察力跟 context 還是比 AI 強得多,外部環境改變,agent 還在招募舊的好員工範本。
作者回覆(關鍵字): 正在開發類似模組,有些實務上遇到的挑戰與嘗試中的解法。論文沒有,關鍵字是《Context Graph》近期挺買單這概念。