如果你常跟 AI 討論決策,你一定遇過這種情況:它總是試圖給出一個「各個面向都兼顧」的回答。表面上很全面,實際上卻是不痛不癢、毫無立場的 「彩色稀泥」。

這種現象源於 AI 底層的訓練機制(RLHF),讓它天生具有 「平庸陷阱」 與 「馬屁精傾向」。也就是說,如果你的問題很平庸,或者沒有特殊的情緒與強烈假設,AI 通常會趨向於給出一個保守、全面但某種程度上空泛的回答。

為了打破這種平庸的循環,我建議將愛德華·德·波諾(Edward de Bono)的 「六頂思考帽」 重新定義為一種人機溝通的 「約束協定」。我個人非常喜歡這個架構,最近也在實作使用這個架構與 AI 溝通,並試圖找出其中的優勢與陷阱。

🎩 基礎篇:什麼是六頂思考帽?

在進入人機協作之前,我們必須先釐清這套工具的本質。它的核心在於 「平行思考(Parallel Thinking)」。

讓所有人「在同一時間朝同一個方向看」,避免大腦在處理資訊、情感、風險與創意時產生混亂。這實際上是把一個複雜的問題進行分類,並且 逐個擊破(類似於 MECE 原則)。一旦把這六個面向徹底討論清楚,通常會發現事情沒有想像中那麼複雜混亂。

六頂帽子的基本職能

  • 白帽 (White): 數據與事實。中立且客觀,不帶評論。
  • 🔴 紅帽 (Red): 直覺與情感。不需要理由,直觀表達恐懼、興奮或不安。
  • 黑帽 (Black): 邏輯與風險。指出潛在威脅與缺陷,必須有理有據。
  • 🟡 黃帽 (Yellow): 價值與效益。尋找可行性、利益點與樂觀面。
  • 🟢 綠帽 (Green): 創意與可能性。發散思考,提出替代方案。
  • 🔵 藍帽 (Blue): 控制與指揮。負責定義目標、設定順序並控制節奏。

🛠 實行重點與守則

適用時機

涉及多方利益衝突的決策、技術複雜度高的戰略評估,或團隊陷入無效爭辯時。

實行方式

  • 序列模式 (Sequential): 預先設定好一套帽子的順序。
  • 選擇模式 (Selective): 針對特定議題,彈性選取當下最需要的帽子進行強化。(這在與 AI 討論時特別重要! 畢竟它是你的私人助理)。
  • 時間控制 (Time Boxing): 強制每一頂帽子的思考時間(通常 1-3 分鐘),逼出最直覺與高效的觀點。

實行 Do & Don’t

  • ✅ Do: 確保所有人「同時」戴上同一頂帽子。
  • ✅ Do: 即使極端不認同某個方向,戴上帽子後也要盡力扮演那個人格。
  • ❌ Don’t: 拿顏色來給人貼標籤(例如:「你這人就是很黑帽」)。
  • ❌ Don’t: 在戴帽時夾帶私貨(例如:在白帽階段偷偷進行黑帽的批評)。

🤖 進階篇:為什麼 AI 總是毀了六頂思考帽?

當我們把這套守則套用在 AI 身上時,你會發現它常犯三種錯誤:

  • 白帽洩漏 (Judgmental Leakage): AI 沒辦法純粹陳述事實。在戴上白帽(數據)時,它總忍不住接一句「這顯示出仍有改善空間」,這種評斷已經越界到了黑帽或黃帽的領域。

  • 偽紅帽的直覺崩潰: AI 本質是純粹的 System 2(慢想/運算)。雖然 Instant 模型像快思、Thinking 模型像快想,但兩者都不是紅帽那種原始的、無法模擬的直覺(AI 無法模擬人類情感)。它是在「邏輯推演」情感,這讓紅帽失去了那種「說不上來但就是覺得不對勁」的決策關鍵。

  • 教條式的過場: AI 傾向於死板地從白走到藍,忽略了藍帽的靈活性。真正的協作重點在於 「同步」 —— 「我們現在到底要看哪個方向」的全局觀。與其讓 AI 決定現在該戴什麼帽子,不如由人類決定框架,讓 AI 專注於它擅長的工作(如:單一帽子時的深度討論、結束後的總結)。

🚀 實戰篇:人機協作的新典範

這套系統如果設計得當,就是 防範馬屁精行為 的最強武器。

1. 同步戴帽 (Synchronized Action)

這不是「我問,AI 答」,而是「我們現在一起戴上同一頂帽子」。當我們戴上黑帽,兩者都必須進入極端批判的人格。如果 AI 試圖在黑帽階段說一句好話,這在協定上就被視為 「技術失效」。

2. 人機共戴藍帽 (Co-Blue Hatting)

藍帽(流程控制)不應只是人類的特權。AI 擁有強大的元數據監控能力,它應該擔任你的 「導航員」。

  • 人類的藍帽職責: 設定終極目標,確保不偏離核心價值。
  • AI 的藍帽職責: 監控討論是否進入邏輯死胡同,並主動提議轉換帽子(例如:黑帽卡關太久時,提議轉向 5 分鐘綠帽)。

3. 起點與終點皆為藍帽

一場高品質的討論必須具備嚴密的 「人格扮演」 邊界:

  • 藍帽起點: 定義問題、分配最適合的帽子序列、設定時間限制。
  • 藍帽終點: 總結下一步行動(Next Step 方針),並評估這次思考路徑的有效性。

⚠️ 實踐中的硬傷與限制

  • 上下文污染 (Context Contamination): AI 的注意力機制會受前文影響。如果前文太過樂觀,切換到黑帽時 AI 容易噴得不夠徹底。
  • 戲子陷阱: AI 有時會學會帽子的「口氣」(變得很兇),但卻沒提供對應的「邏輯深度」。
  • 人格而非立場: 記住,戴上帽子後是在「扮演角色」,而非盲目支持或反對。

🦊 Datafox 總結:剝奪 AI 的「平衡感」

AI 的天性是追求和稀泥。如果你想要真正的決策洞察,你必須 強行剝奪 AI 的平衡感。

下次對話時,試著跟 AI 說:「現在,我們要一起戴上黑帽 5 分鐘,如果你敢給我任何建設性建議或正面鼓勵,你就輸了。」

唯有透過極端化的約束,AI 才能從一個平庸的助理,進化成一個能挑戰你思維邊界的戰友。

本文持續更新中。我還在繼續測試這套框架,如果有新的發現會再分享給大家。