SEO心得:關於原本因小失大的故事,與我今天的補救

在〈datafox 竣工後記〉裡,我很自豪地介紹了我怎麼用 JSON-LD 做 AI-SEO、怎麼把 Person Schema 埋進 extend_head.html 裡讓 Perplexity 認識我、怎麼讓 AI 搜尋引擎理解我的技術邊界。我當時覺得我在做很厲害的事情。 在大概兩個月後我打開 Google Analytics,發現一個問題。 我的流量,幾乎全部來自我自己推。每次發文 → 丟 LinkedIn → 丟群組 → 流量來一下 → 消失。 自然搜尋?幾乎零。幹我超難過的,之前在medium發文都可以吸引到自然流量,但是我這裡幾乎沒有,可憐。 一、我到底漏掉了什麼? 這件事讓我有點汗顏,因為我之前寫過的那篇 SEO 文章,某種程度上也在教別人怎麼做 SEO。但是我忽略了一個超大的問題,也就是,我做了「AI 時代的進階 SEO」,但跳過了最基本的那幾件事。 譬如說,我的文章 URL 長這樣: https://datafox.tw/posts/260303_2222/ 這串數字對 Google 來說毫無意義。Google 不知道這篇文章在講什麼,所以也沒辦法在有人搜尋相關關鍵字時把它推出來。Medium 之所以能搜尋到,原因之一就是 Medium 的 URL 長這樣: https://datafox-tw.medium.com/datafox-竣工後記-2026-個人網站實戰指南-從-想要一個網站-到真正上線-3ae9d5a615b7 一眼就知道在講什麼。 然後是文章的 description。我翻了一下,25 篇文章裡有 17 篇是空白的。 description: "" 這代表 Google 抓到我的文章時,不知道要在搜尋結果裡顯示什麼摘要。只能自己猜。猜出來的東西通常不太好看,點擊率自然也不高。 再來是,我根本沒有主動告訴 Google 我的網站存在。robots.txt 有、sitemap 有,但我從來沒去 Google Search Console 提交過。我之前都只知道ga4,但是我沒有去gsc,讓我的自然流量門可羅雀,尤其這件事情根本只要三分鐘就搞定了 二、今天做的四件事 2.1 讓 URL 說人話 在每篇文章的 front matter 加上 slug,讓新的 canonical URL 帶有關鍵字: ...

May 3, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

VibeCoding 的代價:我用了 6 個 Gmail 帳號才換來的 RAG 平台

🌐 切換為英文 (Switch to English) 因為ai社課的原因,我想要用v0這個vercel開發的ai coding平台,來建立一個可以部署上vercel的服務。如果我可以成功,學生也一定能成功,我原本是這樣想的。沒想到,因為我前幾個版本,因為我的prompt寫得不夠好,加上v0本身的智商限制(例如他常常漏東漏西或者是根本沒看懂我給他的spec導致出現幻覺亂作一通),所以一直都沒有辦法在v0給的5美金quota裡面搞定。 最後,靠我的好夥伴 Chuan-Chi Hsu 花了重本,探索v0的邊界,最後才寫出一個可以一步(喔不,最後還是靠了4步但至少做出來了)到位的prompt,讓v0 ai可以在quota限制內寫出一個想要的rag 平台,給學生參考練習。 很多人說現在是 Vibe Coding 的時代,只要有手、有 AI,什麼都能蓋出來。但作為一個正在裡面掙扎的開發者,我的 Hot Take 可能會讓你冷靜一點: ...

May 2, 2026 · 3 min · datafox & 柯宥圻 (Yuchi Ko)

讓網站自己更新:用 GitHub Actions + Gemini 做週報自動化

為什麼想做這件事 靜態網頁有一個很常見的誤解,就是「靜態」代表死的、不能動的。但其實搭配 CI/CD 之後,它可以做到很多人沒想到的事情。 我想做一件事:讓這個網站的某個欄位,每個禮拜自動更新,不需要我手動寫任何東西。我的動機有兩個: 第一個是純粹想測試 GitHub Pages 這類靜態部署在自動化上能走多遠。從爬資料、呼叫 LLM、到最後 commit 進 repo 觸發部署,整條鏈可以完全在 GitHub Actions 裡完成,不需要任何後端伺服器。這件事本身就很有趣。 第二個是實用性:GitHub Trending 是我覺得目前還沒有被充分利用的資訊源。每週跑一次 top 15,用關鍵字篩掉不相關的,剩下的讓 LLM 幫我整理摘要,然後自動發布到網站上。這樣我不用每週主動去追,資訊會自己跑到我的網站來。 技術細節 起點是找到一個乾淨的 RSS 來源。GitHub 官方沒有提供 Trending 的 RSS,但有人做了:mshibanami/GitHubTrendingRSS,每天自動更新,週報的 URL 格式長這樣: h t t p s : / / m s h i b a n a m i . g i t h u b . i o / G i t H u b T r e n d i n g R S S / w e e k l y / a l l . x m l 有了 RSS 之後,pipeline 的結構就很清楚了: ...

May 2, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

NTUAI - AIcohol 活動圓滿落幕

雖然我沒有直接擔任講師,但是這是NTUAI一次非常好的嘗試,雖然這次的活動還是有一些缺點,例如場地有點太小導致我們交談的音量混雜在一起有點困擾,或者是在桌遊店卻沒時間玩桌遊等等(這很重要!),但是透過這次的機會,讓講師和參與者進行連線,我在上禮拜五的活動中,也感受到活力滿滿、歡快的氣息。 也有可能是酒真的很好喝啦,我們買了裡面真的有檸檬的韓國燒酒,滑順香甜,覺得很讚。 最近也越來越多人意識到台灣coffee chat或者是這種交流文化相較於西方國家比較不盛行,也漸漸開始有越來越多相關的平台和活動讓人與人之間有互惠的交流,包含ntuai和我自己的coffee chat與podcast在內,雖然我是今年(2026)才開始認真經營,但透過幾次美好的交流經驗,我也漸漸發現到這一塊的重要,而且我是擅長將我的故事分享給他人的人。希望在未來我可以不忘初衷,就算真的很忙也要投入在這些事業上,不然只專注於技術真的太可惜了(也容易被AI取代!) 上星期五我們舉辦了 60 人的微醺聊職涯 AI Round Table。 這是 NTU AI Club (國立臺灣大學 人工智慧應用社) 首次舉辦大型圓桌活動,很榮幸再次與 Cake 台灣 合作,邀請到 8 位重磅講者與各位交流。 這次活動雖酌收些許費用,但不到 5 天即報名額滿,且有近六成非 NTUAI 社員(學生、社會人士)。顯示在 AI 技術劇烈發展下,大家對於深入了解 AI 職涯發展、創新創業與落地應用的企圖,早已打破界線、不再侷限於同溫層而已。 為了給大家最特別的體驗,我們做了幾個創新嘗試: 導入「AI 侍酒師」於報名過程中,即刻依據來賓經歷智慧推薦圓桌主題,並給出推薦理由。 這個網站由我帶領部門的 主題標籤#MarTech Engineer - 林奕昕(他也是本場活動的講者)在不到三天內迅速開發、測試並上架。在近期 Google API 時常 503 的情況下還能獲得超過八成的滿意度,算是非常好的表現了。 有參與者特地留言表示:「推薦結果跟我預想的圓桌志願一模一樣!」,這代表透過精準的工程設計,LLM 在極度有限的資料下也能做到令人驚豔的個人化推薦。 透過與 Cake 深度合作,共同尋找講師、善用宣傳資源。 在完全未投放付費廣告的情況下迅速滿額,非常感謝 Wan Hsuan Wu 的大力支持與協助。 活動名稱 主題標籤#AIcohol 前面兩個字母刻意設計為 主題標籤#AI ,微醺氛圍搭配自由 Networking,打破傳統圓桌交流框架。 有許多參與者也回饋他們與身邊來賓交流後,發現各個臥虎藏龍、經歷多元且豐富,能與各路好手共同交流 AI 產業知識、格局與思維,是非常難得的一次機會,很開心能讓大家有意外的收穫。 這場活動的成功,離不開所有參與夥伴的付出。 在此特別感謝五位重量級業界講師 Jeff Hu、Ray Chang、Marco (Yi Hsuan) WANG、Cheng Che Kuo、Chun-You Yang 的到來,也感謝 Mia Wang 主持本次活動、Guan Hua Wen 與 Jie-Kai (Jay) Chang 代表 NTUAI 擔任桌長,以及幕後協助活動的夥伴們。 這是我們全新的嘗試,可能有些不盡周全的地方(像是場地太小…),我們都會再檢討改進! ...

April 29, 2026 · 2 min · datafox & 柯宥圻 (Yuchi Ko)

為什麼「多說話」的 AI Agent,在金融場景可能是場災難?

在 LLM 的世界裡,我們常聽聞「多步推理(Multi-step Reasoning)」或「多代理架構(Multi-agent)」能顯著提升表現。對於激發創意、腦力激盪的場景,讓 Insights Agents 「多說幾句」確實能擴增語義邊界,激發出意想不到的火花。 但在對精確度要求極致的「金融量化驗證」場景,多說話反而可能讓表現變得很爛。 最近讀了 JPMorgan 發表在 EMNLP 2025 的論文 《A Multi-Agent Framework for Quantitative Finance》。這篇論文提出了一個包含 Data Summarizer、Finance Expert、Query Refiner 等「Insights Agents」的框架,試圖透過增加金融知識與數據預處理來強化 Base Agent 的表現。 雖然這項研究在學術上探索了複雜架構的可能性,但從實戰角度看,我必須說一句重話:這絕對不可能是 JPMorgan 內部實際在跑的 Production 系統。 原因很簡單:正確率(Pass@1)太低了。 1. 46% 的準確率:這只是個 Baseline 根據論文數據,即便疊加了這麼多 Insights Agents,整體的 Pass@1 準確率僅有 46%(對比單一 Agent 的 39.59%)。在處理「Hard」級別的金融問題時,準確率更是慘不忍睹 。對於量化金融這種「錯一個正負號就差之毫釐,謬以千里」的領域,這樣的表現遠未達標。 2. 「反思」的陷阱 (Reflection Trap) 論文提到了一個有趣的現象:在某些簡單(Easy)任務中,加入反思機制(Reflection)後的 Pass@5 或 Pass@10 指標竟然比沒加還低 。這再次證實了:如果 Agent 缺乏外部的物理驗證(如:硬性的符號檢驗或單元測試),它只是在「胡亂自信地修正」,結果往往越改越糟。 3. 缺乏標準答案的危險性 在真實業務場景中,如果我們手頭沒有標準答案(Ground Truth),這種「多代理、多話」的架構會產生極強的誤導性。它會吐出一堆看起來非常專業的金融術語、生成的代碼和詳細的反思日誌,讓用戶產生一種「它懂很多」的錯覺。但當你深究其計算邏輯,會發現它可能連欄位定義都搞錯了 。 核心反思: 金融驗證需要的是符號式的精確(Symbolic Precision)與邏輯的嚴密檢驗,而不是更多浮誇的語義填充。我們不能依賴 LLM 的「語言天賦」來解決「邏輯運算」的問題。 ...

April 29, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

為什麼我要努力寫機器學習作業?哄騙自己乖乖努力的一個證明題

去年的今天,我在米蘭大教堂吃Princi的奶油包、看米蘭大教堂、在森皮奧內公園躺者很隨便地刷者西班牙大停電的新聞,當天深夜要回巴賽隆納,我正在想者巴賽隆納機場到底會不會恢復營業,今年的現在,我正在看擔任機率助教課程時學生出的題目,趕者機器學習的作業,但是所有的機器學習作業都會有很多的零碎閒暇時間,我現在這個模型train一個大概要10分鐘,然後有很多種不同的variant要準備,看了model要看論文,看了論文要看數據合理性,就算覺得不太合理也會透過與ai討論讓他變得合理,最後還要把報告壓在六面之內,我默默的把一些好像不重要但對我來說很有趣的實驗結果刪掉,感覺有一點點空白。 在等待模型收斂的時候我永遠都在分心,就算我有在專注於目前的任務上,我也不敢一口氣改太多的code,深怕我一動,terminal在跑的任務就開始出bug,一步錯步步錯讓我的ddl追趕計畫更加的不從容,所以我就開始滑者一些無意義的手機試圖麻痺自己,等到滑完了模型也差不多好了,那我就看結果,看數據,繼續,然後看個論文之類的,這樣子的切換、整合、思考常常讓自己覺得是不是在孤軍奮戰。 但其實不是啊,我今天的行程是這樣的,我睡了九個小時多(我知道這對於研究生來說是不合理的時數,但我就很累很愛睡覺)、跟我的好朋友去錄音podcast兼吃午餐,跟實驗室開會,也吃了好吃的晚餐,但就是靜下來試圖要處理實驗室或助教或課程的時候常常會質疑自己,我目前做的一切會不會很空泛而沒有意義,就算我真的發現出了什麼,在AI的洪流下我就像一個微小的水滴一樣,可能滴下的時候會有一點小水花,但是AI以及把AI玩得嚇嚇叫的人總是會繼續產出更多會讓人分心的內容,我的研究和想法除了自己之外到底還有誰會認真對待?在現今注意力越來越破碎,太多人只看成就評斷他人,甚至連成就都不看只看外表或傳言就對人品頭論足,那我現在做的這些LLM研究、教學工作、甚至是普通的寫作業到底意義何在呢? 我也在想,這些研究內容如果是讓LLM自己研究,搞不好他也可以做得很好,在LLM知識逐漸超過人類的時代,我們研究這些LLM可以很隨意的講出我原本要研究好一陣子才會理解的內容,那知識的意義和價值到底是什麼? 其實這些問題我早就想過很多次了,也大概有初步的答案,例如說我正在建立dots, 未來我這些dots會被connect起來,像是我結合過往的實習經驗成功組合出一個更好的實習,或者是我過往的點子剛好合併起來,讓人想喊Eureka的時候,但我剛剛在隨機亂想的時候,我忽然想到,我累積的知識資本連接起來,應該可以讓我換更多的自由和可移動性。 我的生命函數是這樣的:我人生的最大效用函數是從現在此時此刻起到人生結束這段時間的快樂總和,然後有time weighted所以現在或者短期內快樂的效用是更高的且比較容易取得,但未來還有好長就算time weighted折現到現在還是重要,所以我現在不能夠直接放棄學術和研究因為這對未來重要。 那麼為什麼會說學術和研究甚至現在眼前的功課重要呢?那就要用倒推法推回去。 如果我要追求快樂,我認為最好的方式要馬是累積更多不同的體驗來為人生增添色彩,要馬是透過與人之間愉悅的相處來取得快樂,就是累積自己的選擇權,而且這些選擇權是「買起來沒啥成本,但用起來可能會在某個時間點很快樂的」,所以累積自己的選擇基本上就是在未來都可以保持「有很多個選項可以選」的狀態,通常這個狀態如果我選好的話可以帶給我快樂,至於如何幫我增加選擇呢?我認為來源可以歸類成兩個,一個是金錢一個是自由度(可移動性),這也是我目前最想要平衡的內容,如果我現在犧牲短期的快樂,那應該就要換來長期的快樂源頭,也就是金錢和自由度,而我做的那些讓自己現在沒那麼快樂的事情(例如現在的作業)帶來的經驗軌跡,通常都是為了提升這兩個指標。 而要怎麼得到金錢和自由度有很多種方式,但是其中提升自己可以選的選項是重要的,例如最近很紅的問題是問ai「你覺得我做什麼截然不同的工作會大放異彩?」,ai跟我說「非虛構敘事策展人(Non-fiction Narrative Curator)」或「城市歷史轉譯者」會非常適合你。我聽了他的理由也覺得非常的有道理,但是我要怎麼樣才能夠比較舒適的在有備援計畫的情況下,讓我嘗試這一塊呢?自然就是,首先我要累積賺到自由度和金錢才能夠去做選擇,那麼原則上做個人品牌,累積coffee chat和做podcast可以讓我認識更多人,我自然有更多選擇,這個算是直接的貢獻,然後去做軟體工程師,想辦法搞到google實習,這些就是同時累積金錢和自由度的好方式,而經營自媒體也是幫自己提升自由度,因為如果自己夠有能力(包含提升金錢和自由度)的話,就可以移動到不同的城市,花更多的時間做自己想做的事情(那些可以直接帶來快樂的事情),讓我可以回到米蘭躺者看人同時也能夠保持收入這樣。 哎兜兜轉轉一大圈還是得回到我有點不想面對的ddl,我現在學的llm技巧或者是機器學習基石,除了讓自己得到學習本質性的快樂以外,也是為了展示我的能力,這樣的dots累積更多,未來就能夠取得更多機會,然後選擇好的機會就可以帶來更多錢和自由,金錢、自由和機會是相互循環的,而我現在的投資技能長期來看至少可以幫我帶來自由金錢機會其中一個,而這三個的組和和正循還可以為我帶來快樂,例如我可以更無痛的嘗試城市歷史轉譯者這個領域,帶給我更多幸福及正循環,如果這三個加起來總和起來是提升的我應該都是一個幸運且在往上的人。

April 28, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

從「文字接龍」到「無所不能的LLM大人」:那些消失在 Bug 裡的對話記錄

最近,我心血來潮備份了自己的 ChatGPT 對話紀錄,想回頭看看這段長達一兩年的「人機協作」到底是從哪裡開始的。因此,我使用了chatgpt的備份功能。在備份檔裡,我發現了我名義上的「第一個問題」: 時間: 2023-03-23 19:22:14 主題: 翻譯文章 內容: “Can you help me translate several articles from Traditional Chinese to English” 看起來非常合理,一個大學生、一份翻譯任務,這是一個再標準不過的 AI 使用起手式。但看著這個日期,我心裡總覺得不對勁:不,我的「第一次」絕對不是在三月,而是更早的 2022 年底。主題是「情緒勒索檢測器」。 那個被遺忘的「情緒勒索檢測器」 記憶被拉回到 2022 年 12 月。那時候我正在修「文字探勘初論」,期末專案需要訓練一個「情緒勒索分類器」。我們打算用 BERT 做二元分類,預測一段文字是否具有情緒勒索的含義。為了增加訓練樣本,我找上了剛問世不久的 ChatGPT,叫它幫我寫幾句情緒勒索的話。 但我對它的第一印象其實非常糟糕:「這東西也太枯燥無聊了吧?」 儘管我叫它發揮創意,它生成的句子依舊老套、生硬,完全比不上現實生活中那些靈活的勒索。當時的我正處於「知識的詛咒」中——這門文字探勘初論有介紹過GPT 2, 也 Hugging Face 下載過 GPT-2 來玩,我還記得介紹GPT2的時間是11月底,那時候老師有提到說GPT3剛出但是他還沒研究,但應該和2差不多,在老師的眼裡gpt2這種文字接龍的model還沒有產生出太大的價值。而在我的認知裡,這類模型不過就是「比較厲害一點的文字接龍」而已,能有什麼了不起的? 那時我根本不是什麼 AI 死忠粉絲,我只覺得它是一個表現好一點的模型,完全沒預料到它會徹底改變接下來兩年的技術生態。 那些消失的「黑歷史」 在 2023 年 3 月之前,我其實已經斷斷續續地在利用這個「接龍模型」處理一些生活瑣事: 公關危機處理: 當時身任學生會會長,下面有人出事了,我得寫道歉信請求原諒。我把重點塞進去,讓 AI 幫我潤飾出一份體面的「公關稿」。現在想想還真的是不堪回首的黑歷史xd 寫些 Fancy 故事: 偶爾突發奇想,讓它寫一些天馬行空的小故事。 整理機器學習概念: 當時 AI 還很容易產生幻覺,我不敢讓它「自由發揮」。我會把教科書的內容整段複製貼上,像對待一個「進階版搜尋引擎」一樣,叫它幫我整理重點。 但為什麼這些紀錄都消失了? 這就得提 2023 年 3 月中下旬那場著名的「產品災難」。當時 OpenAI 出現了嚴重的 Redis Bug,導致許多人的對話歷史外洩、消失,甚至整排歷史紀錄被封鎖好幾天。現在回頭看,我的 2022/12 到 2023/03/20 之間的紀錄,很可能就是在那次混亂中成了犧牲品。Sam Altman 真的欠我一個道歉(笑)。 ...

April 23, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

永久版「免費coffee chat」宣言

1. ☕️ 聊聊 AI,也聊聊人生:免費 Coffee Chat 預約 不要再做一些華而不實的自我感動了,來利用coffee chat破解職涯迷霧 我深信最強大的技術如果沒有經過對話與轉譯,就只是冰冷的代碼。我重視質疑精神、嚴謹的技術,以及真摯的合作。如果你也厭倦了 AI 圈常見的馬屁文化,嚮往那種「Zero-bullshit」、直指核心的交流,歡迎找我敲門。 Coffee Chat 對我來說是一個共學的過程,因此完全免費。如果你覺得這場對話對你有幫助,我會邀請你將這份喜悅轉化為對 他鄉狐狸 或者是台灣猛禽研究會的支持。這是我作為 DataFox,對這片土地與生態的一點私心。 2. 🎤 技術轉譯:公眾演講、工作坊與顧問諮詢 除了私下的 Coffee Chat,我也喜歡在講台上將複雜的技術碎形,拼湊成大家都能理解的實作地圖。我具備引領不同背景的使用者(從技術新手到中階開發者)深入理解 AI 應用的經驗。如果你有以下需求,歡迎來信洽談或直接預約時段討論: 🔸 針對企業與公部門 (Consulting & Speaking) AI 導入與基礎建設:避開盲目追求模型的陷阱,建立符合資安規範且具備商業邏輯的 RAG 系統。 跨部門 AI 通識教育:打破技術門檻,讓非工程人員也能精準掌握 Prompt Engineering 與 Agentic AI 的潛力。 🔸 針對技術團隊 (Engineering Workshop) LLMOps 工程實踐:從資料前處理、GraphRAG 建構到自動化評測流程的完整落地。 Agentic Workflow 設計:打造具備長期記憶、能自我糾錯且靈活調用工具的智能體系統。 On-Device AI 諮詢:評估 AI 模型在邊緣端(行動裝置)落地的可行性與效能優化。 最重要的:🗓 預約交流網址 / Book a Session “Þetta reddast”—— 冰島人常說「一切都會好轉的」。無論你是對技術感到迷惘,還是對職涯感到焦慮,說不定聊一聊,我們就能找到那個正確的推理路徑。 Calendly網址

April 23, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

拒絕 AI 的「彩色稀泥」:六頂思考帽作為人機協作的新通訊協定

如果你常跟 AI 討論決策,你一定遇過這種情況:它總是試圖給出一個「各個面向都兼顧」的回答。表面上很全面,實際上卻是不痛不癢、毫無立場的 「彩色稀泥」。 這種現象源於 AI 底層的訓練機制(RLHF),讓它天生具有 「平庸陷阱」 與 「馬屁精傾向」。也就是說,如果你的問題很平庸,或者沒有特殊的情緒與強烈假設,AI 通常會趨向於給出一個保守、全面但某種程度上空泛的回答。 為了打破這種平庸的循環,我建議將愛德華·德·波諾(Edward de Bono)的 「六頂思考帽」 重新定義為一種人機溝通的 「約束協定」。我個人非常喜歡這個架構,最近也在實作使用這個架構與 AI 溝通,並試圖找出其中的優勢與陷阱。 🎩 基礎篇:什麼是六頂思考帽? 在進入人機協作之前,我們必須先釐清這套工具的本質。它的核心在於 「平行思考(Parallel Thinking)」。 讓所有人「在同一時間朝同一個方向看」,避免大腦在處理資訊、情感、風險與創意時產生混亂。這實際上是把一個複雜的問題進行分類,並且 逐個擊破(類似於 MECE 原則)。一旦把這六個面向徹底討論清楚,通常會發現事情沒有想像中那麼複雜混亂。 六頂帽子的基本職能 ⚪ 白帽 (White): 數據與事實。中立且客觀,不帶評論。 🔴 紅帽 (Red): 直覺與情感。不需要理由,直觀表達恐懼、興奮或不安。 ⚫ 黑帽 (Black): 邏輯與風險。指出潛在威脅與缺陷,必須有理有據。 🟡 黃帽 (Yellow): 價值與效益。尋找可行性、利益點與樂觀面。 🟢 綠帽 (Green): 創意與可能性。發散思考,提出替代方案。 🔵 藍帽 (Blue): 控制與指揮。負責定義目標、設定順序並控制節奏。 🛠 實行重點與守則 適用時機 涉及多方利益衝突的決策、技術複雜度高的戰略評估,或團隊陷入無效爭辯時。 實行方式 序列模式 (Sequential): 預先設定好一套帽子的順序。 選擇模式 (Selective): 針對特定議題,彈性選取當下最需要的帽子進行強化。(這在與 AI 討論時特別重要! 畢竟它是你的私人助理)。 時間控制 (Time Boxing): 強制每一頂帽子的思考時間(通常 1-3 分鐘),逼出最直覺與高效的觀點。 實行 Do & Don’t ✅ Do: 確保所有人「同時」戴上同一頂帽子。 ✅ Do: 即使極端不認同某個方向,戴上帽子後也要盡力扮演那個人格。 ❌ Don’t: 拿顏色來給人貼標籤(例如:「你這人就是很黑帽」)。 ❌ Don’t: 在戴帽時夾帶私貨(例如:在白帽階段偷偷進行黑帽的批評)。 🤖 進階篇:為什麼 AI 總是毀了六頂思考帽? 當我們把這套守則套用在 AI 身上時,你會發現它常犯三種錯誤: ...

April 19, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)

咒語的終結:為什麼 2023 年的「提示工程師」神話是一場集體幻覺?

我最近在回顧2023年的新聞,當時大家都在吹捧,提示工程師將會成為矽谷的下一個可領高薪的機會,甚至是文組進入科技業的最佳賽道,例如這篇:link 我當時也是看到這樣的內容才決定從金融業嘗試跨足到AI領域的,沒想到越陷越深。 回頭看 2023 年夏天,那是一個「提示工程師(Prompt Engineer)」被捧上神壇的年份。那時的我,看著 Midjourney 剛起步時那種需要極其精準、甚至帶點玄學色彩的關鍵字才能產出堪用圖片的過程,也曾一度以為:這或許就是未來,也就是一種人類利用「直覺」與「經驗」去探測模型邊界的藝術,我們透過人類的經驗累積,找到這個黑盒子的「正確打開方式」,要怎麼樣去喚醒這個大型魔術盒,才能夠得到我們需要的東西,而且variance還很大。 但站在 2026 年的今天,這個神話已經徹底破滅。 好的 Prompt 不是天賦,而是模型的「缺陷」 當時我們以為能寫出好的 Prompt 是一種稀缺的人才天賦,現在看來,那不過是模型訓練分佈不夠完善所導致的補償行為。我最近在重新深讀CLIP(Contrastive Language-Image Pre-training),這是一個如何將圖片和自然語言結合的黃金標準,對五年後的今天仍然有用,但一些trick卻被認為是模型的缺陷,而這些缺陷,當時的論文中就有提到,應該是透過模型架構的進化,而非prompt engineering來完成,當時的prompt engineering更像是為了優化表現的無奈之舉。 架構的早期階段,模型對語義的理解充滿了噪訊。我們之所以要寫 a photo of…、4k resolution、hyper-realistic,本質上是在幫模型做手動的「特徵校準」。我們在做的不是創作,而是在幫模型尋找它在那張扭曲的高維流形(Manifold)中,少數幾個被正確標註的座標點。 隨著算力的暴力突破與數據清洗技術的進步,模型現在已經具備了強大的語義對齊能力。當模型已經能精準理解「自然語言」時,那些刻意堆砌的「關鍵字咒語」就變得一文不值。模型變聰明了,人類的「調教經驗」就貶值了。 回歸本質:為什麼底層架構才是真理? 當「咒語」不再神祕,真正的護城河才顯露出來。與其鑽研「如何跟模型說話」,不如理解「模型為什麼這樣說話」。舉例來說: Next-token Generation: 理解自回歸模型的本質,你就會明白為什麼模型會產生幻覺,以及為什麼「CoT」能提升邏輯。 Bi-encoder 與 Cross-encoder: 理解向量空間的對齊與交互,你才會知道為什麼有些檢索任務(RAG)永遠做不準,以及 CLIP 為什麼能實現零樣本(Zero-shot)學習。 這些底層架構的理解,才是能跨越模型迭代週期的硬知識。當你懂了底層邏輯,你就不會因為 Midjourney 出了 V7 或 Gemini 出了新版本而感到焦慮,因為你知道無論表面怎麼變,那套數學本質是一樣的。 另外,李宏毅老師的課程也很努力的去找出在現在這個光速發展的時代,哪些才是在展望數年內都非常重要的內容,並且教給大家,我覺得這樣才是職人應該要有的精神,我也很感謝他這幾年來的影片,帶給我們對LLM的正確直覺。 新創團隊的集體焦慮:你的功能,只是別人的「順便」 這對找工作或創業也是極大的警示。2024 年初,有無數新創團隊投入大量精力開發基於 Prompt 的應用(例如:幫你寫履歷、幫你修圖),甚至是幫你連接API分析財務資訊。結果呢?當 Claude 或 Gemini 更新一個小功能,這些新創公司往往在一天之內就被「降維打擊」。 因為你的護城河如果是蓋在別人的「不完善」之上,當別人變完善時,你也就消失了。 未來的「黃金組合」:底層理解 + 領域專業 那麼,在 2026 年,什麼樣的人才才是真正值錢的? 答案是:具備底層 AI 架構理解能力,並能與深厚領域知識結合的人。 如果你懂 法律,且理解 AI 是如何透過向量空間進行判例檢索的,你就能開發出專業律師真的敢用的工具。 如果你(真正)懂 財金,且明白 Transformer 對於時間序列與結構化數據的處理侷限,你就不會盲目相信模型給出的預測。 技術護城河從來不是最尖端的、隨時會被覆蓋的「潮流知識」,而是那種底層邏輯與現實專業領域的深度耦合。這種組合,才是算力暴力無法輕易突破的護城河。 ...

April 18, 2026 · 1 min · datafox & 柯宥圻 (Yuchi Ko)