我最近在回顧2023年的新聞,當時大家都在吹捧,提示工程師將會成為矽谷的下一個可領高薪的機會,甚至是文組進入科技業的最佳賽道,例如這篇:link

我當時也是看到這樣的內容才決定從金融業嘗試跨足到AI領域的,沒想到越陷越深。

回頭看 2023 年夏天,那是一個「提示工程師(Prompt Engineer)」被捧上神壇的年份。那時的我,看著 Midjourney 剛起步時那種需要極其精準、甚至帶點玄學色彩的關鍵字才能產出堪用圖片的過程,也曾一度以為:這或許就是未來,也就是一種人類利用「直覺」與「經驗」去探測模型邊界的藝術,我們透過人類的經驗累積,找到這個黑盒子的「正確打開方式」,要怎麼樣去喚醒這個大型魔術盒,才能夠得到我們需要的東西,而且variance還很大。

但站在 2026 年的今天,這個神話已經徹底破滅。

  1. 好的 Prompt 不是天賦,而是模型的「缺陷」

當時我們以為能寫出好的 Prompt 是一種稀缺的人才天賦,現在看來,那不過是模型訓練分佈不夠完善所導致的補償行為。我最近在重新深讀CLIP(Contrastive Language-Image Pre-training),這是一個如何將圖片和自然語言結合的黃金標準,對五年後的今天仍然有用,但一些trick卻被認為是模型的缺陷,而這些缺陷,當時的論文中就有提到,應該是透過模型架構的進化,而非prompt engineering來完成,當時的prompt engineering更像是為了優化表現的無奈之舉。

架構的早期階段,模型對語義的理解充滿了噪訊。我們之所以要寫 a photo of…、4k resolution、hyper-realistic,本質上是在幫模型做手動的「特徵校準」。我們在做的不是創作,而是在幫模型尋找它在那張扭曲的高維流形(Manifold)中,少數幾個被正確標註的座標點。

隨著算力的暴力突破與數據清洗技術的進步,模型現在已經具備了強大的語義對齊能力。當模型已經能精準理解「自然語言」時,那些刻意堆砌的「關鍵字咒語」就變得一文不值。模型變聰明了,人類的「調教經驗」就貶值了。

  1. 回歸本質:為什麼底層架構才是真理?

當「咒語」不再神祕,真正的護城河才顯露出來。與其鑽研「如何跟模型說話」,不如理解「模型為什麼這樣說話」。舉例來說:

  • Next-token Generation: 理解自回歸模型的本質,你就會明白為什麼模型會產生幻覺,以及為什麼「CoT」能提升邏輯。
  • Bi-encoder 與 Cross-encoder: 理解向量空間的對齊與交互,你才會知道為什麼有些檢索任務(RAG)永遠做不準,以及 CLIP 為什麼能實現零樣本(Zero-shot)學習。

這些底層架構的理解,才是能跨越模型迭代週期的硬知識。當你懂了底層邏輯,你就不會因為 Midjourney 出了 V7 或 Gemini 出了新版本而感到焦慮,因為你知道無論表面怎麼變,那套數學本質是一樣的。

另外,李宏毅老師的課程也很努力的去找出在現在這個光速發展的時代,哪些才是在展望數年內都非常重要的內容,並且教給大家,我覺得這樣才是職人應該要有的精神,我也很感謝他這幾年來的影片,帶給我們對LLM的正確直覺。

  1. 新創團隊的集體焦慮:你的功能,只是別人的「順便」

這對找工作或創業也是極大的警示。2024 年初,有無數新創團隊投入大量精力開發基於 Prompt 的應用(例如:幫你寫履歷、幫你修圖),甚至是幫你連接API分析財務資訊。結果呢?當 Claude 或 Gemini 更新一個小功能,這些新創公司往往在一天之內就被「降維打擊」。

因為你的護城河如果是蓋在別人的「不完善」之上,當別人變完善時,你也就消失了。

  1. 未來的「黃金組合」:底層理解 + 領域專業

那麼,在 2026 年,什麼樣的人才才是真正值錢的? 答案是:具備底層 AI 架構理解能力,並能與深厚領域知識結合的人。

如果你懂 法律,且理解 AI 是如何透過向量空間進行判例檢索的,你就能開發出專業律師真的敢用的工具。

如果你(真正)懂 財金,且明白 Transformer 對於時間序列與結構化數據的處理侷限,你就不會盲目相信模型給出的預測。 技術護城河從來不是最尖端的、隨時會被覆蓋的「潮流知識」,而是那種底層邏輯與現實專業領域的深度耦合。這種組合,才是算力暴力無法輕易突破的護城河。