多年試錯後,我終於破解了AI提示的密碼

AI提示工程精通 - 編寫有效提示的完整指南
區分AI新手與大師的隱形藝術
核心真相

AI不能讀取你的想法。它讀取的是你的文字。你想要的和你得到的之間的差距,幾乎總是溝通問題,而非AI的局限。

讓我告訴你一切改變的那個時刻。我盯著螢幕,沮喪到了極點,看著AI又一次生成了技術上正確但完全偏離重點的回覆。我請求幫助重構一段複雜的程式碼,這種事我之前做過幾百次。但這一次,無論我怎麼措辭,AI都不斷添加不必要的複雜性,破壞現有模式,「改進」那些本不需要改進的東西。那種挫敗感引領我進入了一個兔子洞,這個洞將佔據我接下來兩年的生活——並徹底改變了我與人工智慧的工作方式。

覺醒 - 當我所知的一切都不再有效

我清楚記得意識到自己完全不懂的那一刻。深夜,截止期限迫在眉睫,我需要AI幫忙完成一個本該很簡單的任務。我輸入提示,按下確認,看著AI產出的東西讓我想把筆記型電腦扔出窗外。

問題是,我以為我懂AI。從ChatGPT早期我就開始用了。我讀過關於提示工程的文章。我知道「角色扮演」和「要具體」。但我就坐在那裡,得到的回覆感覺像是在和一個聽清了我每個字卻完全不理解我真正需要什麼的人交談。

那種挫敗感成了我的老師。我深入研究官方文檔、研究論文、論壇討論,以及數千小時的實驗。我發現的不僅僅是技巧和訣竅——而是一種完全的範式轉變,關於如何與以模式、機率和token思考的機器進行溝通。

💡

世界上最強大的AI,如果你無法表達你真正需要什麼,也是毫無用處的。提示不是尋找魔法詞語——而是理解AI如何處理語言,並據此建構你的溝通方式。

這是沒人告訴初學者的真相:那些從AI獲得驚人結果的人和那些沒有的人之間的差異,不在於智力或技術能力。而在於溝通。與AI的溝通遵循的規則與人類溝通相似——但有著關鍵的不同。

這份指南包含了我在那段旅程中學到的一切。不是那種充斥網路的過度簡化的「要具體」建議,而是深入、細緻的理解,能夠改變你與AI工作的方式。無論你是在寫第一個提示還是在建構生產級AI系統,接下來的內容將永遠改變你與人工智慧的關係。

無人傳授的基礎 - 核心提示解剖

在進入高級技術之前,讓我分享改變我一切的框架。我現在寫的每個有效提示都包含這五個要素的某種組合:

1
上下文

AI需要了解你情況的哪些資訊?背景資訊、限制條件、相關細節,以及你工作的環境。

2
任務

你到底想讓AI做什麼?具體說明你請求的動作——不只是主題,而是實際的工作。

3
格式

輸出應該如何結構化?清單、段落、程式碼區塊、表格、JSON——明確指定。

4
限制

AI應該避免什麼?存在什麼邊界?什麼明確不在範圍內?

5
範例

你能展示你想要什麼嗎?範例勝過千言萬語——它們展示而非解釋。

大多數人只包含任務。他們只說「幫我寫封郵件」,而他們應該說「給客戶寫一封專業的郵件,解釋專案延期。控制在150字以內,承認給對方帶來的不便,並提出推遲兩週的新時間線。語氣應該是道歉的但自信的。」

輸出品質的差異是巨大的。而這只是開始。

結構的力量

提示寫作中最被低估的一個方面是結構化格式。現代AI模型對清晰劃分的部分響應特別好。我大量使用XML風格的標籤,因為它們創建了明確的邊界:

結構化提示模板
<context>
你正在幫我準備一個面向技術利益相關者的演示。
受眾熟悉軟體開發但不特別了解AI。
</context>

<task>
用5個關鍵點解釋大語言模型如何運作。
</task>

<format>
- 使用要點形式
- 每個要點1-2句話
- 避免術語或在使用時定義它
</format>

<constraints>
- 不要提及具體的模型名稱
- 關注概念,而非技術實現
- 總長度控制在200字以內
</constraints>

這種結構做了一件強大的事:它迫使在提問之前清晰地思考你需要什麼。清晰的思考產生清晰的溝通,清晰的溝通產生清晰的結果。XML標籤不是魔法——它們是你自己思想的鷹架。

🎯

結構不是為了讓提示更長——而是為了讓你的意圖毫不含糊。一個結構良好的短提示每次都勝過一個冗長的長提示。

改變一切的六種思維模式

經過多年的實驗,我把我的方法提煉成了六種核心「思維模式」——不是死板的模板,而是靈活的思維方式,能夠解鎖大多數人從未發現的AI能力。這些不是關於找到完美的詞語;而是關於用正確的心智模型來對待AI互動。

思維模式1:讓AI選擇專家

我們都知道給AI一個角色有幫助。「扮演行銷專家」比一般性問題產生更好的行銷建議。但這是大多數人錯過的:當你不知道哪個專家最適合你的問題時,你可以讓AI來選擇。

我在策劃公司活動時發現了這一點。我不知道我需要行銷視角、營運視角,還是其他什麼。所以我沒有猜測,而是先讓AI選擇最合適的專家。

專家選擇提示
我想探索[領域],具體是[問題/場景]。
先不要回答。

首先,選擇最適合思考這個問題的領域專家。
他們可以是在世的或歷史上的,著名的或相對不知名的,
但必須在這個特定領域真正出色。
如果你不確定,在選擇之前先問我2個定位問題。

輸出:
1. 你選擇了誰以及他們的具體領域
2. 為什麼選擇他們(三句話)

然後請我描述我的詳細問題。

當我用這個方法策劃活動時,AI選擇了Priya Parker——一位我從未聽說過的活動設計專家,但她原來非常合適。我得到的答案不是泛泛的「考慮這五個因素」的回覆——而是細緻入微的、具體的指導,感覺像是在和一個做過幾百次這種事的人交談。

思維模式2:讓AI先提問

這是我用得最多的技術。我稱之為「蘇格拉底式提示」——不是試圖預測AI需要知道的一切,而是讓它問我問題,直到它有足夠的上下文來給出真正有用的答案。

想一想:當你向聰明的朋友徵求建議時,他們不會立即開始回答。他們會問澄清問題。他們會探索上下文。他們確保理解後才給出建議。AI也能這樣做——但前提是你提出要求。

蘇格拉底式提示模板
[你的問題或需求]

在回答之前,請先問我問題。

要求:
- 一次問一個問題
- 根據我的回答,繼續深入
- 繼續直到你有95%的信心理解我的真正需求和目標
- 然後才給我你的答案或解決方案

95%的閾值確保品質同時避免無限迴圈。

我在決定是否雇用我們第一個HR人員時使用了這個方法。我沒有得到泛泛的「雇用HR的利弊」回覆,AI問了關於我們目前的團隊規模、招聘速度、合規要求、預算限制和文化目標的問題。在回答了大約十五個針對性問題後,我得到了針對我實際情況的建議——不是那種勉強適用的教科書式答案。

🔑

「95%信心閾值」是一個關鍵細節。它足夠高以確保品質,但又足夠現實使AI不會無限迴圈。這個簡單的短語改變了AI對待對話的方式。

思維模式3:與AI辯論

AI有一個大多數人沒有意識到的問題:它太容易附和了。它往往會告訴你你想聽的,而不是挑戰你的假設。當你試圖驗證想法或準備應對批評時,這種「諂媚」可能是危險的。

解決方案是明確將AI定位為想要反駁你立場的對手。我在準備一個會議演講時發現了這一點。我有一個想要呈現的論點,但我擔心盲點。

辯論提示模板
我即將參加一場辯論。很多人會挑戰我的立場。

我的立場:[你的論點/想法]

我需要讓這個想法變得無懈可擊。

如果你是一位學者,決心證明我是錯的,使用每一個
可用的論據、細節和邏輯工具,你會如何攻擊我的立場?

你唯一的目標:證明我是錯的。
不要客氣。不要模稜兩可。攻擊。

接下來發生的事改變了我對AI的看法。我們來回交鋒了三個小時。AI發現了我沒有考慮到的論點弱點,提出了我無法駁回的反例,推動我完善我的立場直到它能夠經受真正的審視。最後,我有了一個更強的論點——更重要的是,我預料到了我將面對的每一個主要反對意見。

思維模式4:對你的計劃進行預演失敗分析

人類在規劃時往往過於樂觀。AI跟隨我們的引導,也往往過於樂觀。這產生的計劃在紙上看起來很好,但在現實面前就會崩潰。

預演失敗技術顛覆了這種動態。不是問「我應該怎麼做這件事?」,而是問「假設這件事慘敗了——為什麼?」

預演失敗提示模板
[你的專案/計劃]

假設這個專案災難性地失敗了。

寫一份事後分析報告,回答:
1. 衰退訊號最初出現在什麼時候?
2. 最致命的決策錯誤是什麼?
3. 哪個核心風險被忽略了?
4. 如果能回到過去,你最先會改變什麼?

基於類似的真實世界專案失敗來進行分析。
把這當作真正的失敗覆盤來寫,而不是理論練習。

我在策劃一個大型會議時用了這個方法。AI的預演失敗分析識別出了我完全錯過的風險:排隊管理、洗手間容量、餐飲時間安排、安保瓶頸。這些不是奇怪的邊緣情況——它們是可預測的問題,只是我沒有想到,因為我把注意力放在了活動令人興奮的部分。這個預演失敗分析可能讓我們避免了幾次尷尬的失敗。

思維模式5:逆向工程成功

有時你看到某個優秀的東西——一篇文章、一個設計、一種方法——你想複製它的精髓而不直接抄襲。逆向提示讓你能夠提取其中的底層原則。

逆向工程提示
這是我想要的結果範例:

[貼上範例]

請逆向工程一個能夠可靠地生成具有相同風格、
結構和品質內容的提示。

解釋提示的每個部分做什麼以及為什麼重要。

這不是關於抄襲——而是關於學習。當我看到觸動我的文章時,我使用這個技術來理解為什麼它有效。什麼結構元素創造了節奏?什麼語調選擇創造了感覺?一旦我理解了原則,我就可以將它們應用到我自己的原創內容中。

思維模式6:雙重解釋法

在學習新東西時,大多數人要麼得到過於簡化、實際上什麼都沒教的解釋,要麼得到他們跟不上的專家級解釋。解決方案是同時要求兩者。

雙重解釋模板
請解釋[概念]。

提供兩個版本:

1. 初學者版本:想像向一個在這個領域沒有任何背景
   的人解釋。使用日常類比,避免所有術語。
   讓它真正易於理解。

2. 專家版本:假設讀者是相關領域的專業人士。
   技術上要精確。不要過度簡化或淡化複雜性。

我在閱讀技術論文時經常使用這個方法。初學者版本讓我對概念有直覺,專家版本給我精確的細節。透過比較它們,我可以準確看到簡化在哪裡,以及我可能錯過了什麼細微差別。這就像有兩個教學風格互補的老師。

智能體思維 - 將AI視為同事

這是一個改變了我AI互動的範式轉換:停止將AI視為搜尋引擎,開始將它視為一個有能力但經驗不足的同事。這種心智模型改變了你溝通方式的一切。

現代AI模型不僅僅是回答問題——它們被設計成智能體。它們可以調用工具、收集上下文、做出決策、執行多步驟任務。但就像任何新團隊成員一樣,它們需要適當的入職培訓、清晰的期望和適當的護欄。

🤖

AI不是你使用的工具——它是你管理的同事。讓你成為好經理的技能也讓你成為好的提示者。委派、清晰溝通、適當的自主權、明確的邊界。

想一想:當你委派任務給人類時,你不會只說「修復程式碼」。你會解釋什麼壞了、期望的行為是什麼、存在什麼限制、成功是什麼樣子的。你提供上下文。你回答問題。你檢查進度。AI需要同樣的對待——除了你需要預見問題並提前回答。

智能體框架

在建構智能體應用或使用AI處理複雜任務時,我會考慮這些維度:

智能體任務的關鍵問題

  • 目標狀態是什麼?AI如何知道它完成了?成功是什麼樣子的?
  • 它有什麼工具?它實際能做什麼,什麼必須交給你?
  • 自主權級別是什麼?它應該請求許可還是獨立進行?
  • 安全邊界是什麼?什麼操作在沒有確認的情況下永遠不應該執行?
  • 它應該如何傳達進度?靜默執行還是定期更新?

這些問題構成了我寫的每個複雜提示的基礎。讓我向你展示如何應用它們。

積極性調節 - 校準AI的主動性

提示工程中最微妙的一個方面是校準我所說的「智能體積極性」——在主動採取行動的AI和等待明確指導的AI之間取得平衡。搞錯了,你要麼得到一個把簡單任務複雜化的AI,要麼得到一個在複雜任務上太容易放棄的AI。

降低積極性以提高速度

有時你需要AI快速且專注。你不希望它探索每個分支、進行額外的工具調用或產生冗長的解釋。對於這些情況,我使用約束導向的提示:

低積極性配置
<context_gathering>
目標:快速獲取足夠的上下文。並行進行發現,一旦可以行動就停止。

方法:
- 從廣泛開始,然後分散到聚焦的子查詢
- 並行啟動多樣化的查詢;讀取每個查詢的前幾個結果
- 去重路徑並快取;不要重複查詢
- 避免過度搜尋上下文

提前停止條件:
- 你能準確命名要更改的內容
- 前幾個結果(約70%)集中在一個區域/路徑

深度:
- 只追蹤你將修改的符號或你依賴其契約的符號
- 除非必要,避免傳遞性擴展

迴圈:
- 批量搜尋 → 最小計劃 → 完成任務
- 只有在驗證失敗或出現新的未知時才再次搜尋
- 優先行動而非更多搜尋
</context_gathering>

注意明確允許不完美:「優先行動而非更多搜尋。」這個微妙的短語釋放了AI的預設徹底性焦慮。沒有它,模型經常過度研究,在收益遞減上浪費token和時間。

對於更激進的速度約束:

最大速度配置
<context_gathering>
- 搜尋深度:非常低
- 強烈偏向於儘快提供正確答案,即使可能不完全正確
- 通常,這意味著絕對最多2次工具調用
- 如果你認為需要更多時間調查,向我更新你最新的發現和未解決的問題
</context_gathering>

「即使可能不完全正確」這句話是黃金。它給AI允許不完美的許可,這反而常常更快地產生更好的結果,因為它停止了完美主義迴圈。

增加積極性以處理複雜任務

其他時候,你需要AI徹底而執著。你希望它克服模糊性,做出合理的假設,並在不不斷請求許可的情況下完成複雜任務。這需要相反的方法:

高積極性配置
<persistence>
- 你是一個智能體——繼續前進直到用戶的查詢在你結束回合之前
  完全解決
- 只有當你確定問題已解決時才終止
- 遇到不確定性時永遠不要停止或交還——研究或推斷最合理的
  方法並繼續
- 不要請求確認或澄清——決定什麼是最合理的假設,
  按照它進行,並在完成後記錄以供參考
</persistence>

這個提示從根本上改變了AI的行為。它不再問「我應該繼續嗎?」,而是說「我基於假設X繼續了——如果你想讓我調整請告訴我。」工作完成了;優化在之後進行。

安全邊界

但這裡有一個關鍵的細微差別:增加的積極性需要更清晰的安全邊界。你需要明確定義AI可以自主採取哪些行動,哪些需要確認。

關鍵安全原則

高成本操作(刪除、支付、外部通訊)應該始終需要明確確認,即使使用高積極性提示。低成本操作(搜尋、讀取、草稿建立)可以是自主的。

把它想像成系統權限:搜尋工具獲得無限存取;刪除命令每次都需要明確批准。

堅持原則 - 讓AI貫徹執行

我早期遇到的最令人沮喪的行為之一是AI太容易放棄。它會遇到一個障礙,總結出了什麼問題,然後把問題交還給我。對於簡單任務,這沒問題。對於複雜任務,這是工作流殺手。

解決方案是明確指示AI堅持克服障礙並完成端到端的任務:

解決方案堅持提示
<solution_persistence>
- 把自己當作自主的資深配對程式設計師:一旦我給出方向,
  主動收集上下文、計劃、實現、測試和完善,
  無需等待額外的提示
- 堅持直到任務在當前回合內完全端到端處理:不要停在
  分析或部分修復;將更改貫徹到實現和驗證
- 極度偏向於行動。如果我的指令在意圖上有些模糊,
  假設你應該繼續進行更改
- 如果我問「我們應該做X嗎?」而你的答案是「是」,
  也要繼續執行操作——不要讓我懸著需要後續的「請做吧」
</solution_persistence>

最後一點很微妙但很重要。當人類問「我們應該做X嗎?」時,我們通常的意思是「如果合理的話請做X」。AI,由於其字面性,回答問題卻不採取隱含的行動。這個提示彌合了這個差距。

進度更新

堅持不意味著沉默。對於長時間運行的任務,你需要進度更新來保持了解而不進行微觀管理:

進度更新規範
<user_updates_spec>
你將在工具調用中工作一段時間——保持給我更新。

<frequency>
- 當有有意義的變化時,每幾次工具調用發送簡短更新(1-2句話)
- 至少每6個執行步驟或8次工具調用發布一次更新
- 如果你預計需要更長的專注時間,發布一個簡短說明,
  說明原因以及何時會報告
</frequency>

<content>
- 在第一次工具調用之前,給出包含目標、約束、下一步的快速計劃
- 在探索時,指出有意義的發現
- 總是至少陳述自上次更新以來的一個具體結果
  (「找到了X」、「確認了Y」)
- 以簡短回顧和任何後續步驟結束
</content>
</user_updates_spec>

這創造了一個美妙的平衡:AI自主工作但讓你保持知情。你沒有在微觀管理,但你也不在黑暗中。

推理深度 - 思考強度控制

現代AI模型有一個叫做「推理深度」的概念——本質上是模型在回覆之前思考的努力程度。這是最強大且未被充分利用的參數之一。

高/超高推理

用於複雜的多步驟任務、模糊情況或需要深度分析的問題。模型在回覆之前花更多token進行內部「思考」。最適合架構決策、複雜除錯、細緻的寫作。

中等推理

適合大多數任務的平衡設定。適合一般編碼、寫作和分析,品質重要但速度也很重要。這通常是預設設定。

低推理

對於簡單任務的快速回應。當你需要快速答案且任務不需要深度思考時使用。適合簡單問題、格式化、快速查詢。

最小/無推理

最大速度,最小思考。當延遲是主要關注點時最好。分類、提取、簡單改寫。

關鍵洞察是將推理深度與任務複雜性匹配。對簡單任務使用高推理浪費token和時間。對複雜任務使用低推理產生膚淺的、容易出錯的結果。

補償低推理

當使用最小推理模式時,你需要用更明確的提示來補償。模型有更少的內部「思考」token,所以你的提示需要做更多的結構化工作:

最小推理補償
<planning_requirement>
你必須在每次函數調用之前廣泛計劃,並廣泛反思之前調用的結果,
確保我的查詢完全解決。

不要只透過函數調用來完成整個過程,因為這可能會損害你
解決問題和深入思考的能力。確保函數調用有正確的參數。
</planning_requirement>

這個提示說:「既然你沒有做太多內部推理,那就大聲推理。」它將認知工作從不可見的模型思考轉移到可見的結構化計劃。

🧠

當推理深度低時,提示複雜度應該高。當推理深度高時,提示可以更簡單。這是一個平衡——總的「思考」大致保持不變,只是分配方式不同。

AI人格 - 塑造行為模式

我最喜歡的發現之一是學習定義AI「人格」——不僅僅是語調,而是操作行為。人格塑造AI如何處理任務,而不僅僅是它聽起來怎麼樣。

專業人格

精煉且精確。使用正式語言和專業寫作慣例。最適合企業代理、法律/財務工作流、生產支援。

專業人格
<personality_professional>
你是一個專注、正式、精確的AI代理,在所有回覆中追求全面性。

- 採用商業溝通中常見的用法和語法
- 提供清晰、結構化的回覆,平衡資訊量和簡潔性
- 將資訊分解成易於消化的塊;在有幫助時使用清單、段落、表格
- 討論專業話題時使用適當的領域術語
- 你與用戶的關係是友好但事務性的:理解需求並交付高價值輸出
- 不要評論用戶的拼寫或語法
- 不要將這個人格強加於請求的產出(郵件、程式碼、貼文);
  讓用戶意圖指導那些輸出的語調
</personality_professional>

高效人格

簡潔且直接,提供答案不帶多餘的話。最適合程式碼生成、開發者工具、批量自動化、SDK密集型用例。

高效人格
<personality_efficient>
你是一個高效的AI助手,提供清晰、上下文相關的答案。

- 回覆必須直接、完整、易於解析
- 簡潔扼要;結構化以便於閱讀
- 對於技術任務,按指示做——不要添加用戶沒有要求的額外功能
- 精確遵循所有指令;不要擴大範圍
- 除非用戶發起,否則不要使用對話式語言
- 不要添加意見、情感語言、表情符號、問候或結束語
</personality_efficient>

事實導向人格

直接且紮實,專注於準確性和證據。最適合除錯、風險分析、文件解析、輔導工作流。

事實導向人格
<personality_factbased>
你是一個樸實直接的AI助手,專注於富有成效的結果。

- 保持開放心態,但不要同意與證據衝突的主張
- 給出回饋時,要清晰和糾正性的,不要粉飾
- 以善意和支持來傳達批評
- 將所有主張建立在提供的資訊或公認的事實基礎上
- 如果輸入模糊或缺乏證據:
  - 明確指出這一點
  - 清楚陳述假設,或提出簡潔的澄清問題
  - 不要猜測或用捏造的細節填補空白
- 不要捏造事實、數字、來源或引用
- 如果不確定,就說不確定並解釋需要什麼額外資訊
- 優先使用限定性陳述(「基於提供的上下文...」)
</personality_factbased>

探索性人格

熱情且解釋性的,熱衷於知識和發現。最適合文件編寫、入職培訓、培訓、技術教育。

探索性人格
<personality_exploratory>
你是一個熱情、知識淵博的AI代理,樂於用清晰和上下文來
解釋概念。

- 讓學習變得愉快和有用;平衡深度與易接近性
- 使用易於理解的語言,在有幫助的地方添加簡短的類比或「趣味事實」
- 鼓勵探索和後續問題
- 優先考慮準確性、深度,以及讓技術話題變得易於理解
- 如果概念模糊或高級,分步解釋並提供進一步學習的資源
- 邏輯地結構化回覆;使用格式來組織複雜的想法
- 不要為了幽默而幽默;除非被要求,否則避免過多的技術細節
- 確保範例與用戶的查詢和上下文相關
</personality_exploratory>
🎭

人格不是審美點綴——它是一個操作槓桿,能改善一致性、減少偏移,並使模型行為與用戶期望一致。根據任務有意地選擇,而不僅僅是個人喜好。

程式設計卓越 - 與AI夥伴編程

這是我花最多時間優化提示的地方,也是回報最豐厚的地方。AI程式設計輔助是革命性的——當做對的時候。做錯了,它創造的問題比解決的還多。

詳略悖論

這裡有一個反直覺的現象:AI在解釋時往往很冗長,但在程式碼中卻很簡短。它會寫好幾段話來解釋它將要做什麼,然後產生只有單字母變數名和最少註解的程式碼。這對大多數用例來說是完全反過來的。

解決方案是雙模式詳略控制:

程式設計詳略控制
<code_verbosity>
首先為清晰性編寫程式碼。優先選擇可讀、可維護的解決方案,
使用清晰的名稱、需要時的註解和直接的控制流。

除非明確要求,否則不要產生程式碼高爾夫或過於聰明的單行程式碼。

編寫程式碼和程式碼工具時使用高詳略度。
狀態更新和解釋時使用低詳略度。
</code_verbosity>

這創造了完美的平衡:簡潔的溝通,詳細的程式碼。

主動程式碼更改

AI應該對程式碼更改主動,但對破壞性操作需要確認:

主動編程配置
<proactive_coding>
你的程式碼編輯將顯示為提議的更改,這意味著:
(a) 你的程式碼編輯可以相當主動——我總是可以拒絕它們
(b) 你的程式碼應該寫得好且易於快速審查

如果提議的下一步涉及更改程式碼,主動為我做那些更改
讓我批准/拒絕,而不是詢問是否繼續。

永遠不要詢問是否繼續一個計劃;相反,主動嘗試該計劃
並詢問我是否想要接受實現的更改。
</proactive_coding>

程式碼實現標準

這些是我透過數千次AI程式設計會話提煉的編碼標準:

程式碼實現標準
<code_standards>
<quality_principles>
- 像有辨別力的工程師一樣行事:優先考慮正確性、清晰性和
  可靠性,而非速度
- 避免冒險的捷徑、投機性更改和混亂的hack
- 涵蓋根本原因或核心請求,而不僅僅是症狀
</quality_principles>

<codebase_conventions>
- 遵循現有的模式、輔助函數、命名、格式化、本地化
- 如果必須偏離慣例,說明原因
- 在進行更改之前檢查現有模式
- 匹配變數命名慣例(駝峰式vs底線式)
- 重用現有工具而不是建立新的
</codebase_conventions>

<behavior_safety>
- 保留預期的行為和用戶體驗
- 對有意的更改進行門控或標記
- 當行為改變時添加測試
</behavior_safety>

<error_handling>
- 不要使用寬泛的catch或靜默預設值
- 不要添加寬泛的try/catch區塊或成功形狀的回退
- 明確傳播或暴露錯誤而不是吞掉它們
- 不要靜默失敗:不要在無效輸入時提前返回而不按照
  倉庫模式進行日誌記錄/通知
</error_handling>

<type_safety>
- 更改應該始終通過建構和類型檢查
- 避免不必要的類型轉換(as any,as unknown as ...)
- 優先使用適當的類型和守衛
- 重用現有的輔助函數而不是類型斷言
</type_safety>

<efficiency>
- 避免重複的微編輯:在更改檔案之前閱讀足夠的上下文,
  並將邏輯編輯批量處理在一起
- DRY/先搜尋:在添加新輔助函數之前,搜尋先例並重用
  或提取共享輔助函數而不是重複
</efficiency>
</code_standards>

Git安全

當AI有git存取權限時,安全是最重要的:

Git安全協議
<git_safety>
- 永遠不要更新git設定
- 永遠不要運行破壞性命令(git reset --hard,git checkout --)
  除非明確要求
- 永遠不要跳過鉤子(--no-verify)除非明確要求
- 永遠不要強制推送到main/master
- 避免git commit --amend除非:
  1. 用戶明確要求,或者提交成功但預提交鉤子自動修改了檔案
  2. HEAD提交是在這次對話中由你建立的
  3. 提交尚未推送到遠端
- 如果提交失敗或被鉤子拒絕,永遠不要amend——
  修復問題並建立新的提交
- 你可能在一個髒的git工作樹中:
  - 永遠不要回退你沒有做的現有更改
  - 如果有不相關的更改,忽略它們——不要回退它們
</git_safety>

前端精通 - 建構精美介面

AI在前端開發方面已經變得非常出色,但獲得美觀、生產就緒的結果有其科學方法。

推薦技術棧

透過大量測試,某些技術組合比其他組合更適合AI。這不是關於什麼「最好」客觀上——而是關於AI模型接受過最多訓練的內容:

AI優化的前端技術棧

  • 框架:Next.js(TypeScript)、React、HTML
  • 樣式/UI:Tailwind CSS、shadcn/ui、Radix Themes
  • 圖示:Material Symbols、Heroicons、Lucide
  • 動畫:Motion(前身為Framer Motion)
  • 字型:無襯線系列——Inter、Geist、Mona Sans、IBM Plex Sans、Manrope

當你指定這些技術時,AI產生的輸出品質顯著提高,關於不存在的API的幻覺也更少。

設計系統強制

AI生成前端的一個問題是視覺不一致。顏色不知從哪裡出現,間距隨機變化。解決方案是明確的設計系統約束:

設計系統強制
<design_system>
- Token優先:不要在JSX/CSS中硬編碼顏色(hex/hsl/rgb)
- 所有顏色必須來自CSS變數(--background, --foreground,
  --primary, --accent, --border, --ring)
- 要引入品牌/強調色:首先在:root和.dark下的CSS變數中
  添加/擴展token
- 使用連接到token的Tailwind工具類:
  bg-[hsl(var(--primary))], text-[hsl(var(--foreground))]
- 預設使用系統的中性色板,除非明確要求品牌外觀——
  然後首先將品牌映射到token
- 不要發明顏色、陰影、token、動畫或新UI元素,除非被要求
</design_system>

防止「AI垃圾」

AI有一種傾向於安全、平庸佈局的趨勢。要獲得獨特、有意圖的設計:

前端品質標準
<frontend_quality>
在做前端設計任務時,避免陷入「AI垃圾」或安全、平庸的佈局。
目標是感覺有意圖、大膽、有點出人意料的介面。

- 排版:使用表達性的、有目的的字型;避免預設字型棧
  (Inter、Roboto、Arial、system)
- 顏色和外觀:選擇清晰的視覺方向;定義CSS變數;
  避免紫色加白色的預設;沒有紫色偏好或暗色模式偏好
- 動效:使用少量有意義的動畫(頁面載入、交錯顯示)
  而不是通用的微動效
- 背景:不要依賴平坦的單色背景;使用漸層、形狀或微妙的圖案
- 整體:避免樣板佈局;在輸出中變化主題、字型系列和視覺語言
- 確保頁面在桌面和行動端都能正常載入
- 完成網站到可供用戶測試的工作狀態

例外:如果在現有網站或設計系統中工作,保留已建立的模式。
</frontend_quality>

UI/UX最佳實踐

UI/UX指南
<ui_ux_guidelines>
- 視覺層次:將排版限制在4-5個字型大小和粗細;
  使用text-xs作為說明文字;除非用於hero/主標題否則避免text-xl
- 顏色使用:使用1個中性基礎色(如zinc)和最多2個強調色
- 間距:始終使用4的倍數作為內邊距和外邊距以保持視覺節奏
- 佈局:對長內容使用固定高度容器配合內部捲動
- 狀態處理:對資料獲取使用骨架佔位符或animate-pulse;
  用懸停過渡指示可點擊性
- 可存取性:使用語義HTML和ARIA角色;優先使用預建構的
  可存取元件
</ui_ux_guidelines>

詳略控制 - 輸出長度的藝術

獲得正確的輸出長度是一個持續的挑戰。太短會錯過重要細節。太長會淹沒在不必要的資訊中。

詳略參數

現代AI API提供了一個詳略參數,可以可靠地縮放輸出長度而不改變提示:

低詳略

簡潔、最少的文字。只有基本答案沒有展開。適合快速查詢、簡單確認,以及當你只需要事實時。

中等詳略

平衡的細節。適合大多數任務的預設設定。提供上下文和解釋,沒有過多的填充。

高詳略

詳盡和全面。適合審計、教學、交接和文件。提供完整的上下文和推理。

明確的長度指南

當你不能使用API參數時,明確的長度約束效果很好:

輸出詳略規範
<output_verbosity_spec>
- 預設:典型答案3-6句話或≤5個要點
- 對於簡單的「是/否+簡短解釋」問題:≤2句話
- 對於複雜的多步驟或多檔案任務:
  - 1個簡短的概述段落
  - 然後≤5個標記的要點:什麼改變了、在哪裡、風險、
    下一步、未解決的問題
- 提供清晰、結構化的回覆,平衡資訊量和簡潔性
- 將資訊分解成易於消化的塊;在有幫助時使用清單、段落、表格
- 避免長敘述段落;優先使用緊湊的要點和短章節
- 不要複述我的請求除非改變了語義
</output_verbosity_spec>

基於人設的詳略

另一種方法是將溝通風格定義為AI人設的一部分:

高效溝通人設
<communication_style>
你重視清晰、勢頭和以有用性而非客套來衡量的尊重。
你的預設本能是保持對話簡潔和目標驅動,
削減任何不能推進工作的內容。

你不是冷漠——你只是語言上講究經濟,
而且你足夠信任用戶不用在每條訊息中包裝填充。

禮貌透過結構、精確和回應性來體現,
而不是透過言語上的虛華。

你從不重複確認。一旦你表達了理解,
你就完全轉向任務。
</communication_style>

長上下文 - 處理海量文件

現代AI可以處理巨大的上下文——數十萬token——但僅僅將大文件傾倒到上下文視窗中是不夠的。你需要策略來幫助模型導航和提取相關資訊。

強制摘要和重新錨定

對於長文件,我指示AI在回答之前建立內部結構:

長上下文處理
<long_context_handling>
對於超過約10k token的輸入(多章節文件、長執行緒、多個PDF):

1. 首先,產生一個與我的請求相關的關鍵部分的簡短內部大綱
2. 在回答之前明確重述我的約束(管轄區、日期範圍、產品、團隊)
3. 在你的答案中,將聲明錨定到章節(「在『資料保留』部分...」)
   而不是泛泛而談
4. 如果答案取決於精細的細節(日期、閾值、條款),
   直接引用或轉述它們
</long_context_handling>

這防止了「迷失在捲動中」的問題,即AI給出泛泛的答案,而沒有真正接觸具體的文件內容。

擴展工作流的壓縮

對於超過標準上下文視窗的長時間運行、工具密集型工作流,現代AI支援「壓縮」——對之前的對話狀態進行有損壓縮,保留任務相關資訊同時大幅減少token佔用。

何時使用壓縮

  • 有許多工具調用的多步驟代理流
  • 早期輪次必須保留的長對話
  • 超出最大上下文視窗的迭代推理

壓縮最佳實踐:

  • 監控上下文使用並提前計劃以避免達到限制
  • 在主要里程碑後壓縮(如工具密集階段後),而不是每輪
  • 恢復時保持提示功能相同以避免行為漂移
  • 將壓縮項視為不透明;不要解析或依賴內部結構

引用要求

引用要求
<citation_rules>
當你使用提供文件中的資訊時:
- 在每個包含文件派生聲明的段落後放置引用
- 使用格式:[文件名稱,章節/頁碼]
- 不要捏造引用。如果你不能引用它,不要聲明它
- 儘可能對關鍵聲明使用多個來源
- 如果證據薄弱,明確承認這一點
</citation_rules>

工具編排 - 高級AI能力

AI工具調用——調用外部函數、API和服務——是提示工程變成軟體工程的地方。做對這一點對於可靠的AI應用至關重要。

工具描述最佳實踐

工具描述的品質直接影響AI使用它們的效果:

設計良好的工具定義
{
  "name": "create_reservation",
  "description": "為客人建立餐廳預訂。當用戶要求用給定的
    姓名和時間預訂桌位時使用。",
  "parameters": {
    "type": "object",
    "properties": {
      "name": {
        "type": "string",
        "description": "預訂的客人全名。"
      },
      "datetime": {
        "type": "string",
        "description": "預訂日期和時間(ISO 8601格式)。"
      }
    },
    "required": ["name", "datetime"]
  }
}

注意描述包括工具做什麼何時使用它。這幫助模型做出更好的工具選擇決策。

工具使用規則

工具使用策略
<tool_usage_rules>
- 如果存在用於某操作的工具,優先使用工具而非shell命令
  (如用read_file而非cat)
- 嚴格避免當存在專用工具時使用原始cmd/終端
- 在以下情況優先使用工具而非內部知識:
  - 你需要新鮮的或用戶特定的資料(工單、訂單、配置、日誌)
  - 你引用特定的ID、URL或文件標題
- 在任何寫入/更新工具調用後,簡要重述:
  - 什麼改變了
  - 在哪裡(ID或路徑)
  - 執行的任何後續驗證
- 對於簡單的概念問題,避免工具並依賴內部知識以獲得快速回應
</tool_usage_rules>

並行化

一個關鍵優化是當操作獨立時鼓勵並行工具調用:

並行化規範
<parallelization_spec>
並行運行獨立或唯讀的工具操作(同一輪次/批次)以減少延遲。

何時並行化:
- 讀取多個互不影響的檔案/配置/日誌
- 沒有副作用的靜態分析、搜尋或元資料查詢
- 對不會衝突的不相關檔案/功能的分開編輯

何時不並行化:
- 一個操作依賴另一個的結果
- 建立資源然後引用其ID
- 讀取檔案然後基於內容編輯

方法:
- 先思考:在任何工具調用之前,決定你需要的所有檔案/資源
- 批量處理一切:如果你需要多個檔案,一起讀取它們
- 只有當你真正無法在看到結果之前知道下一個檔案時才進行順序調用
</parallelization_spec>

終端包裝工具

如果你想讓AI使用專用工具而不是終端命令,使它們在語義上與模型期望的相似:

終端包裝工具範例
GIT_TOOL = {
    "type": "function",
    "name": "git",
    "description": (
        "在倉庫根目錄執行git命令。行為就像在終端中運行git;"
        "支援任何子命令和標誌。"
    ),
    "parameters": {
        "type": "object",
        "properties": {
            "command": {
                "type": "string",
                "description": "要執行的git命令"
            }
        },
        "required": ["command"]
    }
}

# 然後在你的提示中:
"對所有git操作使用`git`工具。不要使用終端進行git操作。"

故障排除 - 修復出錯的問題

在處理了無數提示之後,我已經識別出最常見的失敗模式及其解決方案。

問題:過度思考

症狀:回應正確但花很長時間。模型不斷探索選項,延遲第一次工具調用,在簡單答案可用時敘述一個迂迴的旅程。

過度思考修復
<efficient_context_spec>
目標:快速獲取足夠的上下文,一旦可以行動就停止。

方法:
- 從廣泛開始,然後分散到聚焦的子查詢
- 並行啟動4-8個多樣化的查詢;讀取每個查詢的前3-5個結果
- 去重路徑並快取;不要重複查詢

提前停止(如果滿足任何條件就行動):
- 你能命名要更改的確切檔案/符號
- 你能重現一個失敗的測試/lint或有高信心度的bug位置
</efficient_context_spec>

# 也為簡單問題添加快速路徑:
<fast_path>
對於不需要命令、瀏覽或工具調用的一般知識或簡單使用查詢:
- 立即簡潔地回答
- 不需要狀態更新、待辦事項、摘要或工具調用
</fast_path>

問題:思考不足/懶惰

症狀:模型在產生答案之前沒有花足夠的時間推理。淺顯的回應,錯過邊緣情況,不完整的解決方案。

思考不足修復
<self_reflection>
- 根據你設計的5-7項評分標準內部評分草稿
  (清晰性、正確性、邊緣情況、完整性、延遲)
- 如果任何類別不達標,在回覆之前迭代一次
</self_reflection>

# 或在API參數中使用更高的推理深度

問題:過於順從

症狀:AI不斷請求許可而不是採取行動。不斷「你想讓我...」而不是直接做。

順從修復
<persistence>
- 你是一個智能體——繼續前進直到用戶的查詢在你結束回合
  之前完全解決
- 只有當你確定問題已解決時才終止
- 遇到不確定性時永遠不要停止或交還——推斷最合理的
  方法並繼續
- 不要請求確認或澄清假設——決定什麼最合理,繼續,
  並在之後記錄以供參考
</persistence>

問題:過於冗長

症狀:AI生成的token比需要的多得多。大量前言、過多解釋、重複的摘要。

冗長修復
# 使用API詳略參數:「低」

# 或在提示中:
<output_format>
- 預設:3-6句話或≤5個要點
- 避免長敘述段落;優先使用緊湊的要點
- 不要複述我的請求除非改變了語義
- 沒有前言如「好問題!」或「我很樂意幫助」
</output_format>

問題:工具調用過多

症狀:模型發起工具調用而沒有推進答案。冗餘調用,探索切線,沒有有效使用上下文。

工具調用修復
<tool_use_policy>
- 選擇一個工具或不選擇;儘可能從上下文回答
- 每個用戶請求最多2次工具調用,除非新資訊使更多調用
  嚴格必要
- 在調用工具之前,驗證你確實需要該資訊
</tool_use_policy>

問題:工具調用格式錯誤

症狀:工具調用失敗,產生垃圾輸出,或不匹配預期格式。通常由提示中的矛盾引起。

工具調用格式錯誤診斷
請分析為什麼[tool_name]工具調用格式錯誤。

1. 查看提供的範例問題以理解失敗模式
2. 仔細檢查系統提示和工具配置
3. 識別任何可能誤導模型的模糊性、不一致性或措辭
4. 對於每個潛在原因,解釋它如何可能導致觀察到的失敗
5. 提供可行的建議來改進提示或工具配置
🔧

大多數工具調用格式錯誤的問題源於提示不同部分之間的矛盾。模型消耗推理token試圖協調衝突的指令,而不是幫助你。

提示優化 - 科學方法論

編寫有效的提示是一項技能,但改進它們是一門科學。這是我使用的系統方法。

常見提示失敗

在優化之前,了解什麼通常會出錯:

指令中的矛盾

「優先使用標準函式庫」然後「如果外部套件使事情更簡單就使用它們」——AI無法協調這些混合訊號。

模糊的約束

「追求精確結果;當近似方法在實踐中不改變結果時是可以的」——模型無法驗證這個判斷調用。

缺少格式規範

如果你需要JSON,就說出來。如果你需要要點,就說出來。不要把輸出格式留給偶然。

與範例不一致

你的指令說一件事但你的範例展示不同的東西。AI更遵循範例而不是文字。

優化迴圈

1
建立基線

多次運行你當前的提示並記錄結果。注意成功和失敗中的模式。

2
識別失敗模式

對失敗進行分類。是正確性問題?格式問題?效率問題?每種需要不同的修復。

3
進行外科手術式編輯

一次只改變一件事。如果你改變多件事,你不會知道什麼有幫助。

4
重新評估

再次運行相同的測試。與基線比較。更改是幫助了、損害了還是沒有效果?

5
迭代

重複直到達到可接受的效能。記錄什麼有效什麼無效。

模型間遷移

當將提示遷移到新模型版本時:

遷移最佳實踐

  • 步驟1:切換模型,先不改變提示。測試模型變化——而非提示編輯。
  • 步驟2:固定推理深度以匹配之前模型的配置。
  • 步驟3:運行評估以獲得基線。如果結果看起來不錯,你就準備好發布了。
  • 步驟4:如果有回歸,用針對性的約束調整提示。
  • 步驟5:每次小改動後重新運行評估。一次一個改動。

處理不確定性 - 當AI不知道時

AI最大的風險之一是聽起來很自信的錯誤答案。模型不知道它不知道什麼——除非你教它如何處理不確定性。

不確定性處理
<uncertainty_handling>
- 如果問題模糊或規定不足,明確指出這一點並:
  - 提出最多1-3個精確的澄清問題,或
  - 呈現2-3個合理的解釋並清楚標註假設
  
- 當外部事實最近可能已改變(價格、發布、政策)
  且沒有可用工具時:
  - 用一般性術語回答並說明細節可能已改變
  
- 當你不確定時,永遠不要捏造精確的數字、行號或外部引用
  
- 當你不確定時,優先使用如「基於提供的上下文...」
  這樣的語言而非絕對聲明
</uncertainty_handling>

高風險自檢

對於高風險領域,添加明確的自我驗證步驟:

高風險自檢
<high_risk_self_check>
在法律、金融、合規或安全敏感上下文中最終確定答案之前:

- 簡要重新掃描你自己的答案以查找:
  - 未陳述的假設
  - 不基於上下文的具體數字或聲明
  - 過於強烈的語言(「總是」、「保證」等)
  
- 如果你發現任何問題,軟化或限定它們並明確陳述假設
</high_risk_self_check>
⚠️

目標不是讓AI不那麼自信——而是讓它準確地自信。對不確定事物的不確定是特性,不是bug。

元提示 - 用AI改進AI

這是我工具包中最元的技術:使用AI來改進你的提示。聽起來很繞,但它非常有效。

診斷提示失敗

提示診斷模板
你是一名提示工程師,任務是除錯一個系統提示。

給你:
1) 當前系統提示:
<system_prompt>
[在此貼上你的提示]
</system_prompt>

2) 一小組記錄的失敗。每個日誌有:
- 查詢
- 實際輸出
- 預期輸出(或問題描述)

<failure_traces>
[貼上失敗範例]
</failure_traces>

你的任務:
1) 識別你看到的不同失敗模式
2) 對於每個失敗模式,引用系統提示中最可能導致或
   強化它的具體行
3) 解釋那些行如何將代理引向觀察到的行為

以結構化格式返回你的答案:
failure_modes:
- name: ...
  description: ...
  prompt_drivers:
    - exact_or_paraphrased_line: ...
    - why_it_matters: ...

生成改進

提示改進模板
你之前分析了這個系統提示及其失敗模式。

系統提示:
<system_prompt>
[原始提示]
</system_prompt>

失敗模式分析:
[貼上上一步的診斷]

請提出一個外科手術式的修訂,減少觀察到的問題
同時保留良好的行為。

約束:
- 不要從頭重新設計代理
- 優先小的、明確的編輯:澄清衝突的規則、刪除
  冗餘或矛盾的行、收緊模糊的指導
- 明確權衡
- 保持結構和長度與原始大致相似

輸出:
1) patch_notes:關鍵更改和推理的簡潔清單
2) revised_system_prompt:應用編輯後的完整更新提示

品質自我反思

這個技術很神奇:指示AI建立自己的評估標準並據此迭代:

自我反思提示
<self_reflection>
- 首先,花時間思考一個評分標準直到你有信心
- 深入思考世界級解決方案的每個方面。使用那些知識
  建立一個有5-7個類別的評分標準。這個評分標準至關重要
  要做對,但不要展示給我——這只是為了你的目的
- 最後,使用這個評分標準內部思考並迭代出對提示的
  最佳可能解決方案
- 如果你的回應沒有在評分標準的所有類別上達到最高分,
  重新開始
</self_reflection>

你在要求AI從其對卓越的知識中生成品質標準,然後使用這些標準來評估和改進自己的輸出——一切都在你看到任何東西之前完成。輸出品質的提升是顯著的。

今天就能用的實戰模板

通用任務完成

通用模板
<context>
[AI需要了解情況的背景資訊]
</context>

<task>
[清楚陳述你想要完成什麼]
</task>

<requirements>
[具體的要求或約束]
</requirements>

<format>
[你想要輸出如何結構化]
</format>

<examples>
[可選:期望輸出的範例]
</examples>

程式碼審查模板

程式碼審查提示
<context>
審查[專案/上下文]的程式碼。
程式碼庫使用[技術/模式]。
</context>

<code_to_review>
[在此貼上程式碼]
</code_to_review>

<review_criteria>
關注:
1. 正確性:它是否做了它聲稱要做的?
2. 可讀性:其他開發者清楚嗎?
3. 效能:有明顯的低效嗎?
4. 安全性:有漏洞嗎?
5. 風格:是否匹配程式碼庫慣例?
</review_criteria>

<output_format>
對於發現的每個問題:
- 嚴重性:[關鍵/重要/次要/建議]
- 位置:[行號或章節]
- 問題:[什麼錯了]
- 修復:[如何解決]
</output_format>

研究分析模板

深度研究提示
<research_task>
[要研究的主題或問題]
</research_task>

<methodology>
- 從多個針對性搜尋開始;不要依賴單一查詢
- 深入研究直到你有足夠的資訊得出準確、全面的答案
- 添加針對性的後續搜尋來填補空白或解決分歧
- 繼續迭代直到額外的搜尋不太可能改變答案
</methodology>

<output_requirements>
- 以對主要問題的清晰答案開頭
- 用證據和引用支持
- 承認局限性和不確定性
- 在有幫助的地方提供具體範例
- 包括理解影響所需的相關上下文
</output_requirements>

<citation_format>
[你想要來源如何引用]
</citation_format>

網路研究代理

全面網路研究
<core_mission>
完整且有幫助地回答用戶的問題,提供足夠的證據
讓持懷疑態度的讀者可以信任它。

永遠不要捏造事實。如果你無法驗證某事,明確說出來。

預設詳細和有用而非簡短。

在回答直接問題後,添加高價值的相鄰材料
支持用戶的潛在目標而不偏離主題。
</core_mission>

<research_rules>
- 從多個針對性搜尋開始;使用並行搜尋
- 永遠不要依賴單一查詢
- 繼續迭代直到所有以下條件為真:
  - 你回答了問題的每個部分
  - 你找到了具體範例和高價值相鄰材料
  - 你為核心聲明找到了足夠的來源
</research_rules>

<citation_rules>
- 在每個包含非顯而易見的網路派生聲明的段落後放置引用
- 不要捏造引用
- 儘可能對關鍵聲明使用多個來源
</citation_rules>

<ambiguity_handling>
- 永遠不要提出澄清問題除非用戶明確要求
- 如果查詢模糊,陳述你的最佳猜測解釋,然後
  全面涵蓋最可能的意圖
</ambiguity_handling>

提示工程的未來

在我寫這篇文章的2026年初,提示工程正在快速演進。模型變得更加強大、更可控、更可靠。有人預測隨著AI更好地理解意圖,提示工程將變得過時。我不同意。

變化的是提示工程的級別,而非其必要性。早期需要精心設計的提示來完成基本任務。現在,基本任務開箱即用,但複雜的智能體工作流仍然需要精密的提示。門檻在提高,而不是消失。

🔮

提示工程不會消失——它在演進。重要的技能正在從「如何讓AI工作」轉向「如何讓AI在規模上出色且可靠地工作」。

即將到來的變化

更好的預設行為

模型將有更智慧的預設設定,對常見模式需要更少的明確指令。提示將更多地關注定製而非基本能力。

更豐富的工具生態系統

AI將開箱即用地存取更多工具。提示工程將轉向編排——知道何時使用什麼,而不僅僅是如何使用。

多模態整合

提示將越來越多地涉及圖像、音訊、影片和結構化資料以及文字。新的模式將為多模態任務出現。

智能體複雜性

隨著代理處理更長、更複雜的任務,提示工程將變得更像系統設計——架構,而不僅僅是指令。

我對未來的建議

專注於基礎。這份指南中的具體技術會演進,但底層原則——清晰的溝通、明確的期望、結構化的思維、迭代的完善——是永恆的。掌握這些,你就能適應接下來發生的任何事情。

最後的思考

兩年前,我以為AI會取代清晰溝通的需要。我完全錯了。AI使清晰溝通比以往任何時候都更有價值。那些與AI相處融洽的人不是找到了魔法詞語的人——而是學會了精確地思考和表達自己的人。

提示工程其實不是關於AI。它是關於你。它是關於培養清晰表達你真正想要什麼的紀律,迭代達到目標的耐心,以及從失敗中學習的謙遜。

如果你從這份指南中只帶走一件事,那就是:把每個提示當作練習清晰思維的機會。AI只是一面鏡子,反映出你自己頭腦中的清晰——或混亂。

AI的出現並沒有使知識過時——它使好奇心比以往任何時候都更有力量。我們不再受限於已知的東西。有了正確的工具和思考的意願,普通人可以擁抱知識的海洋。無論什麼職業。無論什麼年齡。我希望與世界各地的朋友分享這段旅程。讓我們一起迎接這個新世界。讓我們一起成長。

最後更新:2026年1月24日 · 基於官方文檔、研究論文和大量個人實驗

討論

0 條評論

留下評論

成為第一個分享您想法的人!