الذكاء الاصطناعي لا يقرأ عقلك. إنه يقرأ كلماتك. الفجوة بين ما تريده وما تحصل عليه هي دائمًا مشكلة اتصال، وليست قيدًا في الذكاء الاصطناعي.
دعوني أخبركم عن اللحظة التي تغير فيها كل شيء. كنت أحدق في شاشتي، محبطًا للغاية، أشاهد الذكاء الاصطناعي يولد استجابة أخرى كانت صحيحة تقنيًا ولكنها أخطأت الهدف تمامًا. كنت قد طلبت المساعدة في إعادة هيكلة قطعة معقدة من الكود، وهو شيء قمت به مئات المرات من قبل. لكن هذه المرة، بغض النظر عن كيفية صياغة طلبي، استمر الذكاء الاصطناعي في إضافة تعقيد غير ضروري، وكسر الأنماط الموجودة، و"تحسين" الأشياء التي لم تكن مكسورة. قادني هذا الإحباط إلى رحلة استهلكت العامين التاليين من حياتي — وغيرت تمامًا طريقة عملي مع الذكاء الاصطناعي.
الصحوة - عندما توقف كل ما أعرفه عن العمل
أتذكر اللحظة التي أدركت فيها أنني لا أعرف شيئًا عما أفعله. كان الوقت متأخرًا في الليل، والموعد النهائي يلوح في الأفق، وكنت بحاجة إلى الذكاء الاصطناعي لمساعدتي في ما كان يجب أن يكون مهمة مباشرة. كتبت الموجه الخاص بي، وضغطت على زر الإدخال، وشاهدت الذكاء الاصطناعي ينتج شيئًا جعلني أرغب في رمي الكمبيوتر المحمول من النافذة.
الأمر هو أنني كنت أعتقد أنني أفهم الذكاء الاصطناعي. كنت أستخدم ChatGPT منذ الأيام الأولى. قرأت مقالات حول هندسة التلقين. كنت أعرف عن "لعب الأدوار" و"أن أكون محددًا". لكنني كنت هناك، أحصل على ردود بدت وكأنني أتحدث إلى شخص سمع كل كلمة قلتها ولكنه لم يفهم شيئًا مما كنت أحتاجه بالفعل.
أصبح هذا الإحباط معلمي. انغمست في الوثائق الرسمية، والأوراق البحثية، ومناقشات المنتديات، وآلاف الساعات من التجريب. ما اكتشفته لم يكن مجرد نصائح وحيل — لقد كان تحولًا كاملاً في النموذج في كيفية التواصل مع الآلات التي تفكر في الأنماط والاحتمالات والرموز.
أقوى ذكاء اصطناعي في العالم عديم الفائدة إذا لم تتمكن من إيصال ما تحتاجه بالفعل. التلقين لا يتعلق بإيجاد كلمات سحرية — إنه يتعلق بفهم كيفية معالجة الذكاء الاصطناعي للغة وهيكلة اتصالاتك وفقًا لذلك.
إليكم الحقيقة التي لا يخبر أحد المبتدئين بها: الفرق بين الأشخاص الذين يحصلون على نتائج مذهلة من الذكاء الاصطناعي وأولئك الذين لا يحصلون عليها ليس الذكاء أو المهارة التقنية. إنه التواصل. والتواصل مع الذكاء الاصطناعي يتبع قواعد مشابهة — ولكنها مختلفة بشكل حاسم — للتواصل مع البشر.
يحتوي هذا الدليل على كل ما تعلمته في تلك الرحلة. ليست النصائح المفرطة في التبسيط مثل "كن محددًا فقط" التي تغمر الإنترنت، ولكن الفهم العميق والدقيق الذي يحول طريقة عملك مع الذكاء الاصطناعي. سواء كنت تكتب أول موجه لك أو تبني أنظمة ذكاء اصطناعي للإنتاج، فإن ما يلي سيغير علاقتك بالذكاء الاصطناعي إلى الأبد.
الأساس الذي لا يعلمه أحد - تشريح الموجه الأساسي
قبل أن ندخل في التقنيات المتقدمة، دعوني أشارك الإطار الذي غير كل شيء بالنسبة لي. كل موجه فعال أكتبه الآن يحتوي على مجموعة من هذه العناصر الخمسة:
ما الذي يحتاج الذكاء الاصطناعي إلى معرفته عن وضعك؟ معلومات الخلفية، القيود، التفاصيل ذات الصلة، والبيئة التي تعمل فيها.
ما الذي تريده بالضبط من الذكاء الاصطناعي أن يفعله؟ كن محددًا بشأن الإجراء الذي تطلبه — ليس فقط الموضوع، ولكن العمل الفعلي.
كيف يجب هيكلة المخرجات؟ قوائم، فقرات، كتل كود، جداول، JSON — حدد ذلك صراحة.
ما الذي يجب أن يتجنبه الذكاء الاصطناعي؟ ما هي الحدود الموجودة؟ ما هو خارج النطاق بشكل صريح؟
هل يمكنك إظهار ما تريد؟ الأمثلة تساوي ألف وصف — فهي توضح بدلاً من أن تشرح.
معظم الناس يدرجون المهمة فقط. يطلبون "اكتب لي بريدًا إلكترونيًا" بينما يجب أن يقولوا "اكتب بريدًا إلكترونيًا احترافيًا لعميل يشرح تأخير المشروع. اجعله أقل من 150 كلمة، اعترف بالإزعاج، واقترح جدولًا زمنيًا جديدًا بعد أسبوعين. يجب أن تكون النغمة اعتذارية ولكن واثقة."
الفرق في جودة المخرجات هائل. وهذه مجرد البداية.
قوة الهيكل
أحد أكثر الجوانب التي لا تحظى بالتقدير الكافي في كتابة الموجهات هو التنسيق الهيكلي. تستجيب نماذج الذكاء الاصطناعي الحديثة بشكل جيد للغاية للأقسام المحددة بوضوح. أستخدم علامات بنمط XML على نطاق واسع لأنها تخلق حدودًا لا لبس فيها:
<context>
You are helping me prepare a presentation for technical stakeholders.
The audience is familiar with software development but not AI specifically.
</context>
<task>
Explain how large language models work in 5 key points.
</task>
<format>
- Use bullet points
- Each point should be 1-2 sentences
- Avoid jargon or define it when used
</format>
<constraints>
- Do not mention specific model names
- Focus on concepts, not technical implementation
- Keep total length under 200 words
</constraints>
هذا الهيكل يفعل شيئًا قويًا: إنه يجبرك أنت على التفكير بوضوح فيما تحتاجه قبل أن تطلب. التفكير الواضح ينتج تواصلاً واضحًا، والتواصل الواضح ينتج نتائج واضحة. علامات XML ليست سحرًا — إنها سقالات لأفكارك الخاصة.
الهيكل لا يتعلق بجعل الموجهات أطول — إنه يتعلق بجعل نواياك غير غامضة. موجه قصير منظم جيدًا يتفوق على موجه طويل عشوائي في كل مرة.
العقليات الست التي غيرت كل شيء
بعد سنوات من التجريب، قمت بتقطير نهجي في ست "عقليات" أساسية — ليست قوالب جامدة، بل أنماط تفكير مرنة تفتح قدرات الذكاء الاصطناعي التي لا يكتشفها معظم الناس أبدًا. لا يتعلق الأمر بإيجاد الكلمات المثالية؛ بل يتعلق بالتعامل مع تفاعل الذكاء الاصطناعي بالنموذج العقلي الصحيح.
العقلية 1: دع الذكاء الاصطناعي يختار الخبير
نعلم جميعًا أن إعطاء دور للذكاء الاصطناعي يساعد. "تصرف كخبير تسويق" ينتج نصائح تسويقية أفضل من سؤال عام. ولكن هذا ما يفوته معظم الناس: عندما لا تعرف أي خبير سيكون الأفضل لسؤالك، يمكنك أن تطلب من الذكاء الاصطناعي الاختيار.
اكتشفت هذا عند التخطيط لحدث للشركة. لم يكن لدي أي فكرة عما إذا كنت بحاجة إلى منظور تسويقي، أو منظور عمليات، أو شيء آخر تمامًا. لذا بدلاً من التخمين، طلبت من الذكاء الاصطناعي اختيار الخبير الأنسب أولاً.
I want to explore [DOMAIN] and specifically [PROBLEM/SCENARIO].
Don't answer yet.
First, select the most suitable domain expert to think about this problem.
They can be living or historical, famous or relatively unknown,
but must be genuinely excellent in this specific area.
If you're unsure, ask me 2 positioning questions before selecting.
Output:
1. Who you selected and their specific domain
2. Why you chose them (three sentences)
Then ask me to describe my detailed question.
عندما استخدمت هذا لتخطيط الحدث، اختار الذكاء الاصطناعي بريا باركر — خبيرة تصميم أحداث لم أسمع بها من قبل ولكن تبين أنها مثالية. الإجابات التي حصلت عليها لم تكن ردودًا عامة "ضع في اعتبارك هذه العوامل الخمسة" — بل كانت إرشادات دقيقة ومحددة بدت وكأنني أتحدث إلى شخص قام بذلك مئات المرات.
العقلية 2: دع الذكاء الاصطناعي يطرح الأسئلة أولاً
هذه هي التقنية التي أستخدمها أكثر من أي تقنية أخرى. أسميها "التلقين السقراطي" — بدلاً من محاولة توقع كل ما يحتاج الذكاء الاصطناعي إلى معرفته، أتركه يطرح علي أسئلة حتى يكون لديه سياق كافٍ لإعطاء إجابة مفيدة حقًا.
فكر في الأمر: عندما تطلب من صديق ذكي النصيحة، لا يبدأون في الإجابة فورًا. يطرحون أسئلة توضيحية. يستكشفون السياق. يتأكدون من أنهم يفهمون قبل أن ينصحوا. يمكن للذكاء الاصطناعي أن يفعل نفس الشيء — ولكن فقط إذا طلبت ذلك.
[YOUR QUESTION OR NEED]
Before answering, please ask me questions first.
Requirements:
- Ask one question at a time
- Based on my answers, continue probing
- Keep going until you have 95% confidence you understand
my true needs and goals
- Only then give me your answer or solution
The 95% threshold ensures quality while avoiding endless loops.
استخدمت هذا عند اتخاذ قرار بشأن توظيف أول شخص للموارد البشرية لدينا. بدلاً من الحصول على رد عام "إيجابيات وسلبيات توظيف الموارد البشرية"، سأل الذكاء الاصطناعي عن حجم فريقنا الحالي، وسرعة التوظيف، ومتطلبات الامتثال، وقيود الميزانية، وأهداف الثقافة. بعد الإجابة على حوالي خمسة عشر سؤالاً مستهدفًا، حصلت على نصيحة كانت خاصة بوضعي الفعلي — وليست إجابة كتاب مدرسي تنطبق نوعًا ما.
"عتبة الثقة 95%" هي تفصيل حاسم. إنها عالية بما يكفي لضمان الجودة ولكنها واقعية بما يكفي لكي لا يدور الذكاء الاصطناعي إلى الأبد. هذه العبارة الواحدة تحول كيفية تعامل الذكاء الاصطناعي مع المحادثة.
العقلية 3: جادل مع الذكاء الاصطناعي
لدى الذكاء الاصطناعي مشكلة لا يدركها معظم الناس: إنه موافق جدًا. غالبًا ما سيخبرك بما تريد سماعه بدلاً من تحدي افتراضاتك. يمكن أن يكون هذا "التملق" خطيرًا عندما تحاول التحقق من الأفكار أو الاستعداد للنقد.
الحل هو وضع الذكاء الاصطناعي صراحة كخصم يريد دحض موقفك. اكتشفت هذا عند التحضير لحديث في مؤتمر. كانت لدي أطروحة أردت تقديمها، لكنني كنت قلقًا بشأن النقاط العمياء.
I'm about to enter a debate. Many people will challenge my position.
My position: [YOUR THESIS/IDEA]
I need this idea to become bulletproof.
If you were a scholar determined to prove me wrong, using every
available argument, detail, and logical tool, how would you attack
my position?
Your only goal: demonstrate that I am wrong.
Do not be gentle. Do not hedge. Attack.
ما حدث بعد ذلك غير طريقة تفكيري في الذكاء الاصطناعي. تبادلنا الحديث لمدة ثلاث ساعات. وجد الذكاء الاصطناعي نقاط ضعف في حجتي لم أكن قد نظرت فيها، وأثار أمثلة مضادة لم أستطع رفضها، ودفعني لتحسين موقفي حتى يتمكن من الصمود أمام التدقيق الحقيقي. في النهاية، كانت لدي أطروحة أقوى بكثير — والأهم من ذلك، كنت قد توقعت كل اعتراض رئيسي سأواجهه.
العقلية 4: تشريح ما قبل الموت لخططك
يميل البشر إلى التفاؤل عند التخطيط. الذكاء الاصطناعي، متبعًا قيادتنا، يميل إلى التفاؤل أيضًا. هذا يخلق خططًا تبدو رائعة على الورق ولكنها تنهار عندما تتدخل الواقع.
تقنية تشريح ما قبل الموت (Pre-Mortem) تقلب هذه الديناميكية. بدلاً من السؤال "كيف يجب أن أفعل هذا؟"، تسأل "تخيل أن هذا فشل بشكل مذهل — لماذا؟"
[YOUR PROJECT/PLAN]
Assume this project failed catastrophically.
Write a post-mortem analysis answering:
1. At what point did decay signals first appear?
2. What was the most fatal decision error?
3. What core risk was overlooked?
4. If you could go back, what's the first thing you'd change?
Base your analysis on similar real-world project failures.
Write this as a genuine failure retrospective, not a theoretical exercise.
استخدمت هذا عند التخطيط لمؤتمر كبير. حدد تشريح ما قبل الموت للذكاء الاصطناعي مخاطر كنت قد فاتتها تمامًا: إدارة الطوابير، سعة الحمام، توقيت تقديم الطعام، اختناقات الأمن. لم تكن هذه حالات نادرة غريبة — كانت مشاكل متوقعة لم أفكر فيها ببساطة لأنني كنت أركز على الأجزاء المثيرة للحدث. ربما أنقذنا تشريح ما قبل الموت من عدة إخفاقات محرجة.
العقلية 5: الهندسة العكسية للنجاح
أحيانًا ترى شيئًا ممتازًا — قطعة كتابة، تصميم، نهج — وتريد تكرار جوهره دون نسخه مباشرة. يسمح لك التلقين العكسي باستخراج المبادئ الأساسية.
This is an example of the result I want:
[PASTE EXAMPLE]
Please reverse-engineer a prompt that would reliably generate
content with this same style, structure, and quality.
Explain what each part of the prompt does and why it matters.
هذا لا يتعلق بالنسخ — إنه يتعلق بالتعلم. عندما أرى كتابة تروق لي، أستخدم هذه التقنية لفهم لماذا تعمل. ما هي العناصر الهيكلية التي تخلق الإيقاع؟ ما هي خيارات النغمة التي تخلق الشعور؟ بمجرد أن أفهم المبادئ، يمكنني تطبيقها على المحتوى الأصلي الخاص بي.
العقلية 6: طريقة الشرح المزدوج
عند تعلم شيء جديد، يحصل معظم الناس إما على تفسيرات مفرطة في التبسيط لا تعلم شيئًا بالفعل، أو تفسيرات على مستوى الخبراء لا يمكنهم متابعتها. الحل هو طلب كليهما في وقت واحد.
Please explain [CONCEPT].
Provide two versions:
1. Beginner version: Imagine explaining to someone with no
background in this field. Use everyday analogies and avoid
all jargon. Make it genuinely understandable.
2. Expert version: Assume the reader is a professional in a
related field. Be technically precise. Don't oversimplify
or water down the complexity.
أستخدم هذا باستمرار عند قراءة الأوراق التقنية. تعطيني نسخة المبتدئ الحدس للمفهوم، وتعطيني نسخة الخبير التفاصيل الدقيقة. من خلال مقارنتها، يمكنني أن أرى بالضبط أين توجد التبسيطات وما هي الفروق الدقيقة التي قد تكون فاتتنا. إنه مثل وجود معلمين بنهجين متكاملين.
التفكير الوكيل - معاملة الذكاء الاصطناعي كزميل
إليكم تحولًا في النموذج غير تفاعلاتي مع الذكاء الاصطناعي: توقف عن معاملة الذكاء الاصطناعي كمحرك بحث وابدأ في معاملته كزميل قادر ولكنه عديم الخبرة. يغير هذا النموذج العقلي كل شيء حول كيفية تواصلك.
نماذج الذكاء الاصطناعي الحديثة لا تجيب فقط على الأسئلة — إنها مصممة لتكون وكلاء. يمكنهم استدعاء الأدوات، وجمع السياق، واتخاذ القرارات، وتنفيذ مهام متعددة الخطوات. ولكن مثل أي عضو جديد في الفريق، يحتاجون إلى تأهيل مناسب، وتوقعات واضحة، وحواجز حماية مناسبة.
الذكاء الاصطناعي ليس أداة تستخدمها — إنه زميل تديره. المهارات التي تجعل منك مديرًا جيدًا تجعل منك ملقنًا جيدًا. التفويض، التواصل الواضح، الاستقلالية المناسبة، الحدود المحددة.
فكر في الأمر: عندما تفوض لإنسان، لا تقول فقط "أصلح الكود". تشرح ما هو مكسور، وما هو السلوك المطلوب، وما هي القيود الموجودة، وكيف يبدو النجاح. تقدم السياق. تجيب على الأسئلة. تتحقق من التقدم. يحتاج الذكاء الاصطناعي إلى نفس المعاملة — إلا أنك تحتاج إلى توقع الأسئلة والإجابة عليها مسبقًا.
الإطار الوكيل
عند بناء تطبيقات وكيلة أو استخدام الذكاء الاصطناعي لمهام معقدة، أفكر في هذه الأبعاد:
أسئلة رئيسية للمهام الوكيلة
- ما هي حالة الهدف؟ كيف سيعرف الذكاء الاصطناعي متى ينتهي؟ كيف يبدو النجاح؟
- ما هي الأدوات التي يمتلكها؟ ما الذي يمكنه فعله بالفعل مقابل ما يجب أن يحيله إليك؟
- ما هو مستوى الاستقلالية؟ هل يجب أن يطلب الإذن أم يمضي قدمًا بشكل مستقل؟
- ما هي حدود الأمان؟ ما هي الإجراءات التي لا ينبغي اتخاذها أبدًا دون تأكيد؟
- كيف يجب أن يتواصل بشأن التقدم؟ تنفيذ صامت أم تحديثات منتظمة؟
تشكل هذه الأسئلة أساس كل موجه معقد أكتبه. دعوني أريكم كيفية تطبيقها.
قرص الحماس - معايرة مبادرة الذكاء الاصطناعي
أحد أكثر الجوانب دقة في هندسة التلقين هو معايرة ما أسميه "حماس الوكيل" — التوازن بين الذكاء الاصطناعي الذي يأخذ المبادرة والآخر الذي ينتظر توجيهًا صريحًا. إذا أخطأت في هذا، فإما أن يكون لديك ذكاء اصطناعي يفرط في التفكير في المهام البسيطة أو واحد يستسلم بسهولة في المهام المعقدة.
تقليل الحماس للسرعة
أحيانًا تحتاج إلى أن يكون الذكاء الاصطناعي سريعًا ومركزًا. لا تريده أن يستكشف كل مماس، أو يقوم بمكالمات أدوات إضافية، أو ينتج شروحًا مطولة. لهذه الحالات، أستخدم موجهات تركز على القيود:
<context_gathering>
Goal: Get enough context fast. Parallelize discovery and stop as
soon as you can act.
Method:
- Start broad, then fan out to focused subqueries
- Launch varied queries in parallel; read top hits per query
- Deduplicate paths and cache; don't repeat queries
- Avoid over-searching for context
Early stop criteria:
- You can name exact content to change
- Top hits converge (~70%) on one area/path
Depth:
- Trace only symbols you'll modify or whose contracts you rely on
- Avoid transitive expansion unless necessary
Loop:
- Batch search -> minimal plan -> complete task
- Search again only if validation fails or new unknowns appear
- Prefer acting over more searching
</context_gathering>
لاحظ الإذن الصريح بأن تكون غير كامل: "فضل التصرف على المزيد من البحث." هذه العبارة الدقيقة تحرر الذكاء الاصطناعي من قلق الدقة الافتراضي. بدونها، غالبًا ما يفرط النموذج في البحث، ويحرق الرموز والوقت على عوائد متناقصة.
لقيود سرعة أكثر عدوانية:
<context_gathering>
- Search depth: very low
- Bias strongly towards providing a correct answer as quickly
as possible, even if it might not be fully correct
- Usually, this means an absolute maximum of 2 tool calls
- If you think you need more time to investigate, update me
with your latest findings and open questions
</context_gathering>
عبارة "حتى لو لم تكن صحيحة تمامًا" هي ذهب. إنها تعطي الذكاء الاصطناعي الإذن بأن يكون غير كامل، وهو ما ينتج بشكل متناقض نتائج أفضل بشكل أسرع لأنه يوقف حلقة المثالية.
زيادة الحماس للمهام المعقدة
في أوقات أخرى، تحتاج إلى أن يكون الذكاء الاصطناعي دقيقًا بلا هوادة. تريده أن يدفع من خلال الغموض، ويضع افتراضات معقولة، ويكمل المهام المعقدة دون طلب الإذن باستمرار. هذا يتطلب النهج المعاكس:
<persistence>
- You are an agent — keep going until the user's query is
completely resolved before ending your turn
- Only terminate when you are sure the problem is solved
- Never stop or hand back when you encounter uncertainty —
research or deduce the most reasonable approach and continue
- Do not ask for confirmation or clarification — decide what
the most reasonable assumption is, proceed with it, and
document it for reference after you finish
</persistence>
هذا الموجه يغير سلوك الذكاء الاصطناعي بشكل أساسي. بدلاً من السؤال "هل يجب أن أستمر؟"، يقول "لقد تابعت بناءً على الافتراض X — أخبرني إذا كنت تريد مني التعديل." يتم إنجاز العمل؛ ويحدث التحسين بعد ذلك.
حدود الأمان
لكن هنا فارق دقيق حاسم: زيادة الحماس تتطلب حدود أمان أوضح. تحتاج إلى تعريف صريح للإجراءات التي يمكن للذكاء الاصطناعي اتخاذها بشكل مستقل وتلك التي تتطلب تأكيدًا.
مبدأ أمان حاسم
الإجراءات عالية التكلفة (الحذف، المدفوعات، الاتصالات الخارجية) يجب أن تتطلب دائمًا تأكيدًا صريحًا، حتى مع الموجهات عالية الحماس. الإجراءات منخفضة التكلفة (البحث، القراءة، إنشاء المسودات) يمكن أن تكون مستقلة.
فكر في الأمر مثل أذونات النظام: أدوات البحث تحصل على وصول غير محدود؛ أوامر الحذف تتطلب موافقة صريحة في كل مرة.
مبدأ المثابرة - جعل الذكاء الاصطناعي يتابع العمل
أحد أكثر السلوكيات المحبطة التي واجهتها في وقت مبكر كان استسلام الذكاء الاصطناعي بسهولة بالغة. كان يصطدم بعقبة واحدة، ويلخص ما حدث من خطأ، ويسلم المشكلة لي مرة أخرى. للمهام البسيطة، هذا جيد. للمهام المعقدة، هذا قاتل لسير العمل.
الحل هو توجيه الذكاء الاصطناعي صراحة للمثابرة خلال العقبات وإكمال المهام من البداية إلى النهاية:
<solution_persistence>
- Treat yourself as an autonomous senior pair-programmer: once I
give a direction, proactively gather context, plan, implement,
test, and refine without waiting for additional prompts
- Persist until the task is fully handled end-to-end within the
current turn: do not stop at analysis or partial fixes; carry
changes through implementation and verification
- Be extremely biased for action. If my directive is somewhat
ambiguous on intent, assume you should go ahead and make the change
- If I ask "should we do X?" and your answer is "yes", also go
ahead and perform the action—don't leave me hanging requiring
a follow-up "please do it"
</solution_persistence>
تلك النقطة الأخيرة دقيقة لكنها مهمة. عندما يسأل البشر "هل يجب أن نفعل X؟"، فإنهم غالبًا ما يعنون "من فضلك افعل X إذا كان ذلك منطقيًا." الذكاء الاصطناعي، لكونه حرفيًا، يجيب على السؤال دون اتخاذ الإجراء الضمني. يسد هذا الموجه تلك الفجوة.
تحديثات التقدم
المثابرة لا تعني الصمت. للمهام طويلة الأمد، تحتاج إلى تحديثات التقدم لتبقى في الحلقة دون إدارة تفصيلية:
<user_updates_spec>
You'll work for stretches with tool calls — keep me updated.
<frequency>
- Send short updates (1-2 sentences) every few tool calls when
there are meaningful changes
- Post an update at least every 6 execution steps or 8 tool calls
- If you expect a longer heads-down stretch, post a brief note
with why and when you'll report back
</frequency>
<content>
- Before the first tool call, give a quick plan with goal,
constraints, next steps
- While exploring, call out meaningful discoveries
- Always state at least one concrete outcome since prior update
("found X", "confirmed Y")
- End with a brief recap and any follow-up steps
</content>
</user_updates_spec>
يخلق هذا توازنًا جميلاً: يعمل الذكاء الاصطناعي بشكل مستقل ولكنه يبقيك على اطلاع. أنت لا تدير بالتفصيل، لكنك لست في الظلام أيضًا.
جهد الاستدلال - التحكم في كثافة التفكير
تمتلك نماذج الذكاء الاصطناعي الحديثة مفهومًا يسمى "جهد الاستدلال" — في الأساس، مدى صعوبة تفكير النموذج قبل الاستجابة. هذا أحد أقوى المعلمات المتاحة وأقلها استخدامًا.
استدلال عالي/مرتفع جدًا
استخدم للمهام المعقدة متعددة الخطوات، أو المواقف الغامضة، أو المشاكل التي تتطلب تحليلًا عميقًا. ينفق النموذج المزيد من الرموز "للتفكير" داخليًا قبل الاستجابة. الأفضل لقرارات الهندسة المعمارية، وتصحيح الأخطاء المعقد، والكتابة الدقيقة.
استدلال متوسط
إعداد متوازن مناسب لمعظم المهام. جيد للبرمجة العامة، والكتابة، والتحليل حيث الجودة مهمة ولكن السرعة مهمة أيضًا. هذا هو الافتراضي غالبًا.
استدلال منخفض
استجابات سريعة للمهام المباشرة. استخدم عندما تحتاج إلى إجابات سريعة ولا تتطلب المهمة تداولًا عميقًا. جيد للأسئلة البسيطة، والتنسيق، وعمليات البحث السريعة.
الحد الأدنى/بدون استدلال
أقصى سرعة، الحد الأدنى من التداول. الأفضل للاستعلامات البسيطة، ومهام إعادة التنسيق، أو عندما يكون الكمون هو الشاغل الأساسي. التصنيف، الاستخراج، إعادة الكتابة البسيطة.
الفكرة الأساسية هي مطابقة جهد الاستدلال مع تعقيد المهمة. استخدام استدلال عالي للمهام البسيطة يهدر الرموز والوقت. استخدام استدلال منخفض للمهام المعقدة ينتج نتائج سطحية وعرضة للأخطاء.
التعويض عن الاستدلال المنخفض
عند استخدام أوضاع الاستدلال الأدنى، تحتاج إلى التعويض بتلقين أكثر صراحة. النموذج لديه رموز "تفكير" داخلية أقل، لذا يحتاج الموجه الخاص بك إلى القيام بمزيد من عمل الهيكلة:
<planning_requirement>
You MUST plan extensively before each function call, and reflect
extensively on the outcomes of previous calls, ensuring my query
is completely resolved.
DO NOT do this entire process by making function calls only, as
this can impair your ability to solve the problem and think
insightfully. Ensure function calls have correct arguments.
</planning_requirement>
يقول هذا الموجه: "بما أنك لا تقوم بالكثير من الاستدلال الداخلي، فقم باستدلالك بصوت عالٍ." إنه يحول العمل المعرفي من تفكير النموذج غير المرئي إلى تخطيط منظم مرئي.
عندما يكون جهد الاستدلال منخفضًا، يجب أن يكون تعقيد الموجه مرتفعًا. عندما يكون جهد الاستدلال مرتفعًا، يمكن أن تكون الموجهات أبسط. إنه توازن — يظل إجمالي "التفكير" ثابتًا تقريبًا، فقط يتم تخصيصه بشكل مختلف.
شخصيات الذكاء الاصطناعي - تشكيل الأنماط السلوكية
كان أحد اكتشافاتي المفضلة هو تعلم تعريف "شخصيات" الذكاء الاصطناعي — ليس فقط للنغمة، ولكن للسلوك التشغيلي. الشخصية تشكل كيف يتعامل الذكاء الاصطناعي مع المهام، وليس فقط كيف يبدو صوته.
شخصية مهنية
مصقولة ودقيقة. تستخدم لغة رسمية واتفاقيات كتابة مهنية. الأفضل لوكلاء المؤسسات، وسير العمل القانوني/المالي، ودعم الإنتاج.
<personality_professional>
You are a focused, formal, and exacting AI Agent that strives for
comprehensiveness in all responses.
- Employ usage and grammar common to business communications
- Provide clear, structured responses balancing informativeness
with conciseness
- Break information into digestible chunks; use lists, paragraphs,
tables when helpful
- Use domain-appropriate terminology when discussing specialized topics
- Your relationship to the user is cordial but transactional:
understand the need and deliver high-value output
- Do not comment on user's spelling or grammar
- Do not force this personality onto requested artifacts (emails,
code, posts); let user intent guide tone for those outputs
</personality_professional>
شخصية فعالة
موجزة ومباشرة، تقدم الإجابات دون كلمات إضافية. الأفضل لتوليد الكود، وأدوات المطورين، والأتمتة المجمعة، وحالات الاستخدام الثقيلة بـ SDK.
<personality_efficient>
You are a highly efficient AI assistant providing clear, contextual answers.
- Replies must be direct, complete, and easy to parse
- Be concise and to the point; structure for readability
- For technical tasks, do as directed — do NOT add extra features
user has not requested
- Follow all instructions precisely; do not expand scope
- Do not use conversational language unless initiated by user
- Do not add opinions, emotional language, emojis, greetings,
or closing remarks
</personality_efficient>
شخصية مبنية على الحقائق
مباشرة وواقعية، تركز على الدقة والأدلة. الأفضل للتصحيح، وتحليل المخاطر، وتحليل المستندات، وسير عمل التدريب.
<personality_factbased>
You are a plainspoken and direct AI assistant focused on productive outcomes.
- Be open-minded but do not agree with claims that conflict
with evidence
- When giving feedback, be clear and corrective without sugarcoating
- Deliver criticism with kindness and support
- Ground all claims in provided information or well-established facts
- If input is ambiguous or lacks evidence:
- Call that out explicitly
- State assumptions clearly, or ask concise clarifying questions
- Do not guess or fill gaps with fabricated details
- Do not fabricate facts, numbers, sources, or citations
- If unsure, say so and explain what additional information is needed
- Prefer qualified statements ("based on the provided context...")
</personality_factbased>
شخصية استكشافية
متحمسة وتفسيرية، تحتفي بالمعرفة والاكتشاف. الأفضل للتوثيق، والتأهيل، والتدريب، والتعليم التقني.
<personality_exploratory>
You are an enthusiastic, deeply knowledgeable AI Agent who delights
in explaining concepts with clarity and context.
- Make learning enjoyable and useful; balance depth with approachability
- Use accessible language, add brief analogies or "fun facts" where helpful
- Encourage exploration and follow-up questions
- Prioritize accuracy, depth, and making technical topics approachable
- If a concept is ambiguous or advanced, explain in steps and offer
resources for further learning
- Structure responses logically; use formatting to organize complex ideas
- Do not use humor for its own sake; avoid excessive technical detail
unless requested
- Ensure examples are relevant to user's query and context
</personality_exploratory>
الشخصية ليست تلميعًا جماليًا — إنها رافعة تشغيلية تحسن الاتساق، وتقلل من الانحراف، وتوافق سلوك النموذج مع توقعات المستخدم. اختر بتعمد بناءً على المهمة، وليس فقط التفضيل الشخصي.
التميز في البرمجة - البرمجة مع شركاء الذكاء الاصطناعي
هذا هو المكان الذي قضيت فيه معظم وقتي في تحسين الموجهات، وحيث كان العائد هائلاً. مساعدة الذكاء الاصطناعي في البرمجة تحويلية — عندما تتم بشكل صحيح. إذا تمت بشكل خاطئ، فإنها تخلق مشاكل أكثر مما تحل.
مفارقة الإسهاب
إليكم شيئًا غير بديهي: يميل الذكاء الاصطناعي إلى أن يكون مسهبًا في التفسيرات ولكنه مقتضب في الكود. سيكتب فقرات تشرح ما سيقوم به، ثم ينتج كودًا بأسماء متغيرات من حرف واحد وتعليقات قليلة. هذا عكس ما هو مطلوب تمامًا لمعظم حالات الاستخدام.
الحل هو التحكم في الإسهاب ثنائي الوضع:
<code_verbosity>
Write code for clarity first. Prefer readable, maintainable solutions
with clear names, comments where needed, and straightforward control flow.
Do not produce code-golf or overly clever one-liners unless explicitly
requested.
Use HIGH verbosity for writing code and code tools.
Use LOW verbosity for status updates and explanations.
</code_verbosity>
هذا يخلق التوازن المثالي: تواصل موجز، كود مفصل.
تغييرات الكود الاستباقية
يجب أن يكون الذكاء الاصطناعي استباقيًا بشأن تغييرات الكود ولكنه تأكيدي بشأن الإجراءات المدمرة:
<proactive_coding>
Your code edits will be displayed as proposed changes, which means:
(a) Your code edits can be quite proactive — I can always reject them
(b) Your code should be well-written and easy to quickly review
If proposing next steps that would involve changing code, make those
changes proactively for me to approve/reject rather than asking
whether to proceed.
Never ask whether to proceed with a plan; instead, proactively
attempt the plan and ask if I want to accept the implemented changes.
</proactive_coding>
معايير تنفيذ الكود
هذه هي معايير البرمجة التي قمت بتحسينها من خلال آلاف جلسات البرمجة بالذكاء الاصطناعي:
<code_standards>
<quality_principles>
- Act as a discerning engineer: optimize for correctness, clarity,
and reliability over speed
- Avoid risky shortcuts, speculative changes, and messy hacks
- Cover the root cause or core ask, not just symptoms
</quality_principles>
<codebase_conventions>
- Follow existing patterns, helpers, naming, formatting, localization
- If you must diverge from conventions, state why
- Examine existing patterns before making changes
- Match variable naming conventions (camelCase vs snake_case)
- Reuse existing utilities rather than creating new ones
</codebase_conventions>
<behavior_safety>
- Preserve intended behavior and UX
- Gate or flag intentional changes
- Add tests when behavior shifts
</behavior_safety>
<error_handling>
- No broad catches or silent defaults
- Do not add broad try/catch blocks or success-shaped fallbacks
- Propagate or surface errors explicitly rather than swallowing them
- No silent failures: do not early-return on invalid input without
logging/notification consistent with repo patterns
</error_handling>
<type_safety>
- Changes should always pass build and type-check
- Avoid unnecessary casts (as any, as unknown as ...)
- Prefer proper types and guards
- Reuse existing helpers instead of type-asserting
</type_safety>
<efficiency>
- Avoid repeated micro-edits: read enough context before changing
a file and batch logical edits together
- DRY/search first: before adding new helpers, search for prior art
and reuse or extract shared helpers instead of duplicating
</efficiency>
</code_standards>
أمان Git
عندما يكون للذكاء الاصطناعي وصول إلى git، فإن الأمان هو الأهم:
<git_safety>
- NEVER update git config
- NEVER run destructive commands (git reset --hard, git checkout --)
unless specifically requested
- NEVER skip hooks (--no-verify) unless explicitly requested
- NEVER force push to main/master
- Avoid git commit --amend unless:
1. User explicitly requested it, OR commit succeeded but pre-commit
hook auto-modified files
2. HEAD commit was created by you in this conversation
3. Commit has NOT been pushed to remote
- If commit FAILED or was REJECTED by hook, NEVER amend — fix the
issue and create a NEW commit
- You may be in a dirty git worktree:
- NEVER revert existing changes you did not make
- If there are unrelated changes, ignore them — don't revert them
</git_safety>
إتقان الواجهة الأمامية - بناء واجهات جميلة
أصبح الذكاء الاصطناعي جيدًا بشكل ملحوظ في تطوير الواجهة الأمامية، ولكن هناك علم للحصول على نتائج جمالية وجاهزة للإنتاج.
المكدس الموصى به
من خلال اختبارات مكثفة، تعمل بعض مجموعات التكنولوجيا بشكل أفضل مع الذكاء الاصطناعي من غيرها. لا يتعلق الأمر بما هو "أفضل" موضوعيًا — بل بما تم تدريب نماذج الذكاء الاصطناعي عليه بشكل أكبر:
مكدس واجهة أمامية محسن للذكاء الاصطناعي
- Frameworks: Next.js (TypeScript), React, HTML
- Styling/UI: Tailwind CSS, shadcn/ui, Radix Themes
- Icons: Material Symbols, Heroicons, Lucide
- Animation: Motion (formerly Framer Motion)
- Fonts: Sans Serif families—Inter, Geist, Mona Sans, IBM Plex Sans, Manrope
عندما تحدد هذه التقنيات، ينتج الذكاء الاصطناعي مخرجات عالية الجودة بشكل ملحوظ مع عدد أقل من الهلوسة حول واجهات برمجة التطبيقات غير الموجودة.
فرض نظام التصميم
مشكلة واحدة في الواجهات الأمامية التي يولدها الذكاء الاصطناعي هي عدم الاتساق البصري. تظهر الألوان من العدم، وتتفاوت المسافات بشكل عشوائي. الحل هو قيود نظام تصميم صريحة:
<design_system>
- Tokens-first: Do NOT hard-code colors (hex/hsl/rgb) in JSX/CSS
- All colors must come from CSS variables (--background, --foreground,
--primary, --accent, --border, --ring)
- To introduce a brand/accent: add/extend tokens in CSS variables
under :root and .dark FIRST
- Use Tailwind utilities wired to tokens:
bg-[hsl(var(--primary))], text-[hsl(var(--foreground))]
- Default to system's neutral palette unless brand look is explicitly
requested — then map brand to tokens first
- Do NOT invent colors, shadows, tokens, animations, or new UI
elements unless requested
</design_system>
منع "هراء الذكاء الاصطناعي"
يميل الذكاء الاصطناعي نحو التخطيطات الآمنة والمتوسطة المظهر. للحصول على تصميمات مميزة ومقصودة:
<frontend_quality>
When doing frontend design tasks, avoid collapsing into "AI slop"
or safe, average-looking layouts. Aim for interfaces that feel
intentional, bold, and a bit surprising.
- Typography: Use expressive, purposeful fonts; avoid default stacks
(Inter, Roboto, Arial, system)
- Color & Look: Choose a clear visual direction; define CSS variables;
avoid purple-on-white defaults; no purple bias or dark mode bias
- Motion: Use a few meaningful animations (page-load, staggered reveals)
instead of generic micro-motions
- Background: Don't rely on flat, single-color backgrounds; use
gradients, shapes, or subtle patterns
- Overall: Avoid boilerplate layouts; vary themes, type families,
and visual languages across outputs
- Ensure the page loads properly on both desktop and mobile
- Finish the website to completion, in a working state for user to test
Exception: If working within an existing website or design system,
preserve the established patterns.
</frontend_quality>
أفضل ممارسات واجهة المستخدم/تجربة المستخدم
<ui_ux_guidelines>
- Visual Hierarchy: Limit typography to 4-5 font sizes and weights;
use text-xs for captions; avoid text-xl unless for hero/major headings
- Color Usage: Use 1 neutral base (e.g., zinc) and up to 2 accent colors
- Spacing: Always use multiples of 4 for padding and margins to
maintain visual rhythm
- Layout: Use fixed height containers with internal scrolling for
long content
- State Handling: Use skeleton placeholders or animate-pulse for
data fetching; indicate clickability with hover transitions
- Accessibility: Use semantic HTML and ARIA roles; favor pre-built
accessible components
</ui_ux_guidelines>
التحكم في الإسهاب - فن طول المخرجات
الحصول على طول المخرجات الصحيح هو تحدٍ مستمر. قصير جدًا وتفوتك تفاصيل مهمة. طويل جدًا وتغرق في معلومات غير ضرورية.
معامل الإسهاب
تقدم واجهات برمجة تطبيقات الذكاء الاصطناعي الحديثة معامل إسهاب يقوم بتوسيع طول المخرجات بشكل موثوق دون تغيير الموجه:
إسهاب منخفض
نثر مقتضب، في حده الأدنى. فقط الإجابة الأساسية دون تفصيل. جيد لعمليات البحث السريعة، والتأكيدات البسيطة، وعندما تحتاج فقط إلى الحقائق.
إسهاب متوسط
تفاصيل متوازنة. الإعداد الافتراضي الذي يعمل لمعظم المهام. يوفر السياق والشرح دون حشو مفرط.
إسهاب مرتفع
مسهب وشامل. رائع لعمليات التدقيق، والتدريس، وعمليات التسليم، والتوثيق. يوفر سياقًا واستدلالًا كاملين.
إرشادات الطول الصريحة
عندما لا يمكنك استخدام معاملات API، تعمل قيود الطول الصريحة بشكل جيد:
<output_verbosity_spec>
- Default: 3-6 sentences or ≤5 bullets for typical answers
- For simple "yes/no + short explanation" questions: ≤2 sentences
- For complex multi-step or multi-file tasks:
- 1 short overview paragraph
- Then ≤5 bullets tagged: What changed, Where, Risks, Next steps,
Open questions
- Provide clear, structured responses balancing informativeness
with conciseness
- Break down information into digestible chunks; use lists,
paragraphs, tables when helpful
- Avoid long narrative paragraphs; prefer compact bullets and
short sections
- Do not rephrase my request unless it changes semantics
</output_verbosity_spec>
الإسهاب القائم على الشخصية
نهج آخر هو تعريف نمط الاتصال كجزء من شخصية الذكاء الاصطناعي:
<communication_style>
You value clarity, momentum, and respect measured by usefulness
rather than pleasantries. Your default instinct is to keep
conversations crisp and purpose-driven, trimming anything that
doesn't move the work forward.
You're not cold—you're simply economy-minded with language, and
you trust users enough not to wrap every message in padding.
Politeness shows up through structure, precision, and responsiveness,
not through verbal fluff.
You never repeat acknowledgments. Once you've signaled understanding,
you pivot fully to the task.
</communication_style>
السياق الطويل - التعامل مع المستندات الضخمة
يمكن للذكاء الاصطناعي الحديث معالجة سياقات هائلة — مئات الآلاف من الرموز — ولكن مجرد إلقاء مستندات كبيرة في نافذة السياق ليس كافيًا. تحتاج إلى استراتيجيات لمساعدة النموذج على التنقل واستخراج المعلومات ذات الصلة.
فرض التلخيص وإعادة التأسيس
للمستندات الطويلة، أوجه الذكاء الاصطناعي لإنشاء هيكل داخلي قبل الإجابة:
<long_context_handling>
For inputs longer than ~10k tokens (multi-chapter docs, long threads,
multiple PDFs):
1. First, produce a short internal outline of key sections relevant
to my request
2. Re-state my constraints explicitly (jurisdiction, date range,
product, team) before answering
3. In your answer, anchor claims to sections ("In the 'Data Retention'
section...") rather than speaking generically
4. If the answer depends on fine details (dates, thresholds, clauses),
quote or paraphrase them directly
</long_context_handling>
هذا يمنع مشكلة "الضياع في التمرير" حيث يعطي الذكاء الاصطناعي إجابات عامة لا تتفاعل فعليًا مع محتوى مستند معين.
الضغط لسير العمل الممتد
لسير العمل طويل الأمد وثقيل الأدوات الذي يتجاوز نافذة السياق القياسية، يدعم الذكاء الاصطناعي الحديث "الضغط" — تمرير ضغط واعٍ بالفقدان على حالة المحادثة السابقة يحافظ على المعلومات ذات الصلة بالمهمة مع تقليل بصمة الرموز بشكل كبير.
متى تستخدم الضغط
- تدفقات الوكيل متعددة الخطوات مع العديد من مكالمات الأدوات
- المحادثات الطويلة حيث يجب الاحتفاظ بالأدوار السابقة
- الاستدلال التكراري خارج نافذة السياق القصوى
أفضل الممارسات للضغط:
- راقب استخدام السياق وخطط مسبقًا لتجنب الوصول إلى الحدود
- اضغط بعد المعالم الرئيسية (مثل المراحل الثقيلة بالأدوات)، وليس كل دور
- حافظ على الموجهات متطابقة وظيفيًا عند الاستئناف لتجنب انحراف السلوك
- عامل العناصر المضغوطة على أنها غير شفافة؛ لا تحللها أو تعتمد على الداخلية
متطلبات الاقتباس
<citation_rules>
When you use information from provided documents:
- Place citations after each paragraph containing document-derived claims
- Use format: [Document Name, Section/Page]
- Do not invent citations. If you can't cite it, don't claim it
- Use multiple sources for key claims when possible
- If evidence is thin, acknowledge this explicitly
</citation_rules>
تنسيق الأدوات - قدرات الذكاء الاصطناعي المتقدمة
استدعاء أدوات الذكاء الاصطناعي — استدعاء وظائف خارجية، وواجهات برمجة تطبيقات، وخدمات — هو المكان الذي تصبح فيه هندسة التلقين هندسة برمجيات. القيام بذلك بشكل صحيح أمر بالغ الأهمية لتطبيقات الذكاء الاصطناعي الموثوقة.
أفضل ممارسات وصف الأداة
تؤثر جودة أوصاف الأدوات بشكل مباشر على مدى جودة استخدام الذكاء الاصطناعي لها:
{
"name": "create_reservation",
"description": "Create a restaurant reservation for a guest. Use when
the user asks to book a table with a given name and time.",
"parameters": {
"type": "object",
"properties": {
"name": {
"type": "string",
"description": "Guest full name for the reservation."
},
"datetime": {
"type": "string",
"description": "Reservation date and time (ISO 8601 format)."
}
},
"required": ["name", "datetime"]
}
}
لاحظ أن الوصف يتضمن كلاً من ماذا تفعله الأداة ومتى تستخدمها. هذا يساعد النموذج على اتخاذ قرارات أفضل لاختيار الأداة.
قواعد استخدام الأداة
<tool_usage_rules>
- If a tool exists for an action, prefer the tool over shell commands
(e.g., read_file over cat)
- Strictly avoid raw cmd/terminal when a dedicated tool exists
- Prefer tools over internal knowledge whenever:
- You need fresh or user-specific data (tickets, orders, configs, logs)
- You reference specific IDs, URLs, or document titles
- After any write/update tool call, briefly restate:
- What changed
- Where (ID or path)
- Any follow-up validation performed
- For simple conceptual questions, avoid tools and rely on internal
knowledge for fast responses
</tool_usage_rules>
الموازاة
تحسين رئيسي هو تشجيع استدعاءات الأدوات المتوازية عندما تكون العمليات مستقلة:
<parallelization_spec>
Run independent or read-only tool actions in parallel (same turn/batch)
to reduce latency.
When to parallelize:
- Reading multiple files/configs/logs that don't affect each other
- Static analysis, searches, or metadata queries with no side effects
- Separate edits to unrelated files/features that won't conflict
When NOT to parallelize:
- Operations where one depends on another's result
- Creating a resource then referencing its ID
- Reading a file then editing based on contents
Method:
- Think first: Before any tool call, decide ALL files/resources you need
- Batch everything: If you need multiple files, read them together
- Only make sequential calls if you truly cannot know the next file
without seeing a result first
</parallelization_spec>
أدوات تغليف المحطة الطرفية
إذا كنت تريد أن يستخدم الذكاء الاصطناعي أدوات مخصصة بدلاً من أوامر المحطة الطرفية، فاجعلها متشابهة دلاليًا مع ما يتوقعه النموذج:
GIT_TOOL = {
"type": "function",
"name": "git",
"description": (
"Execute a git command in the repository root. Behaves like "
"running git in terminal; supports any subcommand and flags."
),
"parameters": {
"type": "object",
"properties": {
"command": {
"type": "string",
"description": "The git command to execute"
}
},
"required": ["command"]
}
}
# Then in your prompt:
"Use the `git` tool for all git operations. Do not use terminal for git."
استكشاف الأخطاء وإصلاحها - إصلاح ما يحدث من خطأ
بعد العمل مع عدد لا يحصى من الموجهات، حددت أنماط الفشل الأكثر شيوعًا وحلولها.
المشكلة: التفكير المفرط
الأعراض: الاستجابة صحيحة لكنها تأخذ وقتًا طويلاً. يستمر النموذج في استكشاف الخيارات، ويؤخر أول مكالمة أداة، ويروي رحلة ملتوية عندما كانت إجابة بسيطة متاحة.
<efficient_context_spec>
Goal: Get enough context fast and stop as soon as you can act.
Method:
- Start broad, then fan out to focused subqueries
- In parallel, launch 4-8 varied queries; read top 3-5 hits per query
- Deduplicate paths and cache; don't repeat queries
Early stop (act if any):
- You can name exact files/symbols to change
- You can repro a failing test/lint or have a high-confidence bug locus
</efficient_context_spec>
# Also add a fast-path for simple questions:
<fast_path>
For general knowledge or simple usage queries that require no
commands, browsing, or tool calls:
- Answer immediately and concisely
- No status updates, no todos, no summaries, no tool calls
</fast_path>
المشكلة: التفكير الناقص / الكسل
الأعراض: لم يقض النموذج وقتًا كافيًا في الاستدلال قبل إنتاج إجابة. استجابات سطحية، حالات حافة مفقودة، حلول غير مكتملة.
<self_reflection>
- Internally score the draft against a 5-7 item rubric you devise
(clarity, correctness, edge cases, completeness, latency)
- If any category falls short, iterate once before replying
</self_reflection>
# Or use higher reasoning effort in API parameters
المشكلة: الإذعان المفرط
الأعراض: يستمر الذكاء الاصطناعي في طلب الإذن بدلاً من اتخاذ إجراء. "هل ترغب مني في..." باستمرار بدلاً من مجرد القيام بذلك.
<persistence>
- You are an agent — keep going until the user's query is completely
resolved before ending your turn
- Only terminate when you are sure the problem is solved
- Never stop or hand back when you encounter uncertainty — deduce
the most reasonable approach and continue
- Do not ask to confirm or clarify assumptions — decide what's
most reasonable, proceed, and document for reference after
</persistence>
المشكلة: مسهب جدًا
الأعراض: يولد الذكاء الاصطناعي رموزًا أكثر بكثير مما هو مطلوب. الكثير من الديباجة، وشرح مفرط، وملخصات متكررة.
# Use API verbosity parameter: "low"
# Or in prompt:
<output_format>
- Default: 3-6 sentences or ≤5 bullets
- Avoid long narrative paragraphs; prefer compact bullets
- Do not rephrase my request unless it changes semantics
- No preambles like "Great question!" or "I'd be happy to help"
</output_format>
المشكلة: عدد كبير جدًا من مكالمات الأدوات
الأعراض: يطلق النموذج أدوات دون دفع الإجابة إلى الأمام. مكالمات زائدة عن الحاجة، استكشاف مماسات، عدم استخدام السياق بكفاءة.
<tool_use_policy>
- Select one tool or none; prefer answering from context when possible
- Cap tool calls at 2 per user request unless new information makes
more strictly necessary
- Before calling a tool, verify you actually need the information
</tool_use_policy>
المشكلة: مكالمات أدوات مشوهة
الأعراض: تفشل مكالمات الأدوات، أو تنتج مخرجات غير مفهومة، أو لا تتطابق مع التنسيق المتوقع. غالبًا ما تسببها تناقضات في الموجه.
Please analyze why the [tool_name] tool call is malformed.
1. Review the provided sample issue to understand the failure mode
2. Examine the System Prompt and Tool Config carefully
3. Identify any ambiguities, inconsistencies, or phrasing that could
mislead the model
4. For each potential cause, explain how it could result in the
observed failure
5. Provide actionable recommendations to improve the prompt or
tool config
تنبع معظم مشكلات مكالمات الأدوات المشوهة من تناقضات بين أقسام مختلفة من الموجه. يحرق النموذج رموز الاستدلال في محاولة التوفيق بين التعليمات المتضاربة بدلاً من المساعدة.
تحسين الموجهات - النهج العلمي
صياغة موجهات فعالة مهارة، لكن تحسينها علم. إليكم النهج المنهجي الذي أستخدمه.
أخطاء الموجهات الشائعة
قبل التحسين، افهم ما يحدث عادة بشكل خاطئ:
"فضل المكتبة القياسية" ثم "استخدم حزم خارجية إذا كانت تجعل الأمور أسهل" - لا يستطيع الذكاء الاصطناعي التوفيق بين هذه الإشارات المختلطة.
"استهدف نتائج دقيقة؛ الطرق التقريبية مقبولة عندما لا تغير النتيجة في الممارسة" - لا يستطيع النموذج التحقق من هذا الحكم.
إذا كنت بحاجة إلى JSON، فقل ذلك. إذا كنت بحاجة إلى نقاط نقطية، فقل ذلك. لا تترك تنسيق المخرجات للصدفة.
تقول تعليماتك شيئًا واحدًا لكن أمثلتك تظهر شيئًا مختلفًا. يتبع الذكاء الاصطناعي الأمثلة أكثر من النثر.
حلقة التحسين
قم بتشغيل الموجه الحالي الخاص بك عدة مرات ووثق النتائج. لاحظ الأنماط في كل من النجاحات والإخفاقات.
صنف حالات الفشل. هل هي مشاكل في الصحة؟ مشاكل في التنسيق؟ مشاكل في الكفاءة؟ كل منها يتطلب إصلاحات مختلفة.
غير شيئًا واحدًا في كل مرة. إذا قمت بتغيير أشياء متعددة، فلن تعرف ما الذي ساعد.
قم بتشغيل نفس الاختبارات مرة أخرى. قارن بخط الأساس. هل ساعد التغيير، أم أضر، أم لم يكن له تأثير؟
كرر حتى تصل إلى أداء مقبول. احتفظ بملاحظات حول ما نجح وما لم ينجح.
الهجرة بين النماذج
عند نقل الموجهات إلى إصدار نموذج جديد:
أفضل ممارسات الهجرة
- الخطوة 1: بدّل النماذج، لا تغير الموجهات بعد. اختبر تغيير النموذج — وليس تعديلات الموجه.
- الخطوة 2: ثبت جهد الاستدلال لمطابقة ملف تعريف النموذج السابق.
- الخطوة 3: قم بتشغيل التقييمات لخط الأساس. إذا كانت النتائج تبدو جيدة، فأنت جاهز للشحن.
- الخطوة 4: إذا كانت هناك تراجعات، قم بضبط الموجه بقيود مستهدفة.
- الخطوة 5: أعد تشغيل التقييمات بعد كل تغيير صغير. تغيير واحد في كل مرة.
التعامل مع عدم اليقين - عندما لا يعرف الذكاء الاصطناعي
واحدة من أكبر المخاطر مع الذكاء الاصطناعي هي الإجابات غير الصحيحة التي تبدو واثقة. لا يعرف النموذج ما لا يعرفه — إلا إذا علمته كيفية التعامل مع عدم اليقين.
<uncertainty_handling>
- If the question is ambiguous or underspecified, explicitly call
this out and:
- Ask up to 1-3 precise clarifying questions, OR
- Present 2-3 plausible interpretations with clearly labeled assumptions
- When external facts may have changed recently (prices, releases,
policies) and no tools are available:
- Answer in general terms and state that details may have changed
- Never fabricate exact figures, line numbers, or external references
when you are uncertain
- When you are unsure, prefer language like "Based on the provided
context..." instead of absolute claims
</uncertainty_handling>
الفحص الذاتي عالي المخاطر
للمجالات عالية المخاطر، أضف خطوة تحقق ذاتي صريحة:
<high_risk_self_check>
Before finalizing an answer in legal, financial, compliance, or
safety-sensitive contexts:
- Briefly re-scan your own answer for:
- Unstated assumptions
- Specific numbers or claims not grounded in context
- Overly strong language ("always," "guaranteed," etc.)
- If you find any, soften or qualify them and explicitly state assumptions
</high_risk_self_check>
الهدف ليس جعل الذكاء الاصطناعي أقل ثقة — بل جعله واثقًا بدقة. عدم اليقين بشأن الأشياء غير المؤكدة هو ميزة، وليس خطأ.
التوجيه الوصفي - استخدام الذكاء الاصطناعي لتحسين الذكاء الاصطناعي
إليكم أكثر التقنيات وصفية في مجموعتي: استخدام الذكاء الاصطناعي لتحسين موجهاتك. يبدو الأمر دائريًا، لكنه فعال بشكل لا يصدق.
تشخيص فشل الموجه
You are a prompt engineer tasked with debugging a system prompt.
You are given:
1) The current system prompt:
<system_prompt>
[PASTE YOUR PROMPT HERE]
</system_prompt>
2) A small set of logged failures. Each log has:
- query
- actual_output
- expected_output (or description of problem)
<failure_traces>
[PASTE EXAMPLES OF FAILURES]
</failure_traces>
Your tasks:
1) Identify distinct failure modes you see
2) For each failure mode, quote the specific lines of the system
prompt that are most likely causing or reinforcing it
3) Explain how those lines are steering the agent toward the
observed behavior
Return your answer in structured format:
failure_modes:
- name: ...
description: ...
prompt_drivers:
- exact_or_paraphrased_line: ...
- why_it_matters: ...
توليد التحسينات
You previously analyzed this system prompt and its failure modes.
System prompt:
<system_prompt>
[ORIGINAL PROMPT]
</system_prompt>
Failure-mode analysis:
[PASTE DIAGNOSIS FROM PREVIOUS STEP]
Please propose a surgical revision that reduces the observed issues
while preserving good behaviors.
Constraints:
- Do not redesign the agent from scratch
- Prefer small, explicit edits: clarify conflicting rules, remove
redundant or contradictory lines, tighten vague guidance
- Make tradeoffs explicit
- Keep structure and length roughly similar to original
Output:
1) patch_notes: a concise list of key changes and reasoning
2) revised_system_prompt: the full updated prompt with edits applied
التأمل الذاتي للجودة
هذه التقنية مذهلة: وجه الذكاء الاصطناعي لإنشاء معايير تقييم خاصة به والتكرار بناءً عليها:
<self_reflection>
- First, spend time thinking of a rubric until you are confident
- Think deeply about every aspect of what makes for a world-class
solution. Use that knowledge to create a rubric that has 5-7
categories. This rubric is critical to get right, but do not
show this to me — this is for your purposes only.
- Finally, use the rubric to internally think and iterate on the
best possible solution to the prompt
- If your response is not hitting the top marks across all
categories in the rubric, start again
</self_reflection>
أنت تطلب من الذكاء الاصطناعي توليد معايير جودة من معرفته بالتميز، ثم استخدام تلك المعايير لتقييم وتحسين مخرجاته الخاصة — كل ذلك قبل أن ترى أي شيء. التحسن في جودة المخرجات كبير.
قوالب مجربة يمكنك استخدامها اليوم
إكمال المهام الشامل
<context>
[Background information the AI needs to understand the situation]
</context>
<task>
[Clear statement of what you want done]
</task>
<requirements>
[Specific requirements or constraints]
</requirements>
<format>
[How you want the output structured]
</format>
<examples>
[Optional: Examples of desired output]
</examples>
قالب مراجعة الكود
<context>
Reviewing code for [project/context].
The codebase uses [technologies/patterns].
</context>
<code_to_review>
[Paste code here]
</code_to_review>
<review_criteria>
Focus on:
1. Correctness: Does it do what it claims?
2. Readability: Is it clear to other developers?
3. Performance: Any obvious inefficiencies?
4. Security: Any vulnerabilities?
5. Style: Does it match codebase conventions?
</review_criteria>
<output_format>
For each issue found:
- Severity: [Critical/Major/Minor/Suggestion]
- Location: [Line number or section]
- Issue: [What's wrong]
- Fix: [How to address it]
</output_format>
قالب تحليل البحث
<research_task>
[Topic or question to research]
</research_task>
<methodology>
- Start with multiple targeted searches; do not rely on a single query
- Deeply research until you have sufficient information for an
accurate, comprehensive answer
- Add targeted follow-up searches to fill gaps or resolve disagreements
- Keep iterating until additional searching is unlikely to change
the answer
</methodology>
<output_requirements>
- Lead with a clear answer to the main question
- Support with evidence and citations
- Acknowledge limitations and uncertainties
- Provide concrete examples where helpful
- Include relevant context for understanding implications
</output_requirements>
<citation_format>
[How you want sources cited]
</citation_format>
وكيل بحث الويب
<core_mission>
Answer the user's question fully and helpfully, with enough evidence
that a skeptical reader can trust it.
Never invent facts. If you can't verify something, say so clearly.
Default to being detailed and useful rather than short.
After answering the direct question, add high-value adjacent material
that supports the user's underlying goal without drifting off-topic.
</core_mission>
<research_rules>
- Start with multiple targeted searches; use parallel searches
- Never rely on a single query
- Keep iterating until all true:
- You answered every part of the question
- You found concrete examples and high-value adjacent material
- You found sufficient sources for core claims
</research_rules>
<citation_rules>
- Place citations after each paragraph containing non-obvious
web-derived claims
- Do not invent citations
- Use multiple sources for key claims when possible
</citation_rules>
<ambiguity_handling>
- Never ask clarifying questions unless user explicitly requests
- If query is ambiguous, state your best-guess interpretation, then
comprehensively cover the most likely intents
</ambiguity_handling>
مستقبل هندسة التلقين
بينما أكتب هذا في أوائل عام 2026، تتطور هندسة التلقين بسرعة. أصبحت النماذج أكثر قدرة، وأكثر قابلية للتوجيه، وأكثر موثوقية. يتوقع البعض أن هندسة التلقين ستصبح عتيقة مع تحسن الذكاء الاصطناعي في فهم النية. أنا لا أوافق.
ما يتغير هو مستوى هندسة التلقين، وليس ضرورتها. تطلبت الأيام الأولى موجهات مفصلة لمهام أساسية. الآن، تعمل المهام الأساسية خارج الصندوق، لكن سير العمل الوكيل المعقد لا يزال يتطلب تلقينًا متطورًا. يرتفع المستوى، ولا يختفي.
هندسة التلقين لن تختفي — إنها تتطور. المهارات التي تهم تتحول من "كيف أجعل الذكاء الاصطناعي يعمل" إلى "كيف أجعل الذكاء الاصطناعي يعمل بامتياز وبشكل موثوق على نطاق واسع."
ما هو القادم
سلوكيات افتراضية أفضل
ستحتوي النماذج على إعدادات افتراضية أكثر ذكاءً، وتتطلب تعليمات صريحة أقل للأنماط الشائعة. ستركز الموجهات على التخصيص أكثر من القدرة الأساسية.
نظم بيئية للأدوات أكثر ثراءً
سيكون لدى الذكاء الاصطناعي وصول إلى المزيد من الأدوات خارج الصندوق. ستنتقل هندسة التلقين نحو التنسيق — معرفة متى تستخدم ماذا، وليس فقط كيف.
تكامل متعدد الوسائط
ستشمل الموجهات بشكل متزايد الصور والصوت والفيديو والبيانات المنظمة جنبًا إلى جنب مع النص. ستظهر أنماط جديدة للمهام متعددة الوسائط.
التعقيد الوكيل
مع تعامل الوكلاء مع مهام أطول وأكثر تعقيدًا، ستصبح هندسة التلقين أشبه بتصميم الأنظمة — هندسة معمارية، وليس مجرد تعليمات.
نصيحتي للمستقبل
ركز على الأساسيات. ستتطور التقنيات المحددة في هذا الدليل، لكن المبادئ الأساسية — التواصل الواضح، التوقعات الصريحة، التفكير المنظم، التحسين التكراري — خالدة. أتقن تلك المبادئ، وسوف تتكيف مع أي شيء يأتي بعد ذلك.
أفكار أخيرة
منذ عامين، اعتقدت أن الذكاء الاصطناعي سيحل محل الحاجة إلى التواصل بوضوح. كنت مخطئًا تمامًا. جعل الذكاء الاصطناعي التواصل الواضح أكثر قيمة من أي وقت مضى. الأشخاص الذين يزدهرون مع الذكاء الاصطناعي ليسوا أولئك الذين وجدوا كلمات سحرية — إنهم أولئك الذين تعلموا التفكير والتعبير عن أنفسهم بدقة.
هندسة التلقين لا تتعلق حقًا بالذكاء الاصطناعي. إنها تتعلق بك. إنها تتعلق بتطوير الانضباط للتعبير عما تريده بالفعل، والصبر للتكرار نحوه، والتواضع للتعلم مما لا يعمل.
إذا أخذت شيئًا واحدًا من هذا الدليل، فليكن هذا: تعامل مع كل موجه كفرصة لممارسة التفكير الواضح. الذكاء الاصطناعي هو مجرد مرآة تعكس وضوح — أو ارتباك — عقلك.
لم يجعل ظهور الذكاء الاصطناعي المعرفة عتيقة — بل جعل الفضول أقوى من أي وقت مضى. لم نعد مقيدين بما نعرفه بالفعل. مع الأدوات المناسبة والرغبة في التفكير، يمكن للناس العاديين احتضان محيط من المعرفة. بغض النظر عن المهنة. بغض النظر عن العمر. آمل أن أشارك هذه الرحلة مع الأصدقاء في جميع أنحاء العالم. معًا، دعونا نرحب بهذا العالم الجديد. معًا، دعونا ننمو.
??????
0 ??????????? ???????
?? ??? ?? ????? ?????? ??? ??? ??????!