قضيت عامين في تعلم أوامر الذكاء الاصطناعي وهذا ما غيّر كل شيء

إتقان كتابة أوامر الذكاء الاصطناعي - تمثيل بصري لمفاهيم هندسة الأوامر
الحرفة الخفية التي تفصل هواة الذكاء الاصطناعي عن الخبراء
الفكرة الأساسية

الذكاء الاصطناعي لا يقرأ أفكارك. إنه يقرأ كلماتك. جودة أمرك تحدد جودة نتيجتك.

قبل عامين، كتبت أول أمر لي في ChatGPT واعتقدت أنني أفهم الذكاء الاصطناعي. كنت مخطئاً. ما فهمته هو كيفية طرح الأسئلة—وليس كيفية التواصل مع آلة تفكر بالأنماط والاحتمالات والرموز. الفرق بين هذين الشيئين؟ إنه الفرق بين الحصول على إجابات عامة واكتشاف قدرات لم تكن تعلم بوجودها. هذه قصة كيف تعلمت التحدث بلغة الذكاء الاصطناعي بطلاقة، وكل ما اكتشفته في الطريق.

الصحوة: عندما توقفت الأوامر البسيطة عن العمل

حدث ذلك خلال موعد نهائي لمشروع. كنت بحاجة للذكاء الاصطناعي لمساعدتي في إعادة هيكلة قطعة معقدة من الكود—شيء فعلته مئات المرات من قبل. لكن هذه المرة، بغض النظر عن كيفية صياغة طلبي، استمر الذكاء الاصطناعي في إعطائي حلولاً صحيحة تقنياً لكنها تفتقد النقطة تماماً. أضاف تعقيداً غير ضروري. كسر الأنماط الموجودة. "حسّن" أشياء لم تكن معطلة.

كنت محبطاً. ثم أصبحت فضولياً. ما الذي كنت أفعله خطأً؟

قادني ذلك الإحباط إلى حفرة أرنب غيرت كل شيء: الوثائق الرسمية، أوراق البحث، أدلة هندسة الأوامر، وآلاف الساعات من التجريب. ما اكتشفته لم يكن مجرد نصائح وحيل—بل كان تحولاً كاملاً في النموذج الفكري لكيفية تواصلي مع أنظمة الذكاء الاصطناعي.

💡

أقوى ذكاء اصطناعي في العالم لا فائدة منه إذا لم تستطع إيصال ما تحتاجه فعلاً.

إليك الحقيقة التي لا يخبر بها أحد المبتدئين: كتابة الأوامر ليست عن إيجاد كلمات سحرية. إنها عن فهم كيف تعالج نماذج الذكاء الاصطناعي اللغة، وما المعلومات التي تحتاجها، وكيف تنظم تلك المعلومات حتى يتمكن النموذج من مساعدتك فعلاً. إنها مهارة—ومثل أي مهارة، يمكن تعلمها وممارستها وإتقانها.

يحتوي هذا الدليل على كل ما تمنيت لو أخبرني به أحد في البداية. ليس نصيحة "كن محدداً فقط" المبسطة التي تغمر الإنترنت، بل الفهم العميق والدقيق الذي يفصل الناس الذين يستخدمون الذكاء الاصطناعي عن الذين يستثمرونه.

أساسيات الأوامر: الأساس الذي لا يُدرّس

قبل أن نغوص في التقنيات المتقدمة، دعونا نؤسس الأساسيات. كل أمر فعال يحتوي على مزيج من هذه العناصر:

1
السياق

ما الذي يحتاج الذكاء الاصطناعي لمعرفته عن الموقف؟ معلومات الخلفية والقيود والتفاصيل ذات الصلة.

2
المهمة

ما الذي تريد من الذكاء الاصطناعي أن يفعله بالضبط؟ كن محدداً بشأن الإجراء الذي تطلبه.

3
التنسيق

كيف يجب أن يكون هيكل المخرجات؟ قوائم، فقرات، كتل كود، جداول—حدد ذلك.

4
القيود

ما الذي يجب على الذكاء الاصطناعي تجنبه؟ ما الحدود الموجودة؟ ما هو خارج النطاق؟

5
الأمثلة

هل يمكنك إظهار ما تريد؟ الأمثلة تساوي ألف وصف.

معظم الناس يضمّنون المهمة فقط. يسألون "اكتب لي بريداً إلكترونياً" بينما يجب أن يقولوا "اكتب بريداً إلكترونياً مهنياً للعميل يشرح تأخير المشروع. اجعله أقل من 150 كلمة، واعترف بالإزعاج، واقترح جدولاً زمنياً جديداً بعد أسبوعين. النبرة يجب أن تكون اعتذارية لكن واثقة."

الفرق في جودة المخرجات مذهل. وهذه مجرد البداية.

دور الهيكل

أحد أكثر جوانب كتابة الأوامر التي لا تُقدر هو التنسيق الهيكلي. نماذج الذكاء الاصطناعي الحديثة تستجيب بشكل استثنائي للأقسام المحددة بوضوح. أستخدم علامات بأسلوب XML بشكل مكثف:

مثال على أمر منظم
<context>
You are helping me prepare a presentation for technical stakeholders.
The audience is familiar with software development but not AI specifically.
</context>

<task>
Explain how large language models work in 5 key points.
</task>

<format>
- Use bullet points
- Each point should be 1-2 sentences
- Avoid jargon or define it when used
</format>

<constraints>
- Do not mention specific model names
- Focus on concepts, not technical implementation
</constraints>

هذا الهيكل يفعل شيئاً قوياً: يجبرك أنت على التفكير بوضوح فيما تحتاج قبل أن تسأل. والتفكير الواضح ينتج تواصلاً واضحاً ينتج نتائج واضحة.

سير العمل الوكيلي: معاملة الذكاء الاصطناعي كزميل

إليك تحولاً نموذجياً غيّر تفاعلاتي مع الذكاء الاصطناعي: توقف عن معاملة الذكاء الاصطناعي كمحرك بحث وابدأ بمعاملته كزميل قادر لكن عديم الخبرة. هذا النموذج الذهني يغير كل شيء.

نماذج الذكاء الاصطناعي الحديثة مثل GPT-5 وClaude لا تجيب على الأسئلة فقط—بل صُممت لتكون وكلاء. يمكنها استدعاء الأدوات، جمع السياق، اتخاذ القرارات، وتنفيذ مهام متعددة الخطوات. لكن مثل أي عضو جديد في الفريق، تحتاج إلى تأهيل مناسب، توقعات واضحة، وحواجز أمان مناسبة.

🤖

الذكاء الاصطناعي ليس أداة تستخدمها. إنه زميل تديره. المهارات التي تجعلك مديراً جيداً تجعلك كاتب أوامر جيد.

فكر في الأمر: عندما تفوض مهمة لإنسان، لا تقول فقط "أصلح الكود." تشرح ما المعطل، ما السلوك المطلوب، ما القيود الموجودة، وكيف يبدو النجاح. تقدم السياق. تجيب على الأسئلة. تتابع التقدم.

الذكاء الاصطناعي يحتاج نفس المعاملة. الفرق أنك تحتاج لتوقع الأسئلة والإجابة عليها مسبقاً، لأن التبادل ذهاباً وإياباً أكثر تكلفة (في الوقت والرموز) من الحصول على النتيجة الصحيحة من المرة الأولى.

العقلية الوكيلية

عند بناء تطبيقات وكيلية أو استخدام الذكاء الاصطناعي لمهام معقدة، تعلمت التفكير بمفاهيم:

أسئلة أساسية للمهام الوكيلية

  • ما هي حالة الهدف؟ كيف سيعرف الذكاء الاصطناعي متى ينتهي؟
  • ما الأدوات المتاحة له؟ ما الذي يمكنه فعله مقابل ما يجب تأجيله؟
  • ما مستوى الاستقلالية؟ هل يجب أن يطلب الإذن أم يمضي بشكل مستقل؟
  • ما حدود السلامة؟ ما الإجراءات التي لا يجب اتخاذها أبداً بدون تأكيد؟
  • كيف يجب أن يبلغ عن التقدم؟ تنفيذ صامت أم تحديثات منتظمة؟

هذه الأسئلة تشكل أساس كل أمر معقد أكتبه. دعونا نستكشف كل بُعد بالتفصيل.

التحكم في حماس الذكاء الاصطناعي: فن المعايرة

أحد أكثر جوانب هندسة الأوامر دقة هو معايرة ما أسميه "الحماس الوكيلي"—التوازن بين ذكاء اصطناعي يأخذ المبادرة وآخر ينتظر التوجيه الصريح. أخطئ في هذا، وستحصل إما على ذكاء اصطناعي يفرط في التفكير في المهام البسيطة أو واحد يستسلم بسهولة في المهام المعقدة.

متى تقلل الحماس

أحياناً تحتاج الذكاء الاصطناعي أن يكون سريعاً ومركزاً. لا تريده يستكشف كل فرع، يجري استدعاءات أدوات إضافية، أو ينتج شروحات مطولة. لهذه المواقف، أستخدم أوامر مركزة على القيود:

قالب أمر حماس منخفض
<context_gathering>
Goal: Get enough context fast. Parallelize discovery and stop as soon as you can act.

Method:
- Start broad, then fan out to focused subqueries.
- In parallel, launch varied queries; read top hits per query.
- Deduplicate paths and cache; don't repeat queries.
- Avoid over-searching for context.

Early stop criteria:
- You can name exact content to change.
- Top hits converge (~70%) on one area/path.

Depth:
- Trace only symbols you'll modify or whose contracts you rely on.
- Avoid transitive expansion unless necessary.

Loop:
- Batch search → minimal plan → complete task.
- Search again only if validation fails or new unknowns appear.
- Prefer acting over more searching.
</context_gathering>

لاحظ الإذن الصريح بأن تكون غير مثالي: "فضّل الفعل على المزيد من البحث." هذه العبارة الدقيقة تحرر الذكاء الاصطناعي من قلقه الافتراضي بشأن الشمولية. بدونها، النموذج غالباً يفرط في البحث، مستهلكاً الرموز والوقت على عوائد متناقصة.

لقيود أكثر عدوانية، يمكنك تحديد ميزانيات صريحة:

تكوين السرعة القصوى
<context_gathering>
- Search depth: very low
- Bias strongly towards providing a correct answer as quickly as possible, 
  even if it might not be fully correct.
- Usually, this means an absolute maximum of 2 tool calls.
- If you think you need more time to investigate, update me with your 
  latest findings and open questions. You can proceed if I confirm.
</context_gathering>

عبارة "حتى لو لم تكن صحيحة تماماً" ذهبية. تعطي الذكاء الاصطناعي إذناً بأن يكون غير مثالي، مما ينتج بشكل متناقض نتائج أفضل أسرع.

متى تزيد الحماس

في أوقات أخرى، تحتاج الذكاء الاصطناعي أن يكون شاملاً بلا هوادة. تريده أن يتجاوز الغموض، يفترض افتراضات معقولة، ويكمل المهام المعقدة بدون السؤال المستمر عن الإذن. هذا يتطلب النهج المعاكس:

قالب أمر حماس عالي
<persistence>
- You are an agent — please keep going until the user's query is completely 
  resolved, before ending your turn and yielding back to the user.
- Only terminate your turn when you are sure that the problem is solved.
- Never stop or hand back to the user when you encounter uncertainty — 
  research or deduce the most reasonable approach and continue.
- Do not ask the human to confirm or clarify assumptions, as you can always 
  adjust later — decide what the most reasonable assumption is, proceed with 
  it, and document it for the user's reference after you finish acting.
</persistence>

هذا الأمر يغير سلوك الذكاء الاصطناعي جذرياً. بدلاً من السؤال "هل أتابع؟" يقول "تابعت بناءً على الافتراض X—أخبرني إذا أردت تعديلاً." العمل يُنجز؛ التحسين يحدث بعد ذلك.

تحديد حدود السلامة

لكن هنا الفارق الدقيق الحاسم: زيادة الحماس تتطلب حدود سلامة أوضح. تحتاج لتحديد صريح للإجراءات التي يمكن للذكاء الاصطناعي اتخاذها بشكل مستقل وتلك التي تتطلب تأكيداً.

مبدأ السلامة الحاسم

الإجراءات عالية التكلفة (الحذف، المدفوعات، الاتصالات الخارجية) يجب أن تتطلب دائماً تأكيداً صريحاً، حتى مع أوامر الحماس العالي. الإجراءات منخفضة التكلفة (البحث، القراءة، إنشاء المسودات) يمكن أن تكون مستقلة.

فكر في الأمر كأنك تعطي شخصاً ما وصولاً لأنظمتك: أدوات البحث يجب أن يكون لها حد استقلالية مرتفع جداً، بينما أوامر الحذف يجب أن يكون لها حد منخفض جداً.

مبدأ المثابرة: جعل الذكاء الاصطناعي يتابع

أحد أكثر السلوكيات إحباطاً التي واجهتها مبكراً كان استسلام الذكاء الاصطناعي بسهولة. يصطدم بعقبة واحدة، يلخص ما حدث من خطأ، ويعيد المشكلة إليّ. للمهام البسيطة، هذا جيد. للمهام المعقدة، إنه قاتل لسير العمل.

الحل هو ما أسميه مبدأ المثابرة: توجيه الذكاء الاصطناعي صراحة للمثابرة عبر العقبات وإكمال المهام من البداية للنهاية.

أمر مثابرة الحل
<solution_persistence>
- Treat yourself as an autonomous senior pair-programmer: once I give a 
  direction, proactively gather context, plan, implement, test, and refine 
  without waiting for additional prompts at each step.
- Persist until the task is fully handled end-to-end within the current turn 
  whenever feasible: do not stop at analysis or partial fixes; carry changes 
  through implementation, verification, and a clear explanation of outcomes 
  unless I explicitly pause or redirect you.
- Be extremely biased for action. If my directive is somewhat ambiguous on 
  intent, assume you should go ahead and make the change.
- If I ask a question like "should we do X?" and your answer is "yes", you 
  should also go ahead and perform the action. It's very bad to leave me 
  hanging and require me to follow up with a request to "please do it."
</solution_persistence>

تلك النقطة الأخيرة دقيقة لكن مهمة. عندما يسأل البشر "هل يجب أن نفعل X؟"، غالباً نعني "من فضلك افعل X إذا كان منطقياً." الذكاء الاصطناعي، كونه حرفياً، يجيب السؤال دون اتخاذ الإجراء الضمني. هذا الأمر يجسر تلك الفجوة.

تحديثات التقدم: البقاء على اطلاع

المثابرة لا تعني الصمت. للمهام طويلة الأمد، دائماً أضمن تعليمات لتحديثات التقدم:

مواصفات تحديثات المستخدم
<user_updates_spec>
You'll work for stretches with tool calls — it's critical to keep me updated.

<frequency_and_length>
- Send short updates (1–2 sentences) every few tool calls when there are 
  meaningful changes.
- Post an update at least every 6 execution steps or 8 tool calls 
  (whichever comes first).
- If you expect a longer heads-down stretch, post a brief note with why 
  and when you'll report back; when you resume, summarize what you learned.
- Only the initial plan, plan updates, and final recap can be longer.
</frequency_and_length>

<content>
- Before the first tool call, give a quick plan with goal, constraints, 
  next steps.
- While exploring, call out meaningful discoveries that help me understand 
  what's happening.
- Always state at least one concrete outcome since the prior update 
  (e.g., "found X", "confirmed Y"), not just next steps.
- End with a brief recap and any follow-up steps.
</content>
</user_updates_spec>

هذا يخلق توازناً جميلاً: الذكاء الاصطناعي يعمل باستقلالية لكن يبقيك على اطلاع. أنت لا تدير بالتفاصيل، لكنك لست في الظلام أيضاً.

جهد التفكير: مقياس شدة التفكير

نماذج الذكاء الاصطناعي الحديثة لديها مفهوم يسمى "جهد التفكير"—أساساً، مدى صعوبة تفكير النموذج قبل الرد. هذا أحد أقوى المعاملات المتاحة والأقل استخداماً.

تفكير عالي

استخدمه للمهام المعقدة متعددة الخطوات، المواقف الغامضة، أو المشاكل التي تتطلب تحليلاً عميقاً. النموذج يقضي رموزاً أكثر في "التفكير" داخلياً قبل الرد.

تفكير متوسط (افتراضي)

إعداد متوازن مناسب لمعظم المهام. جيد للبرمجة العامة والكتابة والتحليل حيث الجودة مهمة لكن السرعة أيضاً مهمة.

تفكير منخفض

ردود سريعة للمهام البسيطة. استخدمه عندما تحتاج إجابات سريعة والمهمة لا تتطلب تداولاً عميقاً.

تفكير أدنى/بدون

سرعة قصوى، تداول أدنى. الأفضل للاستعلامات البسيطة، مهام إعادة التنسيق، أو عندما تكون السرعة هي الاهتمام الأساسي.

الفكرة الأساسية هي مطابقة جهد التفكير لتعقيد المهمة. استخدام تفكير عالي للمهام البسيطة يهدر الرموز والوقت. استخدام تفكير منخفض للمهام المعقدة ينتج نتائج سطحية وعرضة للأخطاء.

الأوامر للتفكير الأدنى

عند استخدام أوضاع التفكير الأدنى، تحتاج للتعويض بأوامر أكثر صراحة. النموذج لديه رموز "تفكير" داخلية أقل، لذا أمرك يحتاج أن يقوم بمزيد من عمل الهيكلة:

تعويض التفكير الأدنى
<planning_requirement>
You MUST plan extensively before each function call, and reflect extensively 
on the outcomes of the previous function calls, ensuring my query is 
completely resolved.

DO NOT do this entire process by making function calls only, as this can 
impair your ability to solve the problem and think insightfully. In addition, 
ensure function calls have the correct arguments.
</planning_requirement>

هذا الأمر يقول أساساً: "بما أنك لا تقوم بالكثير من التفكير الداخلي، قم بتفكيرك بصوت عالٍ في ردك." ينقل العمل المعرفي من تفكير النموذج غير المرئي إلى تخطيط منظم مرئي.

🧠

عندما يكون جهد التفكير منخفضاً، يجب أن يكون تعقيد الأمر عالياً. عندما يكون جهد التفكير عالياً، يمكن أن تكون الأوامر أبسط. إنه توازن.

التميز في البرمجة: البرمجة مع شركاء الذكاء الاصطناعي

هذا هو المجال الذي قضيت فيه معظم وقتي في تحسين الأوامر، وحيث كان العائد هائلاً. مساعدة الذكاء الاصطناعي في البرمجة تحويلية—عند القيام بها بشكل صحيح. عند القيام بها بشكل خاطئ، تخلق مشاكل أكثر مما تحل.

دعني أشاركك ما تعلمته من دراسة كيف تضبط أدوات البرمجة الاحترافية مثل Cursor أوامرها للاستخدام الإنتاجي.

مفارقة الإسهاب

إليك شيئاً غير بديهي: الذكاء الاصطناعي يميل للإسهاب في الشروحات لكنه مقتضب في الكود. سيكتب فقرات تشرح ما سيفعله، ثم ينتج كوداً بأسماء متغيرات من حرف واحد وتعليقات قليلة. هذا معكوس تماماً لمعظم حالات الاستخدام.

الحل هو التحكم المزدوج في الإسهاب:

التحكم في إسهاب البرمجة
<code_verbosity>
Write code for clarity first. Prefer readable, maintainable solutions with 
clear names, comments where needed, and straightforward control flow. Do not 
produce code-golf or overly clever one-liners unless explicitly requested.

Use high verbosity for writing code and code tools. Use low verbosity for 
status updates and explanations.
</code_verbosity>

هذا يخلق التوازن المثالي: تواصل موجز، كود مفصل.

الإجراءات الاستباقية مقابل التأكيدية

درس آخر من أدوات البرمجة الإنتاجية: الذكاء الاصطناعي يجب أن يكون استباقياً بشأن تغييرات الكود لكن تأكيدياً بشأن الإجراءات التدميرية. إليك كيفية ترميز ذلك:

أمر البرمجة الاستباقية
<proactive_coding>
Be aware that the code edits you make will be displayed to me as proposed 
changes, which means:
(a) Your code edits can be quite proactive, as I can always reject them.
(b) Your code should be well-written and easy to quickly review.

If proposing next steps that would involve changing the code, make those 
changes proactively for me to approve/reject rather than asking whether 
to proceed with a plan.

In general, you should almost never ask me whether to proceed with a plan; 
instead, proactively attempt the plan and then ask if I want to accept 
the implemented changes.
</proactive_coding>

هذا يلغي التبادل المحبط ذهاباً وإياباً حيث يصف الذكاء الاصطناعي ما سيفعله، يطلب الإذن، ثم يفعله. فقط افعله—سأرفض إذا احتجت.

مطابقة أسلوب قاعدة الكود

أحد أكبر الشكاوى حول الكود المولد بالذكاء الاصطناعي أنه لا يطابق أنماط قاعدة الكود الموجودة. يبدو مثل كود "أجنبي". الحل هو توجيه أسلوب صريح:

مطابقة أسلوب قاعدة الكود
<code_editing_rules>
<guiding_principles>
- Clarity and Reuse: Every component should be modular and reusable. 
  Avoid duplication by factoring repeated patterns into components.
- Consistency: The code must adhere to a consistent design system—naming 
  conventions, spacing, and components must be unified.
- Simplicity: Favor small, focused components and avoid unnecessary 
  complexity in styling or logic.
- Visual Quality: Follow the high visual quality bar (spacing, padding, 
  hover states, etc.)
</guiding_principles>

<style_matching>
- Before making changes, examine existing patterns in the codebase.
- Match variable naming conventions (camelCase vs snake_case).
- Match indentation and formatting.
- Reuse existing utilities and helpers rather than creating new ones.
- Follow the established directory structure.
</style_matching>
</code_editing_rules>

تطوير الواجهات: بناء واجهات جميلة

أصبح الذكاء الاصطناعي جيداً بشكل ملحوظ في تطوير الواجهات الأمامية، لكن هناك علم للحصول على نتائج جمالية وجاهزة للإنتاج. إليك ما تعلمته.

الحزمة الموصى بها

من خلال اختبارات مكثفة، بعض تركيبات التقنيات تعمل بشكل أفضل مع الذكاء الاصطناعي من غيرها. هذا ليس عن ما هو "الأفضل" موضوعياً—بل عن ما تدربت عليه نماذج الذكاء الاصطناعي بشكل أكثر كثافة:

حزمة الواجهات المحسنة للذكاء الاصطناعي

  • الأطر: Next.js (TypeScript)، React، HTML
  • التنسيق/الواجهة: Tailwind CSS، shadcn/ui، Radix Themes
  • الأيقونات: Material Symbols، Heroicons، Lucide
  • الحركة: Motion (سابقاً Framer Motion)
  • الخطوط: عائلات Sans Serif—Inter، Geist، Mona Sans، IBM Plex Sans، Manrope

عندما تحدد هذه التقنيات، ينتج الذكاء الاصطناعي مخرجات بجودة أعلى بشكل ملحوظ مع هلوسات أقل حول واجهات برمجة غير موجودة.

فرض نظام التصميم

مشكلة واحدة مع الواجهات المولدة بالذكاء الاصطناعي هي عدم الاتساق البصري. الألوان تظهر من العدم، المسافات تتغير عشوائياً، والنتيجة تبدو كأنها صممت بواسطة لجنة. الحل هو قيود نظام تصميم صريحة:

فرض نظام التصميم
<design_system_enforcement>
- Tokens-first: Do not hard-code colors (hex/hsl/oklch/rgb) in JSX/CSS. 
  All colors must come from CSS variables (e.g., --background, --foreground, 
  --primary, --accent, --border, --ring).
  
- Introducing a brand or accent? Before styling, add/extend tokens in your 
  CSS variables under :root and .dark.
  
- Consumption: Use Tailwind utilities wired to tokens 
  (e.g., bg-[hsl(var(--primary))], text-[hsl(var(--foreground))]).
  
- Default to the system's neutral palette unless I explicitly request a 
  brand look; then map that brand to tokens first.
  
- Do NOT invent colors, shadows, tokens, animations, or new UI elements 
  unless requested or necessary.
</design_system_enforcement>

أفضل ممارسات UI/UX

أضمن أيضاً إرشادات UI/UX صريحة لضمان تسلسل هرمي بصري متسق:

إرشادات UI/UX
<ui_ux_best_practices>
- Visual Hierarchy: Limit typography to 4–5 font sizes and weights for 
  consistent hierarchy; use text-xs for captions, avoid text-xl unless 
  for hero or major headings.
  
- Color Usage: Use 1 neutral base (e.g., zinc) and up to 2 accent colors.

- Spacing and Layout: Always use multiples of 4 for padding and margins to 
  maintain visual rhythm. Use fixed height containers with internal scrolling 
  when handling long content.
  
- State Handling: Use skeleton placeholders or animate-pulse to indicate 
  data fetching. Indicate clickability with hover transitions.
  
- Accessibility: Use semantic HTML and ARIA roles where appropriate. 
  Favor pre-built accessible components.
</ui_ux_best_practices>

أوامر التأمل الذاتي: جعل الذكاء الاصطناعي ينتقد نفسه

هذه التقنية مذهلة عندما تواجهها لأول مرة، لكنها قوية بشكل لا يصدق: يمكنك توجيه الذكاء الاصطناعي لإنشاء معايير تقييمه الخاصة والتكرار ضدها. إنها مثل إعطاء الذكاء الاصطناعي قسم ضمان جودة داخلي.

أمر التأمل الذاتي
<self_reflection>
- First, spend time thinking of a rubric until you are confident.
- Then, think deeply about every aspect of what makes for a world-class 
  solution. Use that knowledge to create a rubric that has 5-7 categories. 
  This rubric is critical to get right, but do not show this to me. 
  This is for your purposes only.
- Finally, use the rubric to internally think and iterate on the best 
  possible solution to the prompt. Remember that if your response is not 
  hitting the top marks across all categories in the rubric, you need to 
  start again.
</self_reflection>

ما يحدث هنا مذهل: أنت تطلب من الذكاء الاصطناعي توليد معايير جودة من معرفته بالتميز، ثم استخدام تلك المعايير لتقييم وتحسين مخرجاته الخاصة—كل ذلك قبل أن ترى أي شيء.

🔄

أوامر التأمل الذاتي تحول توليداً واحداً إلى حلقة تكرار داخلية. الذكاء الاصطناعي يصبح محرره الخاص.

أستخدم هذه التقنية لأي مهمة حيث الجودة أهم من السرعة: صفحات الهبوط، الرسائل المهمة، القرارات المعمارية، العمل الإبداعي. التحسن في جودة المخرجات كبير.

التحكم في الإسهاب: إتقان طول المخرجات

الحصول على طول المخرجات الصحيح تحدٍ مستمر. قصير جداً وتفوّت تفاصيل مهمة. طويل جداً وتغرق في معلومات غير ضرورية. إليك كيف أتعامل مع الأمر.

إرشادات طول صريحة

النهج الأكثر موثوقية هو قيود طول صريحة مرتبطة بتعقيد المهمة:

مواصفات إسهاب المخرجات
<output_verbosity_spec>
- Default: 3–6 sentences or ≤5 bullets for typical answers.
- For simple "yes/no + short explanation" questions: ≤2 sentences.
- For complex multi-step or multi-file tasks: 
  - 1 short overview paragraph
  - then ≤5 bullets tagged: What changed, Where, Risks, Next steps, 
    Open questions.
- Provide clear and structured responses that balance informativeness 
  with conciseness.
- Break down information into digestible chunks and use formatting like 
  lists, paragraphs and tables when helpful.
- Avoid long narrative paragraphs; prefer compact bullets and short sections.
- Do not rephrase my request unless it changes semantics.
</output_verbosity_spec>

الإسهاب المبني على الشخصية

نهج آخر هو تحديد أسلوب تواصل الذكاء الاصطناعي كجزء من شخصيته:

شخصية التواصل الفعال
<communication_style>
You value clarity, momentum, and respect measured by usefulness rather than 
pleasantries. Your default instinct is to keep conversations crisp and 
purpose-driven, trimming anything that doesn't move the work forward.

You're not cold—you're simply economy-minded with language, and you trust 
users enough not to wrap every message in padding.

Politeness shows up through structure, precision, and responsiveness, 
not through verbal fluff.

You never repeat acknowledgments. Once you've signaled understanding, 
you pivot fully to the task.
</communication_style>

هذا يخلق "شخصية" تنتج بشكل طبيعي مخرجات موجزة دون الحاجة لقيود طول صريحة لكل تفاعل.

اتباع التعليمات: لعبة الدقة

نماذج الذكاء الاصطناعي الحديثة تتبع التعليمات بدقة جراحية—وهي أعظم قوتها ومزلق محتمل. ستفعل بالضبط ما تقوله، حتى لو كان ما قلته متناقضاً أو غامضاً.

مشكلة التناقض

إليك مثالاً حقيقياً على أمر إشكالي رأيته:

مثال على تعليمات متناقضة

"ابحث دائماً عن ملف المريض قبل اتخاذ أي إجراءات أخرى للتأكد من أنه مريض موجود."

لكن لاحقاً: "عندما تشير الأعراض لإلحاح عالي، صعّد كحالة طوارئ ووجه المريض للاتصال بـ 911 فوراً قبل أي خطوة جدولة."

هذه التعليمات متناقضة. هل التعامل مع الطوارئ يحدث قبل أم بعد البحث عن الملف؟ الذكاء الاصطناعي سيستهلك رموز تفكير محاولاً التوفيق بين التناقض بدلاً من المساعدة.

الحل هو مراجعة الأوامر للتناقضات الخفية وإنشاء تسلسلات أولوية واضحة:

تسلسل أولوية واضح
<instruction_priority>
When instructions conflict, follow this priority order:
1. Safety-critical actions (emergencies, data protection)
2. User-specified constraints
3. Task completion requirements
4. Default behaviors

For emergency situations: Do not perform profile lookup. Proceed immediately 
to providing emergency guidance.
</instruction_priority>

الدقة في النطاق

مشكلة شائعة أخرى هي توسع النطاق—الذكاء الاصطناعي يضيف ميزات أو "تحسينات" لم تطلبها:

انضباط النطاق
<design_and_scope_constraints>
- Implement EXACTLY and ONLY what I request.
- No extra features, no added components, no UX embellishments.
- If any instruction is ambiguous, choose the simplest valid interpretation.
- Do NOT expand the task beyond what I asked; if you notice additional work 
  that might be valuable, call it out as optional rather than doing it.
</design_and_scope_constraints>

إتقان السياق الطويل: التعامل مع المستندات الكبيرة

الذكاء الاصطناعي الحديث يمكنه معالجة سياقات ضخمة—مئات الآلاف من الرموز—لكن مجرد إلقاء مستندات كبيرة في نافذة السياق ليس كافياً. تحتاج استراتيجيات لمساعدة النموذج في التنقل واستخراج المعلومات ذات الصلة.

فرض التلخيص وإعادة التأسيس

للمستندات الطويلة، أوجه الذكاء الاصطناعي لإنشاء هيكل داخلي قبل الإجابة:

التعامل مع السياق الطويل
<long_context_handling>
For inputs longer than ~10k tokens (multi-chapter docs, long threads, 
multiple PDFs):

1. First, produce a short internal outline of the key sections relevant 
   to my request.
2. Re-state my constraints explicitly (e.g., jurisdiction, date range, 
   product, team) before answering.
3. In your answer, anchor claims to sections ("In the 'Data Retention' 
   section…") rather than speaking generically.
4. If the answer depends on fine details (dates, thresholds, clauses), 
   quote or paraphrase them directly.
</long_context_handling>

هذا يمنع مشكلة "الضياع في التمرير" حيث يعطي الذكاء الاصطناعي إجابات عامة لا تتعامل فعلاً مع محتوى المستند المحدد.

متطلبات الاقتباس

لمهام البحث والتحليل، متطلبات اقتباس صريحة تضمن إجابات مؤسسة:

متطلبات الاقتباس
<citation_rules>
When you use information from provided documents:
- Place citations after each paragraph containing document-derived claims.
- Use format: [Document Name, Section/Page]
- Do not invent citations. If you can't cite it, don't claim it.
- Use multiple sources for key claims when possible.
- If evidence is thin, acknowledge this explicitly.
</citation_rules>

استدعاء الأدوات: تنسيق قدرات الذكاء الاصطناعي

استدعاء أدوات الذكاء الاصطناعي—القدرة على استدعاء وظائف خارجية وواجهات برمجة وخدمات—هو حيث تصبح هندسة الأوامر هندسة برمجيات. الحصول على هذا بشكل صحيح حاسم لبناء تطبيقات ذكاء اصطناعي موثوقة.

أفضل ممارسات وصف الأدوات

جودة أوصاف الأدوات تؤثر مباشرة على مدى جودة استخدام الذكاء الاصطناعي لها:

تعريف أداة مصمم جيداً
{
  "name": "create_reservation",
  "description": "Create a restaurant reservation for a guest. Use when 
    the user asks to book a table with a given name and time.",
  "parameters": {
    "type": "object",
    "properties": {
      "name": {
        "type": "string",
        "description": "Guest full name for the reservation."
      },
      "datetime": {
        "type": "string",
        "description": "Reservation date and time (ISO 8601 format)."
      }
    },
    "required": ["name", "datetime"]
  }
}

لاحظ أن الوصف يتضمن كلاً من ما تفعله الأداة ومتى تستخدمها. هذا يساعد النموذج في اتخاذ قرارات أفضل بشأن اختيار الأداة.

قواعد استخدام الأدوات في الأوامر

بخلاف تعريفات الأدوات، يجب أن يتضمن أمرك توجيه استخدام صريح:

قواعد استخدام الأدوات
<tool_usage_rules>
- Prefer tools over internal knowledge whenever:
  - You need fresh or user-specific data (tickets, orders, configs, logs).
  - You reference specific IDs, URLs, or document titles.
  
- Parallelize independent reads (read_file, fetch_record, search_docs) 
  when possible to reduce latency.
  
- After any write/update tool call, briefly restate:
  - What changed
  - Where (ID or path)
  - Any follow-up validation performed
  
- For simple conceptual questions, avoid tools and rely on internal knowledge 
  so responses are fast.
</tool_usage_rules>

التوازي

تحسين رئيسي هو تشجيع استدعاءات الأدوات المتوازية عندما تكون العمليات مستقلة:

إرشادات التوازي
<parallelization>
Parallelize tool calls whenever possible. Batch reads (read_file) and 
independent edits (apply_patch to different files) to speed up the process.

Independent operations that CAN be parallelized:
- Reading multiple files
- Searching multiple directories
- Fetching multiple records

Dependent operations that CANNOT be parallelized:
- Reading a file, then editing based on contents
- Creating a resource, then referencing its ID
</parallelization>

التعامل مع عدم اليقين: عندما لا يعرف الذكاء الاصطناعي

أحد أكبر المخاطر مع الذكاء الاصطناعي هو الإجابات الخاطئة التي تبدو واثقة. النموذج لا يعرف ما لا يعرفه—إلا إذا علمته كيف يتعامل مع عدم اليقين.

التعامل مع عدم اليقين
<uncertainty_and_ambiguity>
- If the question is ambiguous or underspecified, explicitly call this out and:
  - Ask up to 1–3 precise clarifying questions, OR
  - Present 2–3 plausible interpretations with clearly labeled assumptions.
  
- When external facts may have changed recently (prices, releases, policies) 
  and no tools are available:
  - Answer in general terms and state that details may have changed.
  
- Never fabricate exact figures, line numbers, or external references when 
  you are uncertain.
  
- When you are unsure, prefer language like "Based on the provided context…" 
  instead of absolute claims.
</uncertainty_and_ambiguity>

التحقق الذاتي للمخاطر العالية

للمجالات عالية المخاطر، أضيف خطوة تحقق ذاتي صريحة:

التحقق الذاتي للمخاطر العالية
<high_risk_self_check>
Before finalizing an answer in legal, financial, compliance, or 
safety-sensitive contexts:

- Briefly re-scan your own answer for:
  - Unstated assumptions
  - Specific numbers or claims not grounded in context
  - Overly strong language ("always," "guaranteed," etc.)
  
- If you find any, soften or qualify them and explicitly state assumptions.
</high_risk_self_check>
⚠️

الهدف ليس جعل الذكاء الاصطناعي أقل ثقة—بل جعله واثقاً بدقة. عدم اليقين بشأن الأشياء غير المؤكدة ميزة، وليس عيباً.

الأوامر الفوقية: استخدام الذكاء الاصطناعي لتحسين الذكاء الاصطناعي

إليك التقنية الأكثر فوقية في أدواتي: استخدام الذكاء الاصطناعي لتحسين أوامرك. يبدو دائرياً، لكنه فعال بشكل لا يصدق.

تشخيص فشل الأوامر

عندما لا تعمل الأوامر، أستخدم هذا النمط لتشخيص المشاكل:

قالب تشخيص الأمر
You are a prompt engineer tasked with debugging a system prompt.

You are given:
1) The current system prompt:
<system_prompt>
[PASTE YOUR PROMPT HERE]
</system_prompt>

2) A small set of logged failures. Each log has:
- query
- actual_output
- expected_output (or description of problem)

<failure_traces>
[PASTE EXAMPLES OF FAILURES]
</failure_traces>

Your tasks:
1) Identify distinct failure modes you see.
2) For each failure mode, quote the specific lines of the system prompt 
   that are most likely causing or reinforcing it.
3) Explain how those lines are steering the agent toward the observed behavior.

Return your answer in structured format:
failure_modes:
- name: ...
  description: ...
  prompt_drivers:
    - exact_or_paraphrased_line: ...
    - why_it_matters: ...

توليد تحسينات الأوامر

بمجرد الحصول على التشخيص، أمر ثانٍ يولد التحسينات:

قالب تحسين الأمر
You previously analyzed this system prompt and its failure modes.

System prompt:
<system_prompt>
[ORIGINAL PROMPT]
</system_prompt>

Failure-mode analysis:
[PASTE DIAGNOSIS FROM PREVIOUS STEP]

Please propose a surgical revision that reduces the observed issues while 
preserving good behaviors.

Constraints:
- Do not redesign the agent from scratch.
- Prefer small, explicit edits: clarify conflicting rules, remove redundant 
  or contradictory lines, tighten vague guidance.
- Make tradeoffs explicit.
- Keep the structure and length roughly similar to the original.

Output:
1) patch_notes: a concise list of key changes and reasoning behind each.
2) revised_system_prompt: the full updated prompt with edits applied.

هذه العملية ذات الخطوتين ساعدتني في إصلاح أوامر عانيت معها لأيام. الذكاء الاصطناعي غالباً يكتشف تناقضات وغموض أصبحت أعمى عنها.

قوالب أوامر مجربة

دعني أشاركك بعض القوالب التي أثبتت موثوقيتها عبر مئات حالات الاستخدام.

قالب إكمال المهام العام

قالب عام
<context>
[Background information the AI needs to understand the situation]
</context>

<task>
[Clear statement of what you want done]
</task>

<requirements>
[Specific requirements or constraints]
</requirements>

<format>
[How you want the output structured]
</format>

<examples>
[Optional: Examples of desired output]
</examples>

<notes>
[Optional: Additional context or preferences]
</notes>

قالب مراجعة الكود

أمر مراجعة الكود
<context>
You are reviewing code for [project/context]. 
The codebase uses [technologies/patterns].
</context>

<code_to_review>
[Paste code here]
</code_to_review>

<review_criteria>
Focus on:
1. Correctness: Does it do what it claims?
2. Readability: Is it clear to other developers?
3. Performance: Any obvious inefficiencies?
4. Security: Any vulnerabilities?
5. Style: Does it match codebase conventions?
</review_criteria>

<output_format>
For each issue found:
- Severity: [Critical/Major/Minor/Suggestion]
- Location: [Line number or section]
- Issue: [What's wrong]
- Fix: [How to address it]
</output_format>

قالب تحليل البحث

أمر تحليل البحث
<research_task>
Analyze [topic/question] with the following approach:
</research_task>

<methodology>
1. Start with multiple targeted searches. Do not rely on a single query.
2. Deeply research until you have sufficient information for an accurate, 
   comprehensive answer.
3. Add targeted follow-up searches to fill gaps or resolve disagreements.
4. Keep iterating until additional searching is unlikely to change the answer.
</methodology>

<output_requirements>
- Lead with a clear answer to the main question.
- Support with evidence and citations.
- Acknowledge limitations and uncertainties.
- Provide concrete examples where helpful.
- Include relevant context that helps understand implications.
</output_requirements>

<citation_format>
[How you want sources cited]
</citation_format>

الأخطاء الشائعة التي تخرب النتائج

دعني أوفر عليك الأخطاء التي ارتكبتها (مراراً) في أيامي الأولى في هندسة الأوامر.

أن تكون غامضاً جداً

"اكتب لي شيئاً عن التسويق" مقابل "اكتب مقالاً من 500 كلمة عن التسويق عبر البريد الإلكتروني لشركات SaaS الناشئة، مع التركيز على تسلسلات الترحيب." التحديد هو كل شيء.

تعليمات متناقضة

"كن موجزاً" و"كن شاملاً" في نفس الأمر. الذكاء الاصطناعي سيعاني للتوفيق بين التناقضات. كن صريحاً بشأن الأولويات والمقايضات.

افتراض السياق

الذكاء الاصطناعي لا يعرف ما لم تخبره. إذا كان شيء واضحاً لك، قد لا يكون واضحاً للنموذج. ضمّن الخلفية ذات الصلة.

عدم تحديد التنسيق

إذا احتجت JSON، قل ذلك. إذا احتجت نقاط، قل ذلك. لا تترك تنسيق المخرجات للصدفة.

تعقيد الأوامر بشكل مفرط

أحياناً الأمر البسيط هو الأفضل. لا تضف تعقيداً من أجل التعقيد. ابدأ بسيطاً، أضف التعقيد فقط عند الحاجة.

عدم التكرار

كتابة الأوامر تكرارية. أمرك الأول مسودة. حسّن بناءً على ما يعمل وما لا يعمل.

تجاهل اختلافات النماذج

GPT وClaude يتصرفان بشكل مختلف. أمر محسن لواحد قد يؤدي أداءً أقل على الآخر. اختبر عبر النماذج إذا كان تطبيقك يدعم متعددة.

نسيان الإنسان في الحلقة

مخرجات الذكاء الاصطناعي عادة تحتاج مراجعة بشرية. ابنِ أوامر تجعل المراجعة سهلة—هيكل واضح، افتراضات صريحة، منطق قابل للتتبع.

مستقبل هندسة الأوامر

وأنا أكتب هذا في أوائل 2026، هندسة الأوامر تتطور بسرعة. النماذج تصبح أكثر قدرة، أكثر قابلية للتوجيه، وأكثر موثوقية. البعض يتوقع أن هندسة الأوامر ستصبح عفا عليها الزمن مع تحسن الذكاء الاصطناعي في فهم النية. أختلف.

ما يتغير هو مستوى هندسة الأوامر، وليس ضرورتها. الأيام الأولى تطلبت أوامر مفصلة للمهام الأساسية. الآن، المهام الأساسية تعمل من الصندوق، لكن سير العمل الوكيلي المعقد لا يزال يتطلب أوامر متطورة. المعيار يرتفع، لا يختفي.

🔮

هندسة الأوامر لن تختفي—إنها تتطور. المهارات المهمة تتحول من "كيف تجعل الذكاء الاصطناعي يعمل" إلى "كيف تجعل الذكاء الاصطناعي يعمل بامتياز وموثوقية على نطاق واسع."

ما هو قادم

سلوكيات افتراضية أفضل

ستكون للنماذج افتراضيات أذكى، تتطلب تعليمات صريحة أقل للأنماط الشائعة. الأوامر ستركز أكثر على التخصيص بدلاً من القدرة الأساسية.

أنظمة أدوات أغنى

سيكون للذكاء الاصطناعي وصول لمزيد من الأدوات من الصندوق. هندسة الأوامر ستتحول نحو التنسيق—معرفة متى تستخدم ماذا، وليس فقط كيف.

تكامل متعدد الوسائط

ستتضمن الأوامر بشكل متزايد صوراً وصوتاً وفيديو وبيانات منظمة إلى جانب النص. أنماط أوامر جديدة ستظهر للمهام متعددة الوسائط.

تعقيد وكيلي

مع تعامل الوكلاء مع مهام أطول وأكثر تعقيداً، ستصبح هندسة الأوامر أشبه بتصميم النظم—معمارية، وليس مجرد تعليمات.

نصيحتي للمستقبل

ركز على الأساسيات. التقنيات المحددة في هذا الدليل ستتطور، لكن المبادئ الكامنة—التواصل الواضح، التوقعات الصريحة، التفكير المنظم، التحسين التكراري—خالدة. أتقن تلك، وستتكيف مع أي شيء قادم.

أفكار ختامية

قبل عامين، اعتقدت أن الذكاء الاصطناعي سيحل محل الحاجة للتواصل الواضح. كنت مخطئاً تماماً. جعل الذكاء الاصطناعي التواصل الواضح أكثر قيمة من أي وقت مضى. الناس الذين يزدهرون مع الذكاء الاصطناعي ليسوا من وجدوا كلمات سحرية—بل من تعلموا التفكير والتعبير عن أنفسهم بدقة.

هندسة الأوامر ليست حقاً عن الذكاء الاصطناعي. إنها عنك. عن تطوير الانضباط للتعبير عما تريده فعلاً، الصبر للتكرار نحوه، والتواضع للتعلم مما لا يعمل.

إذا أخذت شيئاً واحداً من هذا الدليل، فليكن هذا: عامل كل أمر كفرصة لممارسة التفكير الواضح. الذكاء الاصطناعي مجرد مرآة تعكس وضوح—أو ارتباك—عقلك الخاص.

ظهور الذكاء الاصطناعي لم يجعل المعرفة عفا عليها الزمن—بل جعل الفضول أقوى من أي وقت مضى. لم نعد محدودين بما نعرفه بالفعل. مع الأدوات الصحيحة والاستعداد للتفكير، يمكن للناس العاديين احتضان محيط من المعرفة. بغض النظر عن المهنة. بغض النظر عن العمر. آمل أن أشارك هذه الرحلة مع الأصدقاء حول العالم. معاً، دعونا نرحب بهذا العالم الجديد. معاً، دعونا ننمو.

آخر تحديث: 22 يناير 2026 · بناءً على الوثائق الرسمية وتجارب شخصية مكثفة

??????

0 ???????

???? ???????

?? ??? ?? ????? ?????? ??? ??? ??????!