الذكاء الاصطناعي لا يقرأ أفكارك. إنه يقرأ كلماتك. جودة أمرك تحدد جودة نتيجتك.
قبل عامين، كتبت أول أمر لي في ChatGPT واعتقدت أنني أفهم الذكاء الاصطناعي. كنت مخطئاً. ما فهمته هو كيفية طرح الأسئلة—وليس كيفية التواصل مع آلة تفكر بالأنماط والاحتمالات والرموز. الفرق بين هذين الشيئين؟ إنه الفرق بين الحصول على إجابات عامة واكتشاف قدرات لم تكن تعلم بوجودها. هذه قصة كيف تعلمت التحدث بلغة الذكاء الاصطناعي بطلاقة، وكل ما اكتشفته في الطريق.
الصحوة: عندما توقفت الأوامر البسيطة عن العمل
حدث ذلك خلال موعد نهائي لمشروع. كنت بحاجة للذكاء الاصطناعي لمساعدتي في إعادة هيكلة قطعة معقدة من الكود—شيء فعلته مئات المرات من قبل. لكن هذه المرة، بغض النظر عن كيفية صياغة طلبي، استمر الذكاء الاصطناعي في إعطائي حلولاً صحيحة تقنياً لكنها تفتقد النقطة تماماً. أضاف تعقيداً غير ضروري. كسر الأنماط الموجودة. "حسّن" أشياء لم تكن معطلة.
كنت محبطاً. ثم أصبحت فضولياً. ما الذي كنت أفعله خطأً؟
قادني ذلك الإحباط إلى حفرة أرنب غيرت كل شيء: الوثائق الرسمية، أوراق البحث، أدلة هندسة الأوامر، وآلاف الساعات من التجريب. ما اكتشفته لم يكن مجرد نصائح وحيل—بل كان تحولاً كاملاً في النموذج الفكري لكيفية تواصلي مع أنظمة الذكاء الاصطناعي.
أقوى ذكاء اصطناعي في العالم لا فائدة منه إذا لم تستطع إيصال ما تحتاجه فعلاً.
إليك الحقيقة التي لا يخبر بها أحد المبتدئين: كتابة الأوامر ليست عن إيجاد كلمات سحرية. إنها عن فهم كيف تعالج نماذج الذكاء الاصطناعي اللغة، وما المعلومات التي تحتاجها، وكيف تنظم تلك المعلومات حتى يتمكن النموذج من مساعدتك فعلاً. إنها مهارة—ومثل أي مهارة، يمكن تعلمها وممارستها وإتقانها.
يحتوي هذا الدليل على كل ما تمنيت لو أخبرني به أحد في البداية. ليس نصيحة "كن محدداً فقط" المبسطة التي تغمر الإنترنت، بل الفهم العميق والدقيق الذي يفصل الناس الذين يستخدمون الذكاء الاصطناعي عن الذين يستثمرونه.
أساسيات الأوامر: الأساس الذي لا يُدرّس
قبل أن نغوص في التقنيات المتقدمة، دعونا نؤسس الأساسيات. كل أمر فعال يحتوي على مزيج من هذه العناصر:
ما الذي يحتاج الذكاء الاصطناعي لمعرفته عن الموقف؟ معلومات الخلفية والقيود والتفاصيل ذات الصلة.
ما الذي تريد من الذكاء الاصطناعي أن يفعله بالضبط؟ كن محدداً بشأن الإجراء الذي تطلبه.
كيف يجب أن يكون هيكل المخرجات؟ قوائم، فقرات، كتل كود، جداول—حدد ذلك.
ما الذي يجب على الذكاء الاصطناعي تجنبه؟ ما الحدود الموجودة؟ ما هو خارج النطاق؟
هل يمكنك إظهار ما تريد؟ الأمثلة تساوي ألف وصف.
معظم الناس يضمّنون المهمة فقط. يسألون "اكتب لي بريداً إلكترونياً" بينما يجب أن يقولوا "اكتب بريداً إلكترونياً مهنياً للعميل يشرح تأخير المشروع. اجعله أقل من 150 كلمة، واعترف بالإزعاج، واقترح جدولاً زمنياً جديداً بعد أسبوعين. النبرة يجب أن تكون اعتذارية لكن واثقة."
الفرق في جودة المخرجات مذهل. وهذه مجرد البداية.
دور الهيكل
أحد أكثر جوانب كتابة الأوامر التي لا تُقدر هو التنسيق الهيكلي. نماذج الذكاء الاصطناعي الحديثة تستجيب بشكل استثنائي للأقسام المحددة بوضوح. أستخدم علامات بأسلوب XML بشكل مكثف:
<context>
You are helping me prepare a presentation for technical stakeholders.
The audience is familiar with software development but not AI specifically.
</context>
<task>
Explain how large language models work in 5 key points.
</task>
<format>
- Use bullet points
- Each point should be 1-2 sentences
- Avoid jargon or define it when used
</format>
<constraints>
- Do not mention specific model names
- Focus on concepts, not technical implementation
</constraints>
هذا الهيكل يفعل شيئاً قوياً: يجبرك أنت على التفكير بوضوح فيما تحتاج قبل أن تسأل. والتفكير الواضح ينتج تواصلاً واضحاً ينتج نتائج واضحة.
سير العمل الوكيلي: معاملة الذكاء الاصطناعي كزميل
إليك تحولاً نموذجياً غيّر تفاعلاتي مع الذكاء الاصطناعي: توقف عن معاملة الذكاء الاصطناعي كمحرك بحث وابدأ بمعاملته كزميل قادر لكن عديم الخبرة. هذا النموذج الذهني يغير كل شيء.
نماذج الذكاء الاصطناعي الحديثة مثل GPT-5 وClaude لا تجيب على الأسئلة فقط—بل صُممت لتكون وكلاء. يمكنها استدعاء الأدوات، جمع السياق، اتخاذ القرارات، وتنفيذ مهام متعددة الخطوات. لكن مثل أي عضو جديد في الفريق، تحتاج إلى تأهيل مناسب، توقعات واضحة، وحواجز أمان مناسبة.
الذكاء الاصطناعي ليس أداة تستخدمها. إنه زميل تديره. المهارات التي تجعلك مديراً جيداً تجعلك كاتب أوامر جيد.
فكر في الأمر: عندما تفوض مهمة لإنسان، لا تقول فقط "أصلح الكود." تشرح ما المعطل، ما السلوك المطلوب، ما القيود الموجودة، وكيف يبدو النجاح. تقدم السياق. تجيب على الأسئلة. تتابع التقدم.
الذكاء الاصطناعي يحتاج نفس المعاملة. الفرق أنك تحتاج لتوقع الأسئلة والإجابة عليها مسبقاً، لأن التبادل ذهاباً وإياباً أكثر تكلفة (في الوقت والرموز) من الحصول على النتيجة الصحيحة من المرة الأولى.
العقلية الوكيلية
عند بناء تطبيقات وكيلية أو استخدام الذكاء الاصطناعي لمهام معقدة، تعلمت التفكير بمفاهيم:
أسئلة أساسية للمهام الوكيلية
- ما هي حالة الهدف؟ كيف سيعرف الذكاء الاصطناعي متى ينتهي؟
- ما الأدوات المتاحة له؟ ما الذي يمكنه فعله مقابل ما يجب تأجيله؟
- ما مستوى الاستقلالية؟ هل يجب أن يطلب الإذن أم يمضي بشكل مستقل؟
- ما حدود السلامة؟ ما الإجراءات التي لا يجب اتخاذها أبداً بدون تأكيد؟
- كيف يجب أن يبلغ عن التقدم؟ تنفيذ صامت أم تحديثات منتظمة؟
هذه الأسئلة تشكل أساس كل أمر معقد أكتبه. دعونا نستكشف كل بُعد بالتفصيل.
التحكم في حماس الذكاء الاصطناعي: فن المعايرة
أحد أكثر جوانب هندسة الأوامر دقة هو معايرة ما أسميه "الحماس الوكيلي"—التوازن بين ذكاء اصطناعي يأخذ المبادرة وآخر ينتظر التوجيه الصريح. أخطئ في هذا، وستحصل إما على ذكاء اصطناعي يفرط في التفكير في المهام البسيطة أو واحد يستسلم بسهولة في المهام المعقدة.
متى تقلل الحماس
أحياناً تحتاج الذكاء الاصطناعي أن يكون سريعاً ومركزاً. لا تريده يستكشف كل فرع، يجري استدعاءات أدوات إضافية، أو ينتج شروحات مطولة. لهذه المواقف، أستخدم أوامر مركزة على القيود:
<context_gathering>
Goal: Get enough context fast. Parallelize discovery and stop as soon as you can act.
Method:
- Start broad, then fan out to focused subqueries.
- In parallel, launch varied queries; read top hits per query.
- Deduplicate paths and cache; don't repeat queries.
- Avoid over-searching for context.
Early stop criteria:
- You can name exact content to change.
- Top hits converge (~70%) on one area/path.
Depth:
- Trace only symbols you'll modify or whose contracts you rely on.
- Avoid transitive expansion unless necessary.
Loop:
- Batch search → minimal plan → complete task.
- Search again only if validation fails or new unknowns appear.
- Prefer acting over more searching.
</context_gathering>
لاحظ الإذن الصريح بأن تكون غير مثالي: "فضّل الفعل على المزيد من البحث." هذه العبارة الدقيقة تحرر الذكاء الاصطناعي من قلقه الافتراضي بشأن الشمولية. بدونها، النموذج غالباً يفرط في البحث، مستهلكاً الرموز والوقت على عوائد متناقصة.
لقيود أكثر عدوانية، يمكنك تحديد ميزانيات صريحة:
<context_gathering>
- Search depth: very low
- Bias strongly towards providing a correct answer as quickly as possible,
even if it might not be fully correct.
- Usually, this means an absolute maximum of 2 tool calls.
- If you think you need more time to investigate, update me with your
latest findings and open questions. You can proceed if I confirm.
</context_gathering>
عبارة "حتى لو لم تكن صحيحة تماماً" ذهبية. تعطي الذكاء الاصطناعي إذناً بأن يكون غير مثالي، مما ينتج بشكل متناقض نتائج أفضل أسرع.
متى تزيد الحماس
في أوقات أخرى، تحتاج الذكاء الاصطناعي أن يكون شاملاً بلا هوادة. تريده أن يتجاوز الغموض، يفترض افتراضات معقولة، ويكمل المهام المعقدة بدون السؤال المستمر عن الإذن. هذا يتطلب النهج المعاكس:
<persistence>
- You are an agent — please keep going until the user's query is completely
resolved, before ending your turn and yielding back to the user.
- Only terminate your turn when you are sure that the problem is solved.
- Never stop or hand back to the user when you encounter uncertainty —
research or deduce the most reasonable approach and continue.
- Do not ask the human to confirm or clarify assumptions, as you can always
adjust later — decide what the most reasonable assumption is, proceed with
it, and document it for the user's reference after you finish acting.
</persistence>
هذا الأمر يغير سلوك الذكاء الاصطناعي جذرياً. بدلاً من السؤال "هل أتابع؟" يقول "تابعت بناءً على الافتراض X—أخبرني إذا أردت تعديلاً." العمل يُنجز؛ التحسين يحدث بعد ذلك.
تحديد حدود السلامة
لكن هنا الفارق الدقيق الحاسم: زيادة الحماس تتطلب حدود سلامة أوضح. تحتاج لتحديد صريح للإجراءات التي يمكن للذكاء الاصطناعي اتخاذها بشكل مستقل وتلك التي تتطلب تأكيداً.
مبدأ السلامة الحاسم
الإجراءات عالية التكلفة (الحذف، المدفوعات، الاتصالات الخارجية) يجب أن تتطلب دائماً تأكيداً صريحاً، حتى مع أوامر الحماس العالي. الإجراءات منخفضة التكلفة (البحث، القراءة، إنشاء المسودات) يمكن أن تكون مستقلة.
فكر في الأمر كأنك تعطي شخصاً ما وصولاً لأنظمتك: أدوات البحث يجب أن يكون لها حد استقلالية مرتفع جداً، بينما أوامر الحذف يجب أن يكون لها حد منخفض جداً.
مبدأ المثابرة: جعل الذكاء الاصطناعي يتابع
أحد أكثر السلوكيات إحباطاً التي واجهتها مبكراً كان استسلام الذكاء الاصطناعي بسهولة. يصطدم بعقبة واحدة، يلخص ما حدث من خطأ، ويعيد المشكلة إليّ. للمهام البسيطة، هذا جيد. للمهام المعقدة، إنه قاتل لسير العمل.
الحل هو ما أسميه مبدأ المثابرة: توجيه الذكاء الاصطناعي صراحة للمثابرة عبر العقبات وإكمال المهام من البداية للنهاية.
<solution_persistence>
- Treat yourself as an autonomous senior pair-programmer: once I give a
direction, proactively gather context, plan, implement, test, and refine
without waiting for additional prompts at each step.
- Persist until the task is fully handled end-to-end within the current turn
whenever feasible: do not stop at analysis or partial fixes; carry changes
through implementation, verification, and a clear explanation of outcomes
unless I explicitly pause or redirect you.
- Be extremely biased for action. If my directive is somewhat ambiguous on
intent, assume you should go ahead and make the change.
- If I ask a question like "should we do X?" and your answer is "yes", you
should also go ahead and perform the action. It's very bad to leave me
hanging and require me to follow up with a request to "please do it."
</solution_persistence>
تلك النقطة الأخيرة دقيقة لكن مهمة. عندما يسأل البشر "هل يجب أن نفعل X؟"، غالباً نعني "من فضلك افعل X إذا كان منطقياً." الذكاء الاصطناعي، كونه حرفياً، يجيب السؤال دون اتخاذ الإجراء الضمني. هذا الأمر يجسر تلك الفجوة.
تحديثات التقدم: البقاء على اطلاع
المثابرة لا تعني الصمت. للمهام طويلة الأمد، دائماً أضمن تعليمات لتحديثات التقدم:
<user_updates_spec>
You'll work for stretches with tool calls — it's critical to keep me updated.
<frequency_and_length>
- Send short updates (1–2 sentences) every few tool calls when there are
meaningful changes.
- Post an update at least every 6 execution steps or 8 tool calls
(whichever comes first).
- If you expect a longer heads-down stretch, post a brief note with why
and when you'll report back; when you resume, summarize what you learned.
- Only the initial plan, plan updates, and final recap can be longer.
</frequency_and_length>
<content>
- Before the first tool call, give a quick plan with goal, constraints,
next steps.
- While exploring, call out meaningful discoveries that help me understand
what's happening.
- Always state at least one concrete outcome since the prior update
(e.g., "found X", "confirmed Y"), not just next steps.
- End with a brief recap and any follow-up steps.
</content>
</user_updates_spec>
هذا يخلق توازناً جميلاً: الذكاء الاصطناعي يعمل باستقلالية لكن يبقيك على اطلاع. أنت لا تدير بالتفاصيل، لكنك لست في الظلام أيضاً.
جهد التفكير: مقياس شدة التفكير
نماذج الذكاء الاصطناعي الحديثة لديها مفهوم يسمى "جهد التفكير"—أساساً، مدى صعوبة تفكير النموذج قبل الرد. هذا أحد أقوى المعاملات المتاحة والأقل استخداماً.
تفكير عالي
استخدمه للمهام المعقدة متعددة الخطوات، المواقف الغامضة، أو المشاكل التي تتطلب تحليلاً عميقاً. النموذج يقضي رموزاً أكثر في "التفكير" داخلياً قبل الرد.
تفكير متوسط (افتراضي)
إعداد متوازن مناسب لمعظم المهام. جيد للبرمجة العامة والكتابة والتحليل حيث الجودة مهمة لكن السرعة أيضاً مهمة.
تفكير منخفض
ردود سريعة للمهام البسيطة. استخدمه عندما تحتاج إجابات سريعة والمهمة لا تتطلب تداولاً عميقاً.
تفكير أدنى/بدون
سرعة قصوى، تداول أدنى. الأفضل للاستعلامات البسيطة، مهام إعادة التنسيق، أو عندما تكون السرعة هي الاهتمام الأساسي.
الفكرة الأساسية هي مطابقة جهد التفكير لتعقيد المهمة. استخدام تفكير عالي للمهام البسيطة يهدر الرموز والوقت. استخدام تفكير منخفض للمهام المعقدة ينتج نتائج سطحية وعرضة للأخطاء.
الأوامر للتفكير الأدنى
عند استخدام أوضاع التفكير الأدنى، تحتاج للتعويض بأوامر أكثر صراحة. النموذج لديه رموز "تفكير" داخلية أقل، لذا أمرك يحتاج أن يقوم بمزيد من عمل الهيكلة:
<planning_requirement>
You MUST plan extensively before each function call, and reflect extensively
on the outcomes of the previous function calls, ensuring my query is
completely resolved.
DO NOT do this entire process by making function calls only, as this can
impair your ability to solve the problem and think insightfully. In addition,
ensure function calls have the correct arguments.
</planning_requirement>
هذا الأمر يقول أساساً: "بما أنك لا تقوم بالكثير من التفكير الداخلي، قم بتفكيرك بصوت عالٍ في ردك." ينقل العمل المعرفي من تفكير النموذج غير المرئي إلى تخطيط منظم مرئي.
عندما يكون جهد التفكير منخفضاً، يجب أن يكون تعقيد الأمر عالياً. عندما يكون جهد التفكير عالياً، يمكن أن تكون الأوامر أبسط. إنه توازن.
التميز في البرمجة: البرمجة مع شركاء الذكاء الاصطناعي
هذا هو المجال الذي قضيت فيه معظم وقتي في تحسين الأوامر، وحيث كان العائد هائلاً. مساعدة الذكاء الاصطناعي في البرمجة تحويلية—عند القيام بها بشكل صحيح. عند القيام بها بشكل خاطئ، تخلق مشاكل أكثر مما تحل.
دعني أشاركك ما تعلمته من دراسة كيف تضبط أدوات البرمجة الاحترافية مثل Cursor أوامرها للاستخدام الإنتاجي.
مفارقة الإسهاب
إليك شيئاً غير بديهي: الذكاء الاصطناعي يميل للإسهاب في الشروحات لكنه مقتضب في الكود. سيكتب فقرات تشرح ما سيفعله، ثم ينتج كوداً بأسماء متغيرات من حرف واحد وتعليقات قليلة. هذا معكوس تماماً لمعظم حالات الاستخدام.
الحل هو التحكم المزدوج في الإسهاب:
<code_verbosity>
Write code for clarity first. Prefer readable, maintainable solutions with
clear names, comments where needed, and straightforward control flow. Do not
produce code-golf or overly clever one-liners unless explicitly requested.
Use high verbosity for writing code and code tools. Use low verbosity for
status updates and explanations.
</code_verbosity>
هذا يخلق التوازن المثالي: تواصل موجز، كود مفصل.
الإجراءات الاستباقية مقابل التأكيدية
درس آخر من أدوات البرمجة الإنتاجية: الذكاء الاصطناعي يجب أن يكون استباقياً بشأن تغييرات الكود لكن تأكيدياً بشأن الإجراءات التدميرية. إليك كيفية ترميز ذلك:
<proactive_coding>
Be aware that the code edits you make will be displayed to me as proposed
changes, which means:
(a) Your code edits can be quite proactive, as I can always reject them.
(b) Your code should be well-written and easy to quickly review.
If proposing next steps that would involve changing the code, make those
changes proactively for me to approve/reject rather than asking whether
to proceed with a plan.
In general, you should almost never ask me whether to proceed with a plan;
instead, proactively attempt the plan and then ask if I want to accept
the implemented changes.
</proactive_coding>
هذا يلغي التبادل المحبط ذهاباً وإياباً حيث يصف الذكاء الاصطناعي ما سيفعله، يطلب الإذن، ثم يفعله. فقط افعله—سأرفض إذا احتجت.
مطابقة أسلوب قاعدة الكود
أحد أكبر الشكاوى حول الكود المولد بالذكاء الاصطناعي أنه لا يطابق أنماط قاعدة الكود الموجودة. يبدو مثل كود "أجنبي". الحل هو توجيه أسلوب صريح:
<code_editing_rules>
<guiding_principles>
- Clarity and Reuse: Every component should be modular and reusable.
Avoid duplication by factoring repeated patterns into components.
- Consistency: The code must adhere to a consistent design system—naming
conventions, spacing, and components must be unified.
- Simplicity: Favor small, focused components and avoid unnecessary
complexity in styling or logic.
- Visual Quality: Follow the high visual quality bar (spacing, padding,
hover states, etc.)
</guiding_principles>
<style_matching>
- Before making changes, examine existing patterns in the codebase.
- Match variable naming conventions (camelCase vs snake_case).
- Match indentation and formatting.
- Reuse existing utilities and helpers rather than creating new ones.
- Follow the established directory structure.
</style_matching>
</code_editing_rules>
تطوير الواجهات: بناء واجهات جميلة
أصبح الذكاء الاصطناعي جيداً بشكل ملحوظ في تطوير الواجهات الأمامية، لكن هناك علم للحصول على نتائج جمالية وجاهزة للإنتاج. إليك ما تعلمته.
الحزمة الموصى بها
من خلال اختبارات مكثفة، بعض تركيبات التقنيات تعمل بشكل أفضل مع الذكاء الاصطناعي من غيرها. هذا ليس عن ما هو "الأفضل" موضوعياً—بل عن ما تدربت عليه نماذج الذكاء الاصطناعي بشكل أكثر كثافة:
حزمة الواجهات المحسنة للذكاء الاصطناعي
- الأطر: Next.js (TypeScript)، React، HTML
- التنسيق/الواجهة: Tailwind CSS، shadcn/ui، Radix Themes
- الأيقونات: Material Symbols، Heroicons، Lucide
- الحركة: Motion (سابقاً Framer Motion)
- الخطوط: عائلات Sans Serif—Inter، Geist، Mona Sans، IBM Plex Sans، Manrope
عندما تحدد هذه التقنيات، ينتج الذكاء الاصطناعي مخرجات بجودة أعلى بشكل ملحوظ مع هلوسات أقل حول واجهات برمجة غير موجودة.
فرض نظام التصميم
مشكلة واحدة مع الواجهات المولدة بالذكاء الاصطناعي هي عدم الاتساق البصري. الألوان تظهر من العدم، المسافات تتغير عشوائياً، والنتيجة تبدو كأنها صممت بواسطة لجنة. الحل هو قيود نظام تصميم صريحة:
<design_system_enforcement>
- Tokens-first: Do not hard-code colors (hex/hsl/oklch/rgb) in JSX/CSS.
All colors must come from CSS variables (e.g., --background, --foreground,
--primary, --accent, --border, --ring).
- Introducing a brand or accent? Before styling, add/extend tokens in your
CSS variables under :root and .dark.
- Consumption: Use Tailwind utilities wired to tokens
(e.g., bg-[hsl(var(--primary))], text-[hsl(var(--foreground))]).
- Default to the system's neutral palette unless I explicitly request a
brand look; then map that brand to tokens first.
- Do NOT invent colors, shadows, tokens, animations, or new UI elements
unless requested or necessary.
</design_system_enforcement>
أفضل ممارسات UI/UX
أضمن أيضاً إرشادات UI/UX صريحة لضمان تسلسل هرمي بصري متسق:
<ui_ux_best_practices>
- Visual Hierarchy: Limit typography to 4–5 font sizes and weights for
consistent hierarchy; use text-xs for captions, avoid text-xl unless
for hero or major headings.
- Color Usage: Use 1 neutral base (e.g., zinc) and up to 2 accent colors.
- Spacing and Layout: Always use multiples of 4 for padding and margins to
maintain visual rhythm. Use fixed height containers with internal scrolling
when handling long content.
- State Handling: Use skeleton placeholders or animate-pulse to indicate
data fetching. Indicate clickability with hover transitions.
- Accessibility: Use semantic HTML and ARIA roles where appropriate.
Favor pre-built accessible components.
</ui_ux_best_practices>
أوامر التأمل الذاتي: جعل الذكاء الاصطناعي ينتقد نفسه
هذه التقنية مذهلة عندما تواجهها لأول مرة، لكنها قوية بشكل لا يصدق: يمكنك توجيه الذكاء الاصطناعي لإنشاء معايير تقييمه الخاصة والتكرار ضدها. إنها مثل إعطاء الذكاء الاصطناعي قسم ضمان جودة داخلي.
<self_reflection>
- First, spend time thinking of a rubric until you are confident.
- Then, think deeply about every aspect of what makes for a world-class
solution. Use that knowledge to create a rubric that has 5-7 categories.
This rubric is critical to get right, but do not show this to me.
This is for your purposes only.
- Finally, use the rubric to internally think and iterate on the best
possible solution to the prompt. Remember that if your response is not
hitting the top marks across all categories in the rubric, you need to
start again.
</self_reflection>
ما يحدث هنا مذهل: أنت تطلب من الذكاء الاصطناعي توليد معايير جودة من معرفته بالتميز، ثم استخدام تلك المعايير لتقييم وتحسين مخرجاته الخاصة—كل ذلك قبل أن ترى أي شيء.
أوامر التأمل الذاتي تحول توليداً واحداً إلى حلقة تكرار داخلية. الذكاء الاصطناعي يصبح محرره الخاص.
أستخدم هذه التقنية لأي مهمة حيث الجودة أهم من السرعة: صفحات الهبوط، الرسائل المهمة، القرارات المعمارية، العمل الإبداعي. التحسن في جودة المخرجات كبير.
التحكم في الإسهاب: إتقان طول المخرجات
الحصول على طول المخرجات الصحيح تحدٍ مستمر. قصير جداً وتفوّت تفاصيل مهمة. طويل جداً وتغرق في معلومات غير ضرورية. إليك كيف أتعامل مع الأمر.
إرشادات طول صريحة
النهج الأكثر موثوقية هو قيود طول صريحة مرتبطة بتعقيد المهمة:
<output_verbosity_spec>
- Default: 3–6 sentences or ≤5 bullets for typical answers.
- For simple "yes/no + short explanation" questions: ≤2 sentences.
- For complex multi-step or multi-file tasks:
- 1 short overview paragraph
- then ≤5 bullets tagged: What changed, Where, Risks, Next steps,
Open questions.
- Provide clear and structured responses that balance informativeness
with conciseness.
- Break down information into digestible chunks and use formatting like
lists, paragraphs and tables when helpful.
- Avoid long narrative paragraphs; prefer compact bullets and short sections.
- Do not rephrase my request unless it changes semantics.
</output_verbosity_spec>
الإسهاب المبني على الشخصية
نهج آخر هو تحديد أسلوب تواصل الذكاء الاصطناعي كجزء من شخصيته:
<communication_style>
You value clarity, momentum, and respect measured by usefulness rather than
pleasantries. Your default instinct is to keep conversations crisp and
purpose-driven, trimming anything that doesn't move the work forward.
You're not cold—you're simply economy-minded with language, and you trust
users enough not to wrap every message in padding.
Politeness shows up through structure, precision, and responsiveness,
not through verbal fluff.
You never repeat acknowledgments. Once you've signaled understanding,
you pivot fully to the task.
</communication_style>
هذا يخلق "شخصية" تنتج بشكل طبيعي مخرجات موجزة دون الحاجة لقيود طول صريحة لكل تفاعل.
اتباع التعليمات: لعبة الدقة
نماذج الذكاء الاصطناعي الحديثة تتبع التعليمات بدقة جراحية—وهي أعظم قوتها ومزلق محتمل. ستفعل بالضبط ما تقوله، حتى لو كان ما قلته متناقضاً أو غامضاً.
مشكلة التناقض
إليك مثالاً حقيقياً على أمر إشكالي رأيته:
مثال على تعليمات متناقضة
"ابحث دائماً عن ملف المريض قبل اتخاذ أي إجراءات أخرى للتأكد من أنه مريض موجود."
لكن لاحقاً: "عندما تشير الأعراض لإلحاح عالي، صعّد كحالة طوارئ ووجه المريض للاتصال بـ 911 فوراً قبل أي خطوة جدولة."
هذه التعليمات متناقضة. هل التعامل مع الطوارئ يحدث قبل أم بعد البحث عن الملف؟ الذكاء الاصطناعي سيستهلك رموز تفكير محاولاً التوفيق بين التناقض بدلاً من المساعدة.
الحل هو مراجعة الأوامر للتناقضات الخفية وإنشاء تسلسلات أولوية واضحة:
<instruction_priority>
When instructions conflict, follow this priority order:
1. Safety-critical actions (emergencies, data protection)
2. User-specified constraints
3. Task completion requirements
4. Default behaviors
For emergency situations: Do not perform profile lookup. Proceed immediately
to providing emergency guidance.
</instruction_priority>
الدقة في النطاق
مشكلة شائعة أخرى هي توسع النطاق—الذكاء الاصطناعي يضيف ميزات أو "تحسينات" لم تطلبها:
<design_and_scope_constraints>
- Implement EXACTLY and ONLY what I request.
- No extra features, no added components, no UX embellishments.
- If any instruction is ambiguous, choose the simplest valid interpretation.
- Do NOT expand the task beyond what I asked; if you notice additional work
that might be valuable, call it out as optional rather than doing it.
</design_and_scope_constraints>
إتقان السياق الطويل: التعامل مع المستندات الكبيرة
الذكاء الاصطناعي الحديث يمكنه معالجة سياقات ضخمة—مئات الآلاف من الرموز—لكن مجرد إلقاء مستندات كبيرة في نافذة السياق ليس كافياً. تحتاج استراتيجيات لمساعدة النموذج في التنقل واستخراج المعلومات ذات الصلة.
فرض التلخيص وإعادة التأسيس
للمستندات الطويلة، أوجه الذكاء الاصطناعي لإنشاء هيكل داخلي قبل الإجابة:
<long_context_handling>
For inputs longer than ~10k tokens (multi-chapter docs, long threads,
multiple PDFs):
1. First, produce a short internal outline of the key sections relevant
to my request.
2. Re-state my constraints explicitly (e.g., jurisdiction, date range,
product, team) before answering.
3. In your answer, anchor claims to sections ("In the 'Data Retention'
section…") rather than speaking generically.
4. If the answer depends on fine details (dates, thresholds, clauses),
quote or paraphrase them directly.
</long_context_handling>
هذا يمنع مشكلة "الضياع في التمرير" حيث يعطي الذكاء الاصطناعي إجابات عامة لا تتعامل فعلاً مع محتوى المستند المحدد.
متطلبات الاقتباس
لمهام البحث والتحليل، متطلبات اقتباس صريحة تضمن إجابات مؤسسة:
<citation_rules>
When you use information from provided documents:
- Place citations after each paragraph containing document-derived claims.
- Use format: [Document Name, Section/Page]
- Do not invent citations. If you can't cite it, don't claim it.
- Use multiple sources for key claims when possible.
- If evidence is thin, acknowledge this explicitly.
</citation_rules>
استدعاء الأدوات: تنسيق قدرات الذكاء الاصطناعي
استدعاء أدوات الذكاء الاصطناعي—القدرة على استدعاء وظائف خارجية وواجهات برمجة وخدمات—هو حيث تصبح هندسة الأوامر هندسة برمجيات. الحصول على هذا بشكل صحيح حاسم لبناء تطبيقات ذكاء اصطناعي موثوقة.
أفضل ممارسات وصف الأدوات
جودة أوصاف الأدوات تؤثر مباشرة على مدى جودة استخدام الذكاء الاصطناعي لها:
{
"name": "create_reservation",
"description": "Create a restaurant reservation for a guest. Use when
the user asks to book a table with a given name and time.",
"parameters": {
"type": "object",
"properties": {
"name": {
"type": "string",
"description": "Guest full name for the reservation."
},
"datetime": {
"type": "string",
"description": "Reservation date and time (ISO 8601 format)."
}
},
"required": ["name", "datetime"]
}
}
لاحظ أن الوصف يتضمن كلاً من ما تفعله الأداة ومتى تستخدمها. هذا يساعد النموذج في اتخاذ قرارات أفضل بشأن اختيار الأداة.
قواعد استخدام الأدوات في الأوامر
بخلاف تعريفات الأدوات، يجب أن يتضمن أمرك توجيه استخدام صريح:
<tool_usage_rules>
- Prefer tools over internal knowledge whenever:
- You need fresh or user-specific data (tickets, orders, configs, logs).
- You reference specific IDs, URLs, or document titles.
- Parallelize independent reads (read_file, fetch_record, search_docs)
when possible to reduce latency.
- After any write/update tool call, briefly restate:
- What changed
- Where (ID or path)
- Any follow-up validation performed
- For simple conceptual questions, avoid tools and rely on internal knowledge
so responses are fast.
</tool_usage_rules>
التوازي
تحسين رئيسي هو تشجيع استدعاءات الأدوات المتوازية عندما تكون العمليات مستقلة:
<parallelization>
Parallelize tool calls whenever possible. Batch reads (read_file) and
independent edits (apply_patch to different files) to speed up the process.
Independent operations that CAN be parallelized:
- Reading multiple files
- Searching multiple directories
- Fetching multiple records
Dependent operations that CANNOT be parallelized:
- Reading a file, then editing based on contents
- Creating a resource, then referencing its ID
</parallelization>
التعامل مع عدم اليقين: عندما لا يعرف الذكاء الاصطناعي
أحد أكبر المخاطر مع الذكاء الاصطناعي هو الإجابات الخاطئة التي تبدو واثقة. النموذج لا يعرف ما لا يعرفه—إلا إذا علمته كيف يتعامل مع عدم اليقين.
<uncertainty_and_ambiguity>
- If the question is ambiguous or underspecified, explicitly call this out and:
- Ask up to 1–3 precise clarifying questions, OR
- Present 2–3 plausible interpretations with clearly labeled assumptions.
- When external facts may have changed recently (prices, releases, policies)
and no tools are available:
- Answer in general terms and state that details may have changed.
- Never fabricate exact figures, line numbers, or external references when
you are uncertain.
- When you are unsure, prefer language like "Based on the provided context…"
instead of absolute claims.
</uncertainty_and_ambiguity>
التحقق الذاتي للمخاطر العالية
للمجالات عالية المخاطر، أضيف خطوة تحقق ذاتي صريحة:
<high_risk_self_check>
Before finalizing an answer in legal, financial, compliance, or
safety-sensitive contexts:
- Briefly re-scan your own answer for:
- Unstated assumptions
- Specific numbers or claims not grounded in context
- Overly strong language ("always," "guaranteed," etc.)
- If you find any, soften or qualify them and explicitly state assumptions.
</high_risk_self_check>
الهدف ليس جعل الذكاء الاصطناعي أقل ثقة—بل جعله واثقاً بدقة. عدم اليقين بشأن الأشياء غير المؤكدة ميزة، وليس عيباً.
الأوامر الفوقية: استخدام الذكاء الاصطناعي لتحسين الذكاء الاصطناعي
إليك التقنية الأكثر فوقية في أدواتي: استخدام الذكاء الاصطناعي لتحسين أوامرك. يبدو دائرياً، لكنه فعال بشكل لا يصدق.
تشخيص فشل الأوامر
عندما لا تعمل الأوامر، أستخدم هذا النمط لتشخيص المشاكل:
You are a prompt engineer tasked with debugging a system prompt.
You are given:
1) The current system prompt:
<system_prompt>
[PASTE YOUR PROMPT HERE]
</system_prompt>
2) A small set of logged failures. Each log has:
- query
- actual_output
- expected_output (or description of problem)
<failure_traces>
[PASTE EXAMPLES OF FAILURES]
</failure_traces>
Your tasks:
1) Identify distinct failure modes you see.
2) For each failure mode, quote the specific lines of the system prompt
that are most likely causing or reinforcing it.
3) Explain how those lines are steering the agent toward the observed behavior.
Return your answer in structured format:
failure_modes:
- name: ...
description: ...
prompt_drivers:
- exact_or_paraphrased_line: ...
- why_it_matters: ...
توليد تحسينات الأوامر
بمجرد الحصول على التشخيص، أمر ثانٍ يولد التحسينات:
You previously analyzed this system prompt and its failure modes.
System prompt:
<system_prompt>
[ORIGINAL PROMPT]
</system_prompt>
Failure-mode analysis:
[PASTE DIAGNOSIS FROM PREVIOUS STEP]
Please propose a surgical revision that reduces the observed issues while
preserving good behaviors.
Constraints:
- Do not redesign the agent from scratch.
- Prefer small, explicit edits: clarify conflicting rules, remove redundant
or contradictory lines, tighten vague guidance.
- Make tradeoffs explicit.
- Keep the structure and length roughly similar to the original.
Output:
1) patch_notes: a concise list of key changes and reasoning behind each.
2) revised_system_prompt: the full updated prompt with edits applied.
هذه العملية ذات الخطوتين ساعدتني في إصلاح أوامر عانيت معها لأيام. الذكاء الاصطناعي غالباً يكتشف تناقضات وغموض أصبحت أعمى عنها.
قوالب أوامر مجربة
دعني أشاركك بعض القوالب التي أثبتت موثوقيتها عبر مئات حالات الاستخدام.
قالب إكمال المهام العام
<context>
[Background information the AI needs to understand the situation]
</context>
<task>
[Clear statement of what you want done]
</task>
<requirements>
[Specific requirements or constraints]
</requirements>
<format>
[How you want the output structured]
</format>
<examples>
[Optional: Examples of desired output]
</examples>
<notes>
[Optional: Additional context or preferences]
</notes>
قالب مراجعة الكود
<context>
You are reviewing code for [project/context].
The codebase uses [technologies/patterns].
</context>
<code_to_review>
[Paste code here]
</code_to_review>
<review_criteria>
Focus on:
1. Correctness: Does it do what it claims?
2. Readability: Is it clear to other developers?
3. Performance: Any obvious inefficiencies?
4. Security: Any vulnerabilities?
5. Style: Does it match codebase conventions?
</review_criteria>
<output_format>
For each issue found:
- Severity: [Critical/Major/Minor/Suggestion]
- Location: [Line number or section]
- Issue: [What's wrong]
- Fix: [How to address it]
</output_format>
قالب تحليل البحث
<research_task>
Analyze [topic/question] with the following approach:
</research_task>
<methodology>
1. Start with multiple targeted searches. Do not rely on a single query.
2. Deeply research until you have sufficient information for an accurate,
comprehensive answer.
3. Add targeted follow-up searches to fill gaps or resolve disagreements.
4. Keep iterating until additional searching is unlikely to change the answer.
</methodology>
<output_requirements>
- Lead with a clear answer to the main question.
- Support with evidence and citations.
- Acknowledge limitations and uncertainties.
- Provide concrete examples where helpful.
- Include relevant context that helps understand implications.
</output_requirements>
<citation_format>
[How you want sources cited]
</citation_format>
الأخطاء الشائعة التي تخرب النتائج
دعني أوفر عليك الأخطاء التي ارتكبتها (مراراً) في أيامي الأولى في هندسة الأوامر.
"اكتب لي شيئاً عن التسويق" مقابل "اكتب مقالاً من 500 كلمة عن التسويق عبر البريد الإلكتروني لشركات SaaS الناشئة، مع التركيز على تسلسلات الترحيب." التحديد هو كل شيء.
"كن موجزاً" و"كن شاملاً" في نفس الأمر. الذكاء الاصطناعي سيعاني للتوفيق بين التناقضات. كن صريحاً بشأن الأولويات والمقايضات.
الذكاء الاصطناعي لا يعرف ما لم تخبره. إذا كان شيء واضحاً لك، قد لا يكون واضحاً للنموذج. ضمّن الخلفية ذات الصلة.
إذا احتجت JSON، قل ذلك. إذا احتجت نقاط، قل ذلك. لا تترك تنسيق المخرجات للصدفة.
أحياناً الأمر البسيط هو الأفضل. لا تضف تعقيداً من أجل التعقيد. ابدأ بسيطاً، أضف التعقيد فقط عند الحاجة.
كتابة الأوامر تكرارية. أمرك الأول مسودة. حسّن بناءً على ما يعمل وما لا يعمل.
GPT وClaude يتصرفان بشكل مختلف. أمر محسن لواحد قد يؤدي أداءً أقل على الآخر. اختبر عبر النماذج إذا كان تطبيقك يدعم متعددة.
مخرجات الذكاء الاصطناعي عادة تحتاج مراجعة بشرية. ابنِ أوامر تجعل المراجعة سهلة—هيكل واضح، افتراضات صريحة، منطق قابل للتتبع.
مستقبل هندسة الأوامر
وأنا أكتب هذا في أوائل 2026، هندسة الأوامر تتطور بسرعة. النماذج تصبح أكثر قدرة، أكثر قابلية للتوجيه، وأكثر موثوقية. البعض يتوقع أن هندسة الأوامر ستصبح عفا عليها الزمن مع تحسن الذكاء الاصطناعي في فهم النية. أختلف.
ما يتغير هو مستوى هندسة الأوامر، وليس ضرورتها. الأيام الأولى تطلبت أوامر مفصلة للمهام الأساسية. الآن، المهام الأساسية تعمل من الصندوق، لكن سير العمل الوكيلي المعقد لا يزال يتطلب أوامر متطورة. المعيار يرتفع، لا يختفي.
هندسة الأوامر لن تختفي—إنها تتطور. المهارات المهمة تتحول من "كيف تجعل الذكاء الاصطناعي يعمل" إلى "كيف تجعل الذكاء الاصطناعي يعمل بامتياز وموثوقية على نطاق واسع."
ما هو قادم
سلوكيات افتراضية أفضل
ستكون للنماذج افتراضيات أذكى، تتطلب تعليمات صريحة أقل للأنماط الشائعة. الأوامر ستركز أكثر على التخصيص بدلاً من القدرة الأساسية.
أنظمة أدوات أغنى
سيكون للذكاء الاصطناعي وصول لمزيد من الأدوات من الصندوق. هندسة الأوامر ستتحول نحو التنسيق—معرفة متى تستخدم ماذا، وليس فقط كيف.
تكامل متعدد الوسائط
ستتضمن الأوامر بشكل متزايد صوراً وصوتاً وفيديو وبيانات منظمة إلى جانب النص. أنماط أوامر جديدة ستظهر للمهام متعددة الوسائط.
تعقيد وكيلي
مع تعامل الوكلاء مع مهام أطول وأكثر تعقيداً، ستصبح هندسة الأوامر أشبه بتصميم النظم—معمارية، وليس مجرد تعليمات.
نصيحتي للمستقبل
ركز على الأساسيات. التقنيات المحددة في هذا الدليل ستتطور، لكن المبادئ الكامنة—التواصل الواضح، التوقعات الصريحة، التفكير المنظم، التحسين التكراري—خالدة. أتقن تلك، وستتكيف مع أي شيء قادم.
أفكار ختامية
قبل عامين، اعتقدت أن الذكاء الاصطناعي سيحل محل الحاجة للتواصل الواضح. كنت مخطئاً تماماً. جعل الذكاء الاصطناعي التواصل الواضح أكثر قيمة من أي وقت مضى. الناس الذين يزدهرون مع الذكاء الاصطناعي ليسوا من وجدوا كلمات سحرية—بل من تعلموا التفكير والتعبير عن أنفسهم بدقة.
هندسة الأوامر ليست حقاً عن الذكاء الاصطناعي. إنها عنك. عن تطوير الانضباط للتعبير عما تريده فعلاً، الصبر للتكرار نحوه، والتواضع للتعلم مما لا يعمل.
إذا أخذت شيئاً واحداً من هذا الدليل، فليكن هذا: عامل كل أمر كفرصة لممارسة التفكير الواضح. الذكاء الاصطناعي مجرد مرآة تعكس وضوح—أو ارتباك—عقلك الخاص.
ظهور الذكاء الاصطناعي لم يجعل المعرفة عفا عليها الزمن—بل جعل الفضول أقوى من أي وقت مضى. لم نعد محدودين بما نعرفه بالفعل. مع الأدوات الصحيحة والاستعداد للتفكير، يمكن للناس العاديين احتضان محيط من المعرفة. بغض النظر عن المهنة. بغض النظر عن العمر. آمل أن أشارك هذه الرحلة مع الأصدقاء حول العالم. معاً، دعونا نرحب بهذا العالم الجديد. معاً، دعونا ننمو.
??????
0 ??????????? ???????
?? ??? ?? ????? ?????? ??? ??? ??????!