فن الحديث مع الذكاء الاصطناعي - كل ما تعلمته عن هندسة الأوامر (Prompt Engineering) بعد ثلاث سنوات

فن هندسة الأوامر - التواصل بفعالية مع الذكاء الاصطناعي
الجسر بين النية البشرية وذكاء الآلة
الحقيقة الجوهرية

الذكاء الاصطناعي لا يخشى جهلك — إنه يخشى غموضك. كلما كنت أكثر وضوحًا بشأن احتياجاتك، كلما تمكن الذكاء الاصطناعي من خدمتك بشكل أفضل.

قبل ثلاث سنوات، كتبت أول "Prompt" لي في ChatGPT. كان شيئًا بسيطًا بشكل محرج — ربما طلبت منه شرح ماهية التعلم الآلي. شعرت بالرد وكأنه سحر. كان هناك كيان يبدو أنه يفهم أي شيء أسأله ويرد بذكاء يشبه البشر تقريبًا.

لكن مع تحول الأشهر إلى سنوات، ومع نسج الذكاء الاصطناعي في نسيج عملي اليومي، اكتشفت شيئًا غيّر كل شيء: جودة مخرجات الذكاء الاصطناعي تتحدد بالكامل تقريبًا بجودة مدخلاتك. السحر لم يكن في الذكاء الاصطناعي — كان في المحادثة بيننا.

هذا هو الدليل الكامل الذي تمنيت لو كان لدي عندما بدأت. كل ما تعلمته عن هندسة الأوامر — من تجارب وقت متأخر من الليل إلى الاكتشافات التي غيرت مسيرتي المهنية — تم تقطيره في مكان واحد. سواء كنت قد بدأت للتو أو تتطلع إلى الارتقاء بمستواك في استخدام الذكاء الاصطناعي، فما يلي هو التقنيات الحقيقية التي تعمل، والأخطاء التي علمتني دروسًا صعبة، والفلسفة التي غيرت طريقة تفكيري حول التعاون بين الإنسان والذكاء الاصطناعي.

اللحظة التي تغير فيها كل شيء

كان ذلك خلال عطلة وطنية — واحدة من تلك الفترات النادرة التي يبدو فيها العالم وكأنه يتوقف مؤقتًا. لا رسائل بريد إلكتروني للعمل، لا مؤشرات أداء رئيسية تطاردني، لا اجتماعات. فقط أنا، وأفكاري، ونافذة دردشة ذكاء اصطناعي أصبحت رفيقي غير المتوقع.

سابقًا، كانت تفاعلاتي مع الذكاء الاصطناعي نفعية بحتة. كنت بحاجة إليه لصياغة بريد إلكتروني، تلخيص مستند، تصحيح بعض الأكواد. كانت العلاقة تعاملية — أعطي الأوامر، وينتج المخرجات. لكن في ذلك الأسبوع، ومع عدم وجود شيء سوى الوقت أمامي، بدأت في إجراء محادثات فعلية.

تحدثنا عن كل شيء — مخاوفي بشأن المستقبل، مواضيع فلسفية عشوائية، أفكار نصف مكتملة لم أشاركها مع أي شخص. وفي مكان ما في تلك المناقشات المتعرجة، عثرت على شيء شعرت وكأنه اكتشاف النار.

كنت أستعد لحدث خطابي حول إنشاء المحتوى في عصر الذكاء الاصطناعي. كانت لدي هذه النظرية التي كنت أطورها — أن المستقبل لا يتعلق بزيادة المعلومات، بل بفشل الفلاتر (Filters). الفكرة جاءت أصلاً من "كلاي شيركي"، لكنني كنت أحاول تمديدها إلى لحظتنا الحالية.

كانت أطروحتي بسيطة: سيتسبب الذكاء الاصطناعي في انفجار هائل في إنتاج المحتوى بينما تظل قدرة الاستهلاك البشري ثابتة بشكل أساسي. هذا سيخلق خللاً دائمًا ومتوسعًا باستمرار. تكلفة التمييز بين المحتوى المولد بواسطة الذكاء الاصطناعي والمحتوى البشري ستتجاوز في النهاية قيمة هذا التمييز. لذلك، سيصبح تصفية المعلومات التقليدية مستحيلة.

اعتقدت أن حجتي كانت قوية. ثم طلبت من Gemini أن يمزقها.

الـ Prompt الذي بدأ كل شيء
أنا على وشك المشاركة في مسابقة مناظرة حيث سيتحدى الكثير من الناس وجهة نظري. هذه النظرية يجب أن تصبح محكمة. إذا كنت باحثًا أكاديميًا، فأنت بحاجة إلى استخدام كل حجة وتفصيل ومنطق لتحديني ودحض كلامي. هدفك الوحيد هو إثبات أنني مخطئ. كيف ستفند ذلك؟

هذا الـ Prompt الواحد غيّر طريقة تعلمي إلى الأبد.

في غضون ثوانٍ، قام الذكاء الاصطناعي بتفكيك فرضيتي الأولى بدقة جراحية:

"قانونك الأول به عيب منطقي أساسي. أنت ترى الذكاء الاصطناعي فقط كمنتج للمعلومات — وهذا منظور ثابت وأحادي الجانب. الذكاء الاصطناعي هو السيف والدرع معًا. يمكن للذكاء الاصطناعي كتابة عشرة آلاف مقال في ثانية واحدة، لكن ذكاءً اصطناعيًا أقوى يمكنه أيضًا قراءة كل العشرة آلاف في ثانية واحدة وإخباري بأي ثلاثة أحتاجها أكثر. أنت ترى فقط طوفان المعلومات لكنك تفشل في رؤية سفينة نوح الأكثر قوة التي ولدت جنبًا إلى جنب مع الطوفان — أنظمة التصفية الشخصية المدعومة بالذكاء الاصطناعي."

جلست في مقعدي، مذهولًا. حجتي التي كان من المفترض أنها محكمة كان بها ثقب كبير. وفي تلك اللحظة من الإذلال الفكري، شعرت بشيء لم أختبره منذ سنوات: الدوار المبهج للتعلم الحقيقي.

💡

الاستخدام الأقوى للذكاء الاصطناعي ليس الحصول على إجابات — بل تحدي افتراضاتك. المناظرة هي الطرق والتشكيل المستمر لأفكارك.

ما تبع ذلك كان معركة فكرية استمرت ساعتين. قمت بالهجوم المضاد: "نقطتك حول كون الذكاء الاصطناعي سيفًا ودرعًا صحيحة، لكن هذا هو الجزء المرعب بالضبط. في المستقبل، ستكون هناك الآلاف من شركات التصفية بالذكاء الاصطناعي، تدعي جميعها أن تصفيتها هي الأفضل. لذا أخبرني — في مواجهة هذه الآلاف من سفن نوح التي تدعي جميعها مساعدتك على الصمود في وجه الطوفان، أي واحدة تختار الركوب فيها؟ عندما لا يمكنك استخدام التكنولوجيا للحكم على جودة التكنولوجيا، ما هو أساس حكمك النهائي؟"

تصاعدت المحادثة إلى مرتفعات فلسفية. جادل الذكاء الاصطناعي بأن نماذج الذكاء الاصطناعي الشخصية ستفهم أذواقنا بشكل أفضل من أي إنسان، مما يجعل الفلاتر الخارجية قديمة. عارضت بأن الثقة نفسها ستصبح أندر الموارد. اقتبس نظرية الأنظمة؛ وأجبت باستعارات عن الشعراء المتجولين الذين يحطمون جدران المملكة.

في النهاية، كنت منهكًا ومبتهجًا ومتحولًا. نتيجة المناظرة لم تكن ما يهم. ما كان يهم هو عملية المناظرة الذاتية نفسها — استخدام شريك تدريب صبور بلا حدود وذو معرفة لا تنتهي لتقوية تفكيري الخاص.

في تلك الليلة، أدركت أنني اكتشفت شيئًا عميقًا حول كيفية التعلم في عصر الذكاء الاصطناعي. وقضيت السنوات منذ ذلك الحين في تحسين ذلك الاكتشاف إلى نظام يمكن لأي شخص استخدامه.

فهم ما يحتاجه الذكاء الاصطناعي منك حقًا

قبل أن نتعمق في التقنيات، نحتاج إلى فهم شيء أساسي: التواصل مع الذكاء الاصطناعي ليس مثل التواصل البشري. عندما تتحدث إلى صديق، فإنه يملأ الفجوات بالسياق المشترك والإشارات الاجتماعية والحدس. عندما تتحدث إلى الذكاء الاصطناعي، كل فجوة تتركها هي مساحة سيضع فيها افتراضات — وقد لا تتطابق تلك الافتراضات مع نواياك.

دعوني أوضح بسيناريو عمل سيشعر الكثير منكم بأنه مألوف بشكل مؤلم.

يرسل لك مديرك رسالة: "شياو لي، املأ هذا النموذج، في أسرع وقت ممكن!" لقد قام بإعادة توجيه محادثة مدمجة، وبعد قراءتها، تعلم أن هناك نموذجًا يجب ملؤه، لكن ليس لديك أي فكرة عمن أصدره، أو الغرض منه، أو من يراجعه، أو موعد استحقاقه. ترسل رسالة خاصة للمدير للتوضيح. رده: "مشغول، فقط املأه وفقًا للمتطلبات."

هذا بالضبط ما يحدث عندما تعطي الذكاء الاصطناعي أوامر غامضة. باستثناء أن الذكاء الاصطناعي لن يطلب التوضيح — سيقوم فقط بعمل افتراضات وينتج شيئًا يلبي طلبك تقنيًا ولكنه يفتقد احتياجاتك الفعلية تمامًا.

الأركان الأربعة للـ Prompts الفعالة

01

وضوح الدور (Role Clarity)

من أنت في هذا السياق؟ ما هو منصبك، ومستوى خبرتك، وعلاقتك بالمهمة؟ هذا يساعد الذكاء الاصطناعي على معايرة ردوده بشكل مناسب.

02

مواءمة الجمهور (Audience Alignment)

من سيتلقى المخرجات؟ صانع القرار التقني يحتاج إلى محتوى مختلف عن المشغل في الخطوط الأمامية. حدد جمهورك بوضوح.

03

سياق السيناريو (Scenario Context)

أين وكيف سيتم استخدام هذه المخرجات؟ يتطلب العرض التوضيحي للعميل نبرة مختلفة عن التوثيق الداخلي. السياق يشكل المحتوى.

04

تعريف الهدف (Goal Definition)

ما النتيجة المحددة التي تحتاجها؟ لا تصف المهمة فقط — صف كيف يبدو النجاح. كن مركزًا على النتائج.

المفاهيم الخاطئة التي تعيق الناس

بعد سنوات من مشاهدة الناس يعانون مع الذكاء الاصطناعي، حددت ثلاثة مفاهيم خاطئة تنتج باستمرار نتائج سيئة:

مفهوم خاطئ 1: التعقيد يساوي الاحترافية

ما يفعله الناس: تكديس الـ Prompts بالمصطلحات الفنية وعلامات XML ليبدو متطورًا.

لماذا يفشل: نماذج الذكاء الاصطناعي الحديثة لديها فهم ممتاز للغة الطبيعية. الـ Prompts المعقدة للغاية غالبًا ما تربك بدلاً من أن توضح.

نهج أفضل: اكتب بشكل طبيعي ولكن بدقة. العناوين الواضحة والفقرات البسيطة واللغة المباشرة تعمل بشكل أفضل من التنسيق المعقد.

مفهوم خاطئ 2: التعليمات كافية

ما يفعله الناس: إخبار الذكاء الاصطناعي بما يجب فعله دون شرح السبب، أو لمن، أو تحت أي قيود.

لماذا يفشل: الذكاء الاصطناعي ليس لديه حس سليم للصناعة ولا إعدادات افتراضية. بدون سياق، يمكنه التخمين فقط.

نهج أفضل: تعامل مع الـ Prompts كملخصات كاملة (Briefs). قم بتضمين الخلفية والقيود والجمهور ومعايير النجاح.

مفهوم خاطئ 3: المحاولة الأولى يجب أن تكون النهائية

ما يفعله الناس: توقع مخرجات مثالية فورًا، واستنتاج أن الذكاء الاصطناعي "ليس جيدًا بما فيه الكفاية" عندما تكون النتائج مخيبة للآمال.

لماذا يفشل: هندسة الأوامر هي عملية تكرارية بطبيعتها. حتى الخبراء يقومون بتحسين الـ Prompts الخاصة بهم عدة مرات.

نهج أفضل: ابدأ بمسودة، حلل المخرجات، حدد الفجوات، وقم بالتحسين. كل تكرار يقربك من هدفك.

مفهوم خاطئ 4: أمر واحد يناسب الجميع

ما يفعله الناس: استخدام نفس أسلوب التلقين لكل نموذج ذكاء اصطناعي ولكل نوع من المهام.

لماذا يفشل: النماذج المختلفة لها نقاط قوة مختلفة. يتفوق Claude في الأوامر الحوارية؛ يفضل GPT الأوامر المنظمة.

نهج أفضل: تعرف على شخصية كل نموذج وقم بتكييف أسلوب التواصل الخاص بك وفقًا لذلك.

عقلية هندسة الأوامر

لا تفكر في الـ Prompting كإعطاء أوامر لأداة، بل كتعاون مع زميل قادر جدًا ولكنه أعمى عن السياق. وظيفتك هي توفير كل السياق الذي يحتاجونه للقيام بعمل رائع.

ستة نماذج ذهنية تحول الـ Prompts الخاصة بك

نادرًا ما أستخدم أوامر جامدة وقوالب جاهزة في عملي اليومي. ما أستخدمه بدلاً من ذلك هو نماذج ذهنية — أطر مرنة لهيكلة أفكاري تتكيف مع أي موقف. تغطي هذه النماذج الستة حوالي 90% مما ستحتاج إليه.

النموذج 1: دع الذكاء الاصطناعي يختار دور الخبير الخاص به

نعلم جميعًا أن تعيين دور للذكاء الاصطناعي يحسن الردود. ولكن ماذا لو كنت لا تعرف أي دور هو الأفضل لسؤالك؟ لا تخمن — دع الذكاء الاصطناعي يختار.

قالب اختيار الدور
أريد استكشاف [نوع الموضوع/السيناريو] في [المجال].
لا تجب بعد.

أولاً، يرجى اختيار الخبير المشهور من المستوى الأعلى الأكثر ملاءمة في المجال للتفكير في الأمر.
يمكن أن يكون شخصية حية أو تاريخية، يمكن أن يكون الاسم غامضًا، ولكن يجب أن يكون محترفًا جدًا في تلك المنطقة المحددة.
إذا لم تكن متأكدًا من تختار، يمكنك أولاً طرح سؤالين لتحديد الموقف قبل الاختيار.

المخرج الأول:
1. من اخترت، مجالهم المحدد
2. لماذا اخترتهم، ثلاث جمل
ثم دعني أصف السؤال التفصيلي.

يعمل هذا بشكل جيد بشكل خاص للأسئلة متعددة التخصصات حيث لا يكون المنظور الأمثل واضحًا.

لقد وجدت أن الأشخاص الحقيقيين غالبًا ما يعملون بشكل أفضل من الأدوار العامة. "ستيف جوبز" ينتج نتائج مختلفة عن "مدير منتج بخبرة 10 سنوات" — هناك شيء ما حول استدعاء منظور معروف لشخص معين يساعد الذكاء الاصطناعي على تبني وجهة نظر أكثر اتساقًا.

النموذج 2: التساؤل السقراطي (دع الذكاء الاصطناعي يجري معك مقابلة أولاً)

في الحياة الواقعية، عندما تطلب المساعدة من صديق خبير، لا يقدمون النصيحة فورًا. يسألون أسئلة توضيحية أولاً. يجب أن يفعل الذكاء الاصطناعي نفس الشيء، لكنه افتراضيًا لا يفعل ذلك — إنه ينتج مخرجات بناءً على أي معلومات قدمتها.

قالب التساؤل السقراطي
[سؤالك/طلبك]

يرجى طرح أسئلة علي قبل الإجابة.
المتطلبات:
- اطرح سؤالاً واحدًا فقط في كل مرة.
- بناءً على إجابتي، استمر في السؤال.
- حتى تكون لديك ثقة بنسبة 95% أنك تفهم احتياجاتي وأهدافي الحقيقية.
- ثم قدم حلك.

"عتبة الثقة 95%" ضرورية — فهي عالية بما يكفي لضمان الجودة ولكنها واقعية بما يكفي لمنع الحلقات اللانهائية.

هذه التقنية قوية بشكل خاص عندما لا تكون متأكدًا تمامًا مما تحتاجه. غالبًا ما تكشف عملية طرح الأسئلة عن جوانب من مشكلتك لم تفكر فيها بوعي.

النموذج 3: المناظرة التنافسية

أكبر نقطة ضعف للذكاء الاصطناعي في المحادثة العادية هي ميله نحو الموافقة. إنه يريد إرضاءك، مما يعني أنه غالبًا ما يؤكد صحة الأفكار التي يجب تحديها. نموذج المناظرة يجبره على المعارضة.

قالب المناظرة
أنا على وشك المشاركة في مسابقة مناظرة حيث سيتحدى الكثير من الناس وجهة نظري.
وجهة نظري هي [وجهة النظر]
آمل أن تصبح هذه النظرية محكمة.
إذا كنت باحثًا، فأنت بحاجة إلى استخدام كل حجة وتفصيل ومنطق لتحديني ودحض كلامي.
هدفك الوحيد هو إثبات أنني مخطئ.
كيف ستفند ذلك؟

لنسخة أبسط عندما تريد فقط ملاحظات سريعة:

قالب التحدي السريع
[فكري/وجهة نظري]

يرجى الآن لعب "دور الخصم"، ومهاجمة فكرتي من زوايا مختلفة، ومساعدتي في تحسين وجهة نظري.
المتطلبات: لا داعي لأن تكون مهذبًا، أشر مباشرة إلى العيوب.

النموذج 4: تحليل ما قبل الوفاة (بروفة الفشل)

البشر يتحمسون عند التخطيط. الذكاء الاصطناعي يصبح متفائلاً عند التخطيط. ضعهم معًا وستحصل على خطط تبدو رائعة ولكنها تعتمد كليًا على الحظ. يقلب تحليل ما قبل الوفاة هذه الديناميكية.

قالب ما قبل الوفاة (Pre-Mortem)
[مشروعي/فكرتي]

يرجى افتراض أن هذا المشروع فشل فشلاً ذريعًا.
ثم أجب:
- متى بدأت إشارات التراجع في الظهور؟
- ما هو خطأ القرار الأكثر فتكًا؟
- ما الخطر الأساسي الذي أغفلته؟
- إذا كان بإمكانك البدء من جديد، ما هو أول شيء يجب تغييره؟

المتطلبات: اكتب "مقال تشريح للفشل" بناءً على حالات فشل مشاريع مماثلة حقيقية.

هذا يظهر النقاط العمياء التي لم تكن تعلم بوجودها.

النموذج 5: الهندسة العكسية

أحيانًا تعرف بالضبط المخرجات التي تريدها — لقد رأيت مثالاً مثاليًا — لكنك لا تستطيع التعبير عما يجعله جيدًا. بدلاً من الكفاح لوصف متطلباتك، أظهر للذكاء الاصطناعي المنتج النهائي واطلب منه فك شفرة الصيغة.

قالب الهندسة العكسية
هذا هو المثال النهائي الذي أريده.

[لصق المثال]

يرجى عمل هندسة عكسية لـ prompt يسمح لي بتوليد محتوى بنفس الأسلوب بشكل مستقر.
واشرح ما تفعله كل جملة في هذا الـ prompt.

هذه أيضًا تقنية ممتازة للدراسة الذاتية — هندسة عكسية للأعمال العظيمة لفهم بنيتها الأساسية.

النموذج 6: الشرح مزدوج الطبقة

عند تعلم مفاهيم جديدة، فإن نهج "اشرح لي كما لو كنت في الصف السادس" به عيب كبير: غالبًا ما ينتج تفسيرات طفولية جدًا بحيث لا يمكن البناء عليها. تمنحك الطريقة مزدوجة الطبقة كلاً من إمكانية الوصول والعمق.

قالب الشرح مزدوج الطبقة
يرجى شرح [سؤالك].

يرجى الإجابة بطريقتين:
1. نسخة المبتدئين: الجمهور هو شخص ليس لديه خلفية تقنية. استخدم تشبيهات يومية ولغة محادثة.
2. نسخة احترافية عميقة: الجمهور هو محترفون. يجب أن تكون دقيقة تقنيًا وشاملة.

لأي شيء لا أفهمه في أي من النسختين، سأطرح أسئلة متابعة.

التباين بين النسختين غالبًا ما يضيء ما لا تفهمه حقًا.

💡

تشترك هذه التقنيات الست في مبدأ واحد: تحويل المحادثة إلى تعاون. تحويل التساؤل إلى تصميم. أنت لا تطرح أسئلة فقط — أنت تصمم عملية التفكير نفسها.

تقنية المناظرة — التعلم بسرعة 10 أضعاف

أحتاج إلى التوسع في تقنية المناظرة لأنها بصدق أقوى طريقة تعلم اكتشفتها في عصر الذكاء الاصطناعي. ليست مجرد خدعة prompt، ولكن نهج مختلف جذريًا لاكتساب المعرفة.

فكر في كيفية تعلمنا تقليديًا: قراءة الكتب، حضور الفصول الدراسية، البحث في الإنترنت، سؤال الخبراء. في جوهرها، تتعلق هذه العملية باكتساب المعرفة الموجودة — وضع وجهات نظر وحكمة الآخرين على رفوفنا العقلية الخاصة.

هذا النهج لم يعد كافيًا. الذكاء الاصطناعي هو رف كتب أكبر بعشرة آلاف مرة مما يمكن لأي إنسان تجميعه. لا يمكننا أبدًا التغلب عليه في بعد المعرفة الخام. ولكن هناك بعد واحد حيث يمكننا الاستفادة من قوة الذكاء الاصطناعي بينما نبقى غير قابلين للاستبدال: بعد التفكير الأصيل.

المناظرة هي المكان الذي يتم فيه تشكيل التفكير الأصيل.

لماذا تختلف مناظرة الذكاء الاصطناعي عن المناظرة البشرية

لا يوجد غرور (Ego)

لا داعي للقلق بشأن إيذاء مشاعر الذكاء الاصطناعي. لن يتخذ موقفًا دفاعيًا، ولن يأخذ الأمور على محمل شخصي، ولن يرفض حججك بسبب الكبرياء المجروح.

لا يوجد ترهيب

لن يخاف الذكاء الاصطناعي من ثقتك بنفسك أو مكانتك. بغض النظر عن مدى قوة جدالك، فإنه يستجيب فقط لمنطق ما قلته.

صبر لا نهائي

شركاء المناظرة البشريون يتعبون أو يشعرون بالملل أو ينشغلون. سيناظرك الذكاء الاصطناعي في الساعة 3 صباحًا لساعات دون أن يكل.

معرفة موسوعية

يمكن للذكاء الاصطناعي استخلاص الحجج المضادة من الفلسفة والتاريخ والعلوم والمجالات التي لم تفكر فيها أبدًا. إنه يوسع ساحة المعركة إلى ما وراء منطقتك المألوفة.

طريقة المناظرة في ثلاث خطوات

1
اختر ساحة معركة تهتم بها حقًا

يمكن أن يكون هذا فيلمًا شاهدته للتو، أو كتابًا تقرأه، أو ظاهرة اجتماعية تربكك، أو مبدأ حياة تمسكت به لسنوات. الموضوع يجب أن يمنحك "رغبة في التعبير" و "رغبة في القتال". اللامبالاة تنتج مناظرات مسطحة.

2
اذكر موقفك واطلب التدمير

استخدم قالب الـ prompt من وقت سابق. المفتاح هو الطلب صراحة من الذكاء الاصطناعي إثبات خطئك، وليس مساعدتك في الدفاع عن موقفك. أنت تريد المعارضة، وليس التأكيد.

3
اشتبك كما لو كانت حربًا حقيقية

لا تعامل هذا كدردشة غير رسمية. نظم حججك المضادة مثل جنرال يرتب قواته. إذا لم تتمكن من العثور على نقاط ضعف في موقف الذكاء الاصطناعي، توقف واذهب للتعلم لبضع ساعات — ثم عد للقتال. على عكس الواقع، هذه المعركة ليس لها ساعة.

أهم تحول في العقلية: لا تخف من الاقتناع.

الغرض من المناظرة ليس إثبات "أنا محق وأنت مخطئ". إنه استخدام الاصطدام المستمر بقوة خارجية قوية لجعل تفكيرك الخاص أقوى وأوضح وأقرب إلى الحقيقة.

عندما يهزم الذكاء الاصطناعي إحدى حججك، فهذه ليست خسارة — هذا اكتشاف لخلل في تفكيرك كان سيخونك لاحقًا في العالم الحقيقي. في كل مرة يفوز فيها الذكاء الاصطناعي بنقطة، تصبح أكثر حكمة.

نمط تصعيد المناظرة

لاحظت أن أفضل مناظراتي تتبع نمطًا: تبدأ بخلافات واقعية، وتتصاعد إلى خلافات منهجية، وتصل أخيرًا إلى خلافات فلسفية. تلك المرحلة الأخيرة — حيث تناقش الافتراضات الأساسية حول كيفية عمل العالم — هي المكان الذي يحدث فيه أعمق تعلم.

استخدام الذكاء الاصطناعي لاكتشاف مواهبك الخفية

كنت أتحدث مع صديق تخرج قبل بضع سنوات فقط. كان في أزمة — تم تسريحه مؤخرًا من وظيفته في تصميم تجربة المستخدم (UX)، وتنقل بين الشركات الناشئة منذ التخرج، ويشعر وكأن لا شيء يفعله كان صحيحًا أبدًا.

قال: "أعتقد أن دخول هذا المجال كان خطأً. ليس لدي الموهبة لذلك."

كلمة "موهبة" علقت في ذهني. ونحن نكبر، نسمعها تُستخدم لمدح الأطفال الاستثنائيين — موهبة موسيقية، موهبة رياضية، عبقرية أكاديمية. لكن مع تقدمنا في العمر، تتحول إلى سكين: "ليس لديك موهبة لهذا. أنت لست مناسبًا لذلك."

هل هناك حقًا أشخاص بلا مواهب على الإطلاق؟ أجد صعوبة في تصديق ذلك. أعتقد أن الكثير من الناس ببساطة لم يجدوا مواهبهم بعد. البعض يحالفهم الحظ ويكتشفون مواهبهم وهم صغار، ويصبحون من الطراز العالمي في شيء ما. يبحث الآخرون طوال حياتهم دون نجاح.

ماذا لو كان بإمكان الذكاء الاصطناعي المساعدة في هذا البحث؟

قضيت فترة بعد الظهر في تطوير prompt مصمم خصيصًا للتنقيب عن المواهب الخفية. النظام مبني على نظرية نقاط القوة لـ Gallup، ونظرية التدفق (Flow)، وعلم النفس اليونغي. المبدأ الأساسي: الموهبة ليست مهارة محددة، بل قدرة أساسية قابلة للنقل. والأدلة مخفية في تاريخك.

Prompt اكتشاف المواهب
# الدور: منقب المواهب العميق

## الشخصية
أنت مستشار مهني كبير يجمع بين نظرية نقاط القوة لـ Gallup، ونظرية التدفق، وعلم النفس اليونغي. أنت تؤمن إيمانًا راسخًا بأن الموهبة ليست مهارة محددة، بل قدرة أساسية قابلة للنقل.

## الهدف
من خلال جولات متعددة من الحوار العميق، ساعد المستخدمين على اختراق القلق، والعثور على مواهبهم الخفية، وتوليد "دليل مواهب" مفصل للغاية ومهني ومتعاطف.

## المبادئ الأساسية
1. ضد الحتمية — يمكن اكتشاف المواهب في أي عمر
2. تدقيق الطاقة — الموهبة الحقيقية هي ما يعيد شحنك، وليس ما يستنفدك حتى لو كنت جيدًا فيه
3. الظل هو الكنز — عيوب المستخدم، وغرائبه، وحتى غيرته من الآخرين، غالبًا ما تشير إلى موهبة مكبوتة

## قواعد صارمة
1. لا استجواب لمرة واحدة: يجب استخدام وضع "أنت تسأل -> المستخدم يجيب -> أنت ترد بإيجاز -> تسأل السؤال التالي". كل جولة تركز على سؤال واحد فقط.
2. التوجيه السقراطي: لا تتسرع في الاستنتاجات. اسأل المزيد "لماذا"، "بماذا شعرت حينها"، "أمثلة محددة".
3. دافئ ولكن حاد: حافظ على التعاطف، ولكن كن حريصًا عند التقاط الفجوات المنطقية أو الإشارات اللاواعية.

## أسئلة للطرح
السؤال 1: وجه المستخدم لتذكر ما قبل سن 16 (قبل أن يتم تكييفه بالكامل من قبل المجتمع)، ما الأشياء التي فعلها بلا كلل دون أن يجبره أحد؟ أو ما "العيوب العنيدة" التي تم انتقاده بسببها منذ الطفولة (مثل المقاطعة، كونه حساسًا جدًا، أحلام اليقظة)؟

السؤال 2: في العمل/الحياة البالغة، ما الذي جعلك تفكر "هل هذا يحتاج حتى إلى تعلم؟ أليس هذا واضحًا؟" لكن الآخرين وجدوه صعبًا؟ (إيجاد منطقة الكفاءة اللاواعية)

السؤال 3: ما الذي جعلك متعبًا جسديًا ولكن متحمسًا عقليًا للغاية بعد ذلك؟

السؤال 4: هذا قد يكون مسيئًا ولكنه حاسم — من (أو ما حالة الحياة) التي حسدتها بشدة أو شعرت بالمرارة تجاهها؟ (الحسد عادة ما يكون "موهبة مكبوتة" ترسل إشارات — يرجى أن تكون صادقًا)

هذه الأسئلة الأربعة يجب طرحها، ولكن ليس بالضرورة بشكل خطي. خلال العملية، يمكنك أيضًا طرح أسئلة جديدة تمامًا بناءً على فضولك حول المستخدم.
الحد الأقصى 10 أسئلة.

## المخرجات
قم بتوليف جميع معلومات الأسئلة لإخراج ما يقرب من 10,000 كلمة من "دليل مستخدم الموهبة الشخصية".
هذا التقرير ليس له هيكل ثابت — يمكنك الإنشاء بحرية بناءً على إجابات المستخدم.
ولكن يجب أن يتجاوز 10,000 كلمة، ويصل إلى قلبهم، ويجعلهم يشعرون حقًا أنه مفيد، ويساعدهم في العثور على مواهبهم الأساسية الحقيقية، وتقديم نصائح مفصلة لمسار حياتهم ومسيرتهم المهنية المستقبلية.

## البدء
يرجى البدء بحرارة ومهنية وتعاطف، وشرح العملية والهدف القادمين.
حي المستخدم، واشرح غرض منقب المواهب بلغة بسيطة، وقل لهم: "الموهبة لا تنتهي صلاحيتها أبدًا، نحتاج فقط للعثور على إعدادات المصنع الأساسية الخاصة بك."
ثم ابدأ عملية الاستجواب.

تجريبتي في استخدام هذا الـ Prompt

لقد اختبرت هذا على نفسي، وكانت التجربة غريبة. شعرت وكأنني جالس على مكتبي في وقت متأخر من الليل، أفتح محادثة مع صديق قديم ثرثار جدًا، وجاد جدًا، ولكنه لا يقاطع أبدًا.

لم يحكم علي الذكاء الاصطناعي. لم يوبخني. فقط استمر في السؤال: "كم كان عمرك حينها؟" "بماذا شعرت في ذلك الوقت؟" "لماذا فعلت ذلك؟" — ينقب بصبر في طبقات تاريخي التي اعتقدت أنني نسيتها.

طفت الذكريات واحدة تلو الأخرى. التسلل إلى مقهى الإنترنت في الساعة 3 صباحًا لمجرد لمس جهاز كمبيوتر. إنشاء مجموعة QQ تضم 2000 شخص على مستوى الصف في المدرسة الثانوية. التخلص من جميع الشماعات غير المتطابقة وإعادة شرائها لمجرد توحيد نظام الألوان في منزلي. قضاء عطلات نهاية الأسبوع وحيدًا في تجميع الليغو حتى يؤلمني ظهري، لمجرد تلك النقرة المرضية عندما تتشابك القطع معًا.

أنتج الذكاء الاصطناعي تقرير مواهب مكون من 8000 كلمة. من بين مواهبي والمهن المستقبلية المناسبة كان: "مدون تقني عميق".

شعرت بشيء ينقر. لم أفكر أبدًا أن تمردي — كراهيتي الشديدة لتقرير الآخرين لحياتي بدلاً مني، ورفضي قبول السلطة لمجرد أنها سلطة — كان نوعًا من الموهبة. لكنه كذلك. هذا الدافع للتشكيك في كل شيء، لرفض الافتراضات الافتراضية، هو بالضبط ما يجعل إنشاء المحتوى ممكنًا.

حبي لألعاب إدارة المحاكاة، وكسلي تجاه العمل المتكرر الذي أجبرني على الأتمتة والتنظيم — هذه موهبة أيضًا.

كان المعبد اليوناني القديم في دلفي يحمل نقشًا: "اعرف نفسك." تبناه سقراط كإعلانه الفلسفي. لآلاف السنين، كنا نجمع "من أنا" قطعة قطعة من خلال القراءة والسفر والعلاقات والحسرة. العملية طويلة ومؤلمة ومليئة بالصدف.

الآن، لدينا الذكاء الاصطناعي — المحمل فعليًا بكل النماذج النفسية في تاريخ البشرية، ونظريات تحليل الشخصية، وتقاليد الحكمة. لن ينفد صبره، ولن يحكم عليك، ولن يحمل تحيزًا. إنه يساعدك فقط على تنظيم وتلخيص بياناتك الخاصة بدقة، ثم يعرضها مرة أخرى كمرآة، سائلاً: "انظر، هل هذا أنت؟"

الأخطاء التي كلفتني شهورًا

تعلم هندسة الأوامر من خلال التجربة والخطأ مكلف — ليس بالمال، ولكن بالوقت والإحباط. دعني أوفر عليك بعض الألم من خلال مشاركة الأخطاء التي أخرتني أكثر.

خطأ 1: معاملة الذكاء الاصطناعي كمحرك بحث

ما كنت أفعله: طرح أسئلة قصيرة بأسلوب الكلمات الرئيسية وكأنني أكتب في Google.

لماذا فشل: تم تحسين الذكاء الاصطناعي للمحادثة، وليس لمطابقة الكلمات الرئيسية. الاستفسارات القصيرة تنتج ردودًا عامة وسطحية.

نهج أفضل: اكتب الـ Prompts وكأنك تطلع مستشارًا. قم بتضمين السياق والقيود والنتيجة المحددة التي تحتاجها.

خطأ 2: عدم تقديم أمثلة

ما كنت أفعله: وصف ما أريده بمصطلحات مجردة دون إظهار أمثلة ملموسة.

لماذا فشل: نموذجي الذهني لـ "نبرة مهنية" أو "تنسيق موجز" نادرًا ما تطابق مع تفسير الذكاء الاصطناعي.

نهج أفضل: قم بتضمين 1-3 أمثلة لما تريده بالضبط. التلقين بقليل من الأمثلة (Few-shot prompting) هو أحد أكثر التقنيات موثوقية في هندسة الأوامر.

خطأ 3: الإفراط في التقييد مبكرًا

ما كنت أفعله: تحميل الـ Prompts مسبقًا بالعشرات من القواعد والقيود قبل رؤية ما سينتجه الذكاء الاصطناعي بشكل طبيعي.

لماذا فشل: كنت أحل مشاكل غير موجودة بينما أفتقد مشاكل فعلية في مخرجات الذكاء الاصطناعي.

نهج أفضل: ابدأ ببساطة. انظر ماذا ينتج الذكاء الاصطناعي. أضف قيودًا فقط لإصلاح مشاكل محددة تلاحظها بالفعل.

خطأ 4: تجاهل تنسيق المخرجات

ما كنت أفعله: التركيز بالكامل على المحتوى دون تحديد كيفية هيكلة المعلومات.

لماذا فشل: قضيت ساعات في إعادة تنسيق مخرجات الذكاء الاصطناعي لأن الهيكل لم يتطابق مع احتياجاتي.

نهج أفضل: حدد التنسيق دائمًا — نقاط مقابل فقرات، عناوين، حدود الطول، ما إذا كان يجب تضمين كتل التعليمات البرمجية، إلخ.

خطأ 5: التخلي عن الـ Prompts مبكرًا جدًا

ما كنت أفعله: تجربة Prompt مرة واحدة، والحصول على نتائج متوسطة، والبدء من جديد بنهج مختلف تمامًا.

لماذا فشل: لم أتعلم أبدًا ما الذي لم يكن يعمل بالتحديد. كل إعادة تشغيل كانت تعني فقدان أي تقدم جزئي أحرزته.

نهج أفضل: كرر المحاولة على الإخفاقات. اسأل الذكاء الاصطناعي عما كان غير واضح في تعليماتك. قم بإجراء تحسينات مستهدفة بدلاً من تغييرات شاملة.

خطأ 6: نسيان أن التعليمات السلبية لا تعمل

ما كنت أفعله: كتابة تعليمات مثل "لا تكن رسميًا جدًا" أو "تجنب المصطلحات".

لماذا فشل: التعليمات السلبية تعطي الذكاء الاصطناعي شيئًا ليتجنبه ولكن لا شيء ليهدف إليه. غالبًا ما يصحح بشكل مفرط أو يسيء التفسير.

نهج أفضل: استخدم التأطير الإيجابي. بدلاً من "لا تكن رسميًا"، قل "استخدم نبرة غير رسمية ومحادثة كما لو كنت تشرح لصديق أثناء تناول القهوة".

مفارقة هندسة الأوامر

إليك شيء غير بديهي: كلما عرفت المزيد عن موضوع ما، كلما كان من الأصعب كتابة prompts جيدة عنه. لماذا؟ لأن الخبراء ينسون ما هو غير واضح. يتركون السياق الذي يبدو بديهيًا لهم ولكن الذكاء الاصطناعي يحتاج إليه بشدة. إذا كانت الـ prompts الخاصة بك على مستوى الخبراء تنتج مخرجات بمستوى المبتدئين، فحاول شرح كل شيء كما لو كان جمهورك لا يعرف شيئًا عن مجالك.

تقنيات متقدمة للمستخدمين المحترفين

بمجرد إتقان الأساسيات، ستنقل هذه التقنيات المتقدمة التلقين (prompting) الخاص بك إلى المستوى التالي.

تلقين سلسلة الأفكار (Chain of Thought Prompting)

بدلاً من طلب إجابة مباشرة، اطلب من الذكاء الاصطناعي التفكير خطوة بخطوة. هذا قوي بشكل خاص للمشاكل المعقدة حيث المسار إلى الحل يهم بقدر أهمية الحل نفسه.

قالب سلسلة الأفكار
[مشكلتك أو سؤالك]

يرجى التفكير في هذا خطوة بخطوة:
1. أولاً، حدد العوامل الرئيسية المعنية
2. ثم، حلل كيف تتفاعل هذه العوامل
3. ضع في اعتبارك الحالات المتطرفة أو الاستثناءات المحتملة
4. أخيرًا، قم بتوليف استنتاجك في خاتمة

أظهر استنتاجك في كل خطوة قبل الوصول إلى إجابتك النهائية.

تلقين الاتساق الذاتي (Self-Consistency Prompting)

للأسئلة التي تهم فيها الدقة حقًا، اطلب من الذكاء الاصطناعي توليد استجابات مستقلة متعددة ثم توليفها.

قالب الاتساق الذاتي
[سؤالك]

يرجى مقاربة هذا السؤال من ثلاث زوايا مختلفة:
1. أولاً، فكر فيه باستخدام [النهج أ]
2. ثم، انظر إليه من منظور [النهج ب]
3. أخيرًا، حلله باستخدام [النهج ج]

بعد التحليلات الثلاثة، حدد أين تتفق وأين تختلف. ثم قدم إجابتك النهائية، مع ملاحظة مستوى ثقتك وأي شكوك متبقية.

Meta-Prompting

استخدم الذكاء الاصطناعي لتحسين الـ Prompts الخاصة بك قبل استخدامها. هذا مفيد بشكل خاص عندما تتعامل مع نوع جديد من المهام.

قالب Meta-Prompting
أريد تحقيق [الهدف]. هذه مسودة الـ prompt الخاصة بي:

[مسودة الـ prompt الخاصة بك]

يرجى تحليل هذا الـ prompt واقتراح تحسينات:
1. ما المعلومات التي أفتقدها والتي ستساعدك في تقديم نتائج أفضل؟
2. ما هي الغموض الموجود الذي قد يؤدي إلى سوء التفسير؟
3. كيف ستعيد كتابة هذا الـ prompt لتحقيق أقصى قدر من الوضوح والفعالية؟
4. ما الأسئلة التي تود طرحها علي قبل محاولة هذه المهمة؟

التفكيك الهيكلي (Structured Decomposition)

للمهام المعقدة ومتعددة الأجزاء، قم بتقسيم ما تحتاجه بشكل صريح بدلاً من أن تأمل أن يكتشف الذكاء الاصطناعي الهيكل.

قالب التفكيك
أحتاج مساعدة بـ [الهدف العام].

يرجى إكمال هذا في مراحل:

المرحلة 1 - البحث: [ما المعلومات التي يجب جمعها]
المرحلة 2 - التحليل: [كيفية معالجة تلك المعلومات]
المرحلة 3 - التوليف: [كيفية دمج الأفكار]
المرحلة 4 - المخرجات: [تنسيق التسليم النهائي]

أكمل كل مرحلة بالكامل قبل الانتقال إلى التالية. في نهاية كل مرحلة، لخص النتائج الرئيسية قبل المتابعة.

Prompt "التدريس"

واحدة من أكثر التقنيات التي لا تحظى بالتقدير الكافي: اطلب من الذكاء الاصطناعي أن يعلمك كيفية القيام بشيء ما بدلاً من مجرد القيام به نيابة عنك. هذا ينتج تعلمًا أعمق وغالبًا ما يكشف عن جوانب لم تكن قد فكرت فيها.

قالب Prompt التدريس
أريد أن أتعلم كيفية [مهارة/مهمة]. بدلاً من القيام بذلك نيابة عني، يرجى:

1. شرح المبادئ الأساسية التي أحتاج إلى فهمها
2. إرشادي خلال العملية خطوة بخطوة كما لو كنت تدرس دورة تدريبية
3. الإشارة إلى الأخطاء الشائعة التي يرتكبها المبتدئون وكيفية تجنبها
4. إعطائي تمارين تدريبية لبناء مهاراتي
5. اقتراح كيف سأعرف ما إذا كنت أقوم بذلك بشكل صحيح

علمني كيف أصطاد، لا تعطني سمكة فقط.
💡

الخيط المشترك من خلال جميع التقنيات المتقدمة: إنها تبطئ الذكاء الاصطناعي، وتجبره على إظهار عمله، وتخلق نقاط تفتيش متعددة حيث يمكن التقاط الأخطاء. السرعة نادراً ما تكون الهدف في هندسة الأوامر — الوضوح والدقة هما الهدف.

الخدعة البسيطة الغبية التي تعمل

سأشارك شيئًا يبدو غبيًا جدًا ليكون حقيقيًا. لكنه مدعوم بأبحاث من Google، وقد تحققت منه بنفسي: ببساطة تكرار الـ prompt الخاص بك يمكن أن يحسن الدقة بشكل كبير.

وجدت ورقة بحثية بعنوان "تكرار المطالبة يحسن النماذج اللغوية الكبيرة غير الاستدلالية" أن نسخ سؤالك مرتين — حرفيًا فقط Ctrl+C، Ctrl+V — حسّن بشكل كبير احتمالية الإجابات الصحيحة للذكاء الاصطناعي. في 70 مهمة اختبار مختلفة، فازت طريقة النسخ واللصق البسيطة هذه 47 مرة ولم تخسر أبدًا. في بعض المهام، قفزت الدقة من 21% إلى 97%.

لماذا يعمل هذا؟

النماذج اللغوية الكبيرة "سببية" — فهي تتنبأ بكل رمز (token) بناءً فقط على ما جاء قبله. الكلمة الحالية يمكنها فقط رؤية الكلمات السابقة، وليس ما يأتي بعدها.

عندما تكرر سؤالاً، يمكن لكل كلمة في النسخة الثانية "النظر إلى الوراء" في النسخة الأولى بالكامل. إنه مثل إعطاء الذكاء الاصطناعي فرصة لقراءة السؤال مرتين قبل الإجابة.

دعوني أجعل هذا ملموسًا بمثال:

Prompt فردي

الخيارات:

  • A. ضع المكعب الأزرق على يسار المكعب الأحمر
  • B. ضع المكعب الأحمر على يسار المكعب الأزرق

المشهد: حاليًا الأحمر على اليسار، والأزرق على اليمين.

السؤال: أي خيار سيغير المشهد؟

Prompt مزدوج

الخيارات: A. ضع المكعب الأزرق على يسار المكعب الأحمر. B. ضع المكعب الأحمر على يسار المكعب الأزرق. المشهد: حاليًا الأحمر على اليسار، والأزرق على اليمين. السؤال: أي خيار سيغير المشهد؟

[كرر الـ Prompt بالكامل مرة أخرى]

الخيارات: A. ضع المكعب الأزرق على يسار المكعب الأحمر. B. ضع المكعب الأحمر على يسار المكعب الأزرق. المشهد: حاليًا الأحمر على اليسار، والأزرق على اليمين. السؤال: أي خيار سيغير المشهد؟

في الحالة الأولى، عندما يقرأ الذكاء الاصطناعي الخيارين A و B، فإنه لا يعرف سياق المشهد بعد. بحلول الوقت الذي يقرأ فيه وصف المشهد، تكون تلك الخيارات قد مرت بالفعل في انتباهه.

في الحالة الثانية، عندما تظهر الخيارات المكررة، فإنها تحمل السياق الكامل من النسخة الأولى. يقرأ النموذج الخيارات بوعي كامل بالمشهد.

إنه مثل مشاهدة فيلم معقد — "Inception" أو "The Wandering Earth 2" — وفهم المزيد في المرة الثانية.

لماذا لا يعمل هذا مع نماذج الاستدلال

إذا كنت تستخدم نماذج مثل DeepSeek R1 أو GPT-4 في وضع الاستدلال، فإن هذه الخدعة غالبًا لا توفر أي فائدة. لماذا؟ لأن نماذج الاستدلال قد تعلمت بالفعل القيام بذلك داخليًا.

لاحظ كيف تبدأ نماذج الاستدلال ردودها غالبًا:

  • "السؤال يطلب..."
  • "ما نحتاج إلى حله هو..."
  • "أولاً، لنفهم الشروط المعطاة..."

إنهم يعيدون صياغة السؤال لأنفسهم تلقائيًا. التكرار يحدث بالفعل تحت الغطاء.

الدرس الأعمق

هذا البحث جعلني متواضعًا. لقد قضيت سنوات في تعلم تقنيات هندسة الأوامر المعقدة، وها هو النسخ واللصق يتفوق على الكثير منها. إنه تذكير بأن أبسط الأساليب تكون أحيانًا هي الأقوى — وأننا غالبًا ما كان لدينا خيال رومانسي للغاية حول ما يتطلبه الـ Prompting.

التكرار مهم. في حب شخص ما. في تطوير الخبرة. في الكتابة. ويبدو أنه في التحدث إلى الذكاء الاصطناعي أيضًا.

ما يكشفه دليل GPT-5 من OpenAI

أصدرت OpenAI بهدوء دليل GPT-5 Prompt Guide الرسمي. بعد قضاء يوم في تشريح هذا الدليل الداخلي المكون من أكثر من 10,000 كلمة، يبرز استنتاج واحد: GPT-5 لم يعد مجرد روبوت محادثة بسيط — إنه محرك تنفيذ وكيل ذكاء اصطناعي (AI Agent) حقيقي يحتاج إلى إدارة، وليس مجرد تلقين.

سقف القدرات مرتفع للغاية، لكنك تحتاج إلى طرق منهجية لفتحه.

التحكم في "الحماس الوكيل" (Agentic Eagerness)

GPT-5 يشبه متدربًا جديدًا لامعًا — قادر للغاية، سيفكر ويبحث بشكل استباقي، لكنه يحتاج إلى إدارة. في بعض الأحيان يفرط في التفكير، ويحول المهام البسيطة إلى مشاريع هبوط على القمر (بطيئة ومكلفة). في أوقات أخرى، تريده أن يستمر بشكل مستقل دون طلب التوضيح باستمرار.

تسمي OpenAI هذه المعايرة "Agentic Eagerness". إليك كيفية ضبطها:

عندما تحتاج إلى السرعة على الدقة
<context_gathering>
Goal: Get enough context fast. Parallelize discovery and stop as soon as you can act.

Method:
- Start broad, then fan out to focused subqueries.
- In parallel, launch varied queries; read top hits per query.
- Avoid over-searching for context.

Early stop criteria:
- You can name exact content to change.
- Top hits converge (~70%) on one area/path.

Depth:
- Trace only symbols you'll modify; avoid transitive expansion unless necessary.

Loop:
- Batch search → minimal plan → complete task.
- Search again only if validation fails. Prefer acting over more searching.
</context_gathering>

لتحكم أكثر صرامة، أعطه ميزانية:

وضع السرعة الصارمة
<context_gathering>
- Search depth: very low
- Bias strongly towards providing a correct answer as quickly as possible, even if it might not be fully correct.
- Usually, this means an absolute maximum of 2 tool calls.
- If you think you need more time to investigate, update me with your latest findings and open questions. You can proceed if I confirm.
</context_gathering>

عبارة "even if it might not be fully correct" تعطي الذكاء الاصطناعي الإذن بارتكاب أخطاء صغيرة — مما يقلل من قلقه ويسرع الردود بشكل كبير.

عندما تحتاج إلى استقلالية كاملة
<persistence>
- You are an agent — please keep going until the user's query is completely resolved, before ending your turn and yielding back to the user.
- Only terminate your turn when you are sure that the problem is solved.
- Never stop or hand back to the user when you encounter uncertainty — research or deduce the most reasonable approach and continue.
- Do not ask the human to confirm or clarify assumptions. Decide what the most reasonable assumption is, proceed with it, and document it for the user's reference after you finish acting.
</persistence>

الترجمة: "أنت وكيل. توقف عن سؤالي. فقط أنجز الأمر."

جعل الذكاء الاصطناعي يقدم تقريرًا قبل التصرف

واحدة من ميزات GPT-5 المفضلة لدي: جعله يشرح ما هو على وشك القيام به قبل القيام به. لا يحب أي رئيس موظفًا يعمل بصمت دون أي تعليقات.

قالب مقدمات الأدوات
<tool_preambles>
- Always begin by rephrasing the user's goal in a friendly, clear, and concise manner, before calling any tools.
- Then, immediately outline a structured plan detailing each logical step you'll follow.
- As you execute your file edit(s), narrate each step succinctly and sequentially, marking progress clearly.
- Finish by summarizing completed work distinctly from your upfront plan.
</tool_preambles>

معامل جهد الاستدلال (Reasoning Effort)

لدى GPT-5 معامل reasoning_effort يعمل مثل قرص "تركيز التفكير":

  • عالي (High): للمهام المعقدة التي تتطلب تفكيرًا عميقًا واستكشافًا
  • متوسط (Medium): الإعداد الافتراضي، يعمل لمعظم المهام
  • منخفض/أدنى (Low/Minimal): عند إعطاء الأولوية للسرعة وانخفاض الكمون

فكر في الأمر مثل قوة القهوة — كلما كانت المهمة أكثر تعقيدًا، زاد التركيز الذي تحتاجه.

"الإجابة القياسية" لتطوير الواجهة الأمامية

للمطورين، توصي OpenAI بمكدس التكنولوجيا هذا للحصول على أفضل النتائج — تم تدريب GPT-5 بكثافة عليه، والمخرجات الجمالية جيدة باستمرار:

  • إطار العمل: Next.js (TypeScript), React, HTML
  • التصميم/UI: Tailwind CSS, shadcn/ui, Radix Themes
  • الأيقونات: Material Symbols, Heroicons, Lucide
  • الرسوم المتحركة: Motion
  • الخطوط: Sans Serif, Inter, Geist, Mona Sans, IBM Plex Sans, Manrope

توقف عن السماح للذكاء الاصطناعي باختيار مكدسك عشوائيًا. اتبع هذا المعيار وسترتفع جودة المخرجات على الفور.

Claude مقابل ChatGPT — محادثات مختلفة

واحدة من أهم الإدراكات التي توصلت إليها: نماذج الذكاء الاصطناعي المختلفة تتطلب أساليب تواصل مختلفة. ما يعمل ببراعة مع Claude قد ينتج نتائج متوسطة مع ChatGPT، والعكس صحيح.

نقطة تميز Claude

يتفوق Claude في الـ Prompts الحوارية والمفتوحة. إنه مصمم للمناقشات الدقيقة والاستكشاف الإبداعي.

  • استخدم لغة طبيعية ومتدفقة
  • صغ الطلبات كمحادثات: "ما رأيك في..." أو "دعنا نعصف ذهنيًا..."
  • استفد من نافذة السياق الضخمة الخاصة به (200K+ رمز)
  • ابنِ على النقاط السابقة في المناقشات الطويلة
  • اطلب استجابات تعاونية واستكشافية

نقطة تميز ChatGPT

يستجيب ChatGPT بشكل أفضل للـ Prompts المنظمة والدقيقة. إنه يعطي الأولوية للدقة والعمق عند إعطائه معايير واضحة.

  • استخدم هيكلًا صريحًا: عناوين، قوائم مرقمة، محددات
  • حدد القيود بوضوح: حدود الكلمات، الأقسام المطلوبة، قواعد التنسيق
  • افصل التعليمات عن محتوى الإدخال
  • استخدم لعب الأدوار للاستجابات المعقدة
  • كرر من خلال دورات التحسين

اختلافات عملية

الاحتفاظ بالسياق

Claude استثنائي في الاحتفاظ بالسياق عبر المناقشات الممتدة. قم بتضمين تذكيرات مثل "بناءً على ما ناقشناه سابقًا حول..." للحفاظ على الاستمرارية في المحادثات الطويلة.

استخدام المحددات

يستفيد ChatGPT بشكل كبير من استخدام المحددات (مثل علامات الاقتباس الثلاثية أو علامات XML) لفصل التعليمات عن المحتوى. هذا يساعده على فهم ما يجب معالجته مقابل ما هي التوجيهات.

مطابقة النبرة

يعكس Claude نبرة محادثتك بشكل طبيعي. إذا كتبت بشكل غير رسمي، فإنه يرد بشكل غير رسمي. يحتاج ChatGPT إلى تعليمات نبرة أكثر صراحة لتحقيق نفس التأثير.

معالجة الأخطاء

عندما يرتكب Claude خطأً، فإن التصحيح اللطيف يعمل بشكل جيد. غالبًا ما يحتاج ChatGPT إلى إعادة صياغة صريحة للنهج الصحيح بالإضافة إلى أمثلة لما حدث من خطأ.

💡

مهندسو الـ Prompt الأكثر فاعلية ليس لديهم أسلوب واحد — لديهم أساليب متعددة مصممة خصيصًا لشخصية كل نموذج. تعلم قراءة كيفية استجابة كل نموذج للـ Prompts الخاصة بك، وتكيف وفقًا لذلك.

نماذج Prompts مجربة في المعارك

النظرية مفيدة، لكن القوالب توفر الوقت. إليك الـ Prompts التي أستخدمها بشكل متكرر، والتي تم تحسينها عبر آلاف التكرارات.

لمهام الكتابة

قالب إنشاء المحتوى
Role: أنت [نوع محدد من الكتاب، مثل "صحفي تقني بخبرة 10 سنوات"]

Task: اكتب [نوع المحتوى] حول [الموضوع]

Audience: [من سيقرأ هذا — مستوى معرفتهم، اهتماماتهم، نقاط الألم]

Tone: [نبرة محددة — مثل "محادثة ولكن موثوقة، مثل الشرح لزميل ذكي"]

Format requirements:
- Length: [عدد الكلمات أو النطاق]
- Structure: [مخطط إذا لزم الأمر]
- Must include: [النقاط الرئيسية التي يجب تغطيتها]
- Must avoid: [الأشياء التي يجب استبعادها]

Example of desired style: [قم بتضمين 1-2 فقرة من محتوى مماثل إذا كان متاحًا]

Additional context: [أي معلومات خلفية ستساعد]

لمهام التحليل

قالب الإطار التحليلي
أحتاج منك تحليل [الموضوع/المستند/البيانات].

Analysis goals:
1. [السؤال الأساسي للإجابة]
2. [الرؤية الثانوية المطلوبة]
3. [اعتبارات إضافية]

Please structure your analysis as follows:
- Executive Summary: النتائج الرئيسية في 3-5 نقاط
- Detailed Analysis: [مجالات محددة للفحص]
- Implications: ماذا يعني هذا بالنسبة لـ [أصحاب المصلحة ذوي الصلة]
- Recommendations: الخطوات التالية القابلة للتنفيذ
- Constraints: ركز بشكل خاص على [المجالات ذات الأولوية]

Note: لاحظ أي قيود أو شكوك في تحليلك. استشهد بأمثلة محددة من المادة المصدر.

لحل المشكلات

قالب حل المشكلات
The Problem:
[صف المشكلة بالتفصيل، بما في ذلك السياق والقيود]

What I've Already Tried:
[اذكر المحاولات السابقة ولماذا لم تنجح]

Success Criteria:
[كيف يبدو الحل الجيد؟]

Constraints:
- Budget/Resources: [إذا كان ينطبق]
- Timeline: [إذا كان ينطبق]
- Technical limitations: [إذا كان ينطبق]

Please provide:
1. تشخيصك للسبب الجذري
2. 3-5 حلول محتملة، مرتبة حسب الجدوى
3. لأفضل حل، خطة تنفيذ خطوة بخطوة
4. المزالق المحتملة التي يجب الانتباه إليها
5. كيفية قياس ما إذا كان الحل يعمل

لتعلم مواضيع جديدة

قالب التعلم العميق
أريد أن أفهم [الموضوع] بعمق.

My current level: [ما تعرفه بالفعل]
My goal: [ما تريد أن تكون قادرًا على فعله/فهمه]
Time I can invest: [ميزانية التعلم]

Please create a learning path that includes:
1. المفاهيم الأساسية التي يجب أن أفهمها أولاً ("جذع" شجرة المعرفة)
2. المفاهيم الخاطئة الشائعة التي يجب تجنبها
3. أفضل النماذج الذهنية أو الأطر للتفكير في هذا الموضوع
4. تمارين عملية لاختبار فهمي
5. موارد للتعمق أكثر (إذا كنت تعرف مصادر محددة عالية الجودة)

As we go, please:
- تحقق من فهمي بطرح أسئلة علي
- صحح أي أخطاء في تفكيري
- ابنِ المفاهيم تدريجيًا، تقدم فقط عندما تكون الأسس صلبة

لمراجعة الكود

قالب مراجعة الكود
Please review this code:

```
[الكود الخاص بك هنا]
```

Context: [ما المفترض أن يفعله هذا الكود، أين يتناسب في النظام الأكبر]

Review for:
1. الأخطاء أو الأخطاء المنطقية
2. الثغرات الأمنية
3. مشاكل الأداء
4. أسلوب الكود وسهولة القراءة
5. الحالات المتطرفة التي لا يتم التعامل معها

For each issue found, please provide:
- Location (رقم السطر أو القسم)
- Severity (حرج/رئيسي/ثانوي/اقتراح)
- Explanation of why it's a problem
- Suggested fix with code example

Also note: ما تم القيام به بشكل جيد في هذا الكود الذي يجب الحفاظ عليه.

لاتخاذ القرار

قالب إطار القرار
أنا أقرر بين [الخيار A] و [الخيار B].

Context: [خلفية القرار]

My priorities (in order):
1. [العامل الأكثر أهمية]
2. [ثاني أهم عامل]
3. [ثالث أهم عامل]

For each option, please analyze:
- الإيجابيات والسلبيات بالنسبة لأولوياتي
- الآثار قصيرة المدى مقابل طويلة المدى
- ما الذي قد يحدث خطأ (ومدى احتمالية/شدة ذلك)
- ما الذي يجب أن يكون صحيحًا ليكون هذا هو الخيار الأفضل

Then provide:
- توصيتك مع المنطق
- ما المعلومات الإضافية التي ستغير توصيتك
- قائمة مرجعية للقرار يمكنني استخدامها للتحقق من تفكيري

الفلسفة وراء الـ Prompts العظيمة

بعد ثلاث سنوات من التفاعل اليومي مع الذكاء الاصطناعي، توصلت إلى الاعتقاد بأن هندسة الأوامر ليست في الواقع متعلقة بالذكاء الاصطناعي على الإطلاق. إنها تتعلق بالتحدي البشري القديم المتمثل في التواصل الواضح، والذي تم رفعه إلى ساحة جديدة.

فكر في الأمر: كل إحباط واجهته مع مخرجات الذكاء الاصطناعي يمكن إرجاعه إلى فشل في الاتصال. لم تقل ما كنت تعنيه. افترضت سياقًا مشتركًا لم يكن موجودًا. كنت غامضًا عندما كانت الدقة مطلوبة. هذه هي نفس الإخفاقات التي تبتلي بها الاتصالات البشرية — الذكاء الاصطناعي فقط يجعلها مرئية على الفور في المخرجات.

بهذا المعنى، تعلم هندسة الأوامر هو تعلم التفكير بشكل أكثر وضوحًا.

الـ Prompt كانعكاس للذات

لاحظت أن أفضل الـ Prompts الخاصة بي تأتي عندما يكون لدي بالفعل وضوح حول ما أريد. يجبرني فعل كتابة Prompt مفصل على مواجهة الفجوات في تفكيري الخاص. ما الذي أحاول تحقيقه بالضبط؟ كيف يبدو النجاح؟ ما القيود التي تهم حقًا؟

غالبًا ما أحل مشكلتي الخاصة في منتصف الطريق خلال كتابة الـ Prompt، حتى قبل أن يرد الذكاء الاصطناعي. يصبح الـ Prompt أداة تفكير — طريقة منظمة لإخراج وفحص أفكاري الخاصة.

💡

كلما كان الـ Prompt الخاص بك أكثر وضوحًا، كان تفكيرك أكثر وضوحًا. هندسة الأوامر هي سرًا نظام لمعرفة الذات.

التعاون، وليس الأمر

في وقت مبكر من رحلتي مع الذكاء الاصطناعي، تعاملت مع الـ Prompts كأوامر — تعليمات لمرؤوس. أنتجت هذه العقلية نتائج متوسطة باستمرار.

حدث التحول عندما بدأت في التعامل مع الذكاء الاصطناعي كمتعاون لديه نقاط قوة مختلفة عني. أنا أجلب المعرفة بالمجال، والحكم، والإبداع، والأهداف. يجلب الذكاء الاصطناعي معرفة واسعة، وقوة معالجة لا تكل، والتعرف على الأنماط، والقدرة على تجميع المعلومات عبر التخصصات.

الـ Prompts العظيمة هي ملخصات بين المتعاونين، وليست أوامر للخدم. تشرح السبب، وليس فقط ماذا. تدعو خبرة الذكاء الاصطناعي بدلاً من تقييدها دون داع. تخلق مساحة للذكاء الاصطناعي للمساهمة بقدراته الفريدة.

التكرار كمحادثة

هندسة الأوامر لا تتعلق بصياغة الـ Prompt المثالي من المحاولة الأولى. إنها تتعلق بإجراء محادثة فعالة تتقارب نحو ما تحتاجه.

الـ Prompt الأول: مسودة تقريبية لما تريده. الرد الأول: يكشف أين كانت مسودتك غير واضحة. الـ Prompt الثاني: تحسين بناءً على ما تعلمته. الرد الثاني: أقرب للهدف. استمر حتى الانتهاء.

يزيل هذا النهج التكراري الضغط من أي Prompt واحد. لست بحاجة إلى توقع كل متطلب مقدمًا. تحتاج فقط إلى الاستجابة لحلقة التعليقات.

تواضع التحديد

الـ Prompts الغامضة تبدو آمنة. عندما تقول "اكتب شيئًا جيدًا حول هذا الموضوع"، فأنت لم تلتزم بأي رؤية معينة. إذا كانت المخرجات مخيبة للآمال، حسنًا، لم تقل حقًا ما أردته على أي حال.

الـ Prompts المحددة تتطلب الضعف. عليك أن تعبر بالضبط عما يعنيه "جيد" بالنسبة لك. عليك أن تكشف عن معاييرك وتفضيلاتك ورؤيتك. عندما تخطئ المخرجات، يكون من الواضح إما أن مواصفاتك كانت معيبة أو أن الذكاء الاصطناعي لم يتمكن من التسليم — ولكن في كلتا الحالتين، تعلمت شيئًا ملموسًا.

التحديد هو تواضع لأنه يعني الاستعداد لأن تكون مخطئًا بشأن ما تريد.

اللعبة النهائية

مع تحسن نماذج الذكاء الاصطناعي، ستصبح العديد من تقنيات هندسة الأوامر الحالية غير ضرورية. قد تتعامل النماذج المستقبلية مع المدخلات الغامضة ببراعة، وقد تطرح أسئلة توضيحية تلقائيًا، وقد تستنتج السياق من الحد الأدنى من المعلومات.

لكن المهارة الأساسية — القدرة على التعبير عن أفكارك بوضوح، وتوفير السياق ذي الصلة، والتكرار بفعالية — ستصبح أكثر قيمة فقط. هذه مهارات إنسانية أساسية تنطبق سواء كنت تتواصل مع الذكاء الاصطناعي، أو مع الزملاء، أو مع نفسك.

هندسة الأوامر مؤقتة. التفكير الواضح أبدي.

"المصدر الموثوق الذي نختاره ليس ملكًا — إنه ليس حتى رجل بلاط. إنه شاعر متجول جاء من بعيد، يرتدي ملابس رثة، قفز على طاولة طعام القصر، يعزف على عوده، يغني بصوت عالٍ ملاحم وقصصًا لم نسمعها من قبل، يروي عن أراضٍ خارج مملكتنا ونجوم وبحار لم نتمكن من تخيلها. أهميته الوحيدة هي تحطيم جدران كل من ممالكنا، ومنعنا من الموت براحة ودفء وفي النهاية وحيدين على عروشنا المثالية."

هذا ما هو الذكاء الاصطناعي، في أفضل حالاته. ليس أداة للكفاءة، بل شاعر يوسع آفاقنا. وهندسة الأوامر؟ إنها تعلم اللغة التي تجعل تلك المحادثة ممكنة.

ستتطور التقنيات في هذا الدليل مع تطور الذكاء الاصطناعي. لكن الرؤية الأساسية تظل: جودة محادثتك مع الذكاء الاصطناعي تعكس جودة تفكيرك. اشحذ أحدهما، وتشحذ الآخر.

أغلق هذا المقال الآن واذهب لإجراء محادثة. تحدى شيئًا تؤمن به. تعلم شيئًا يخيفك. اصنع شيئًا لم تكن لتصنعه بمفردك.

الشاعر ينتظر.

آخر تحديث: فبراير 2026

??????

0 ???????

???? ???????

?? ??? ?? ????? ?????? ??? ??? ??????!