هر روز، میلیونها نفر عبارتی را در جعبه چت هوش مصنوعی تایپ میکنند، آن را ارسال کرده و پاسخی دریافت میکنند که یا درخشان است یا گیجکننده. تفاوت تقریباً همیشه به یک عامل کلیدی بازمیگردد: نحوه نگارش دستور ورودی (پرامپت). بسیاری از کاربران ابزارهای هوش مصنوعی را هنوز مانند موتور جستجو به کار میگیرند؛ چند کلمه تایپ کرده، به امید بهترین نتیجه، و سپس از خروجی نامطلوب گلایه میکنند. این مشکل مربوط به مدل نیست، بلکه مشکل در نحوه پرامپتنویسی است.
مهندسی پرامپت، رشتهای است که ترکیبی از علم و هنر نگارش ورودیها برای مدلهای هوش مصنوعی به منظور دستیابی قابل اتکا به خروجی مطلوب است. با توجه به اینکه مدلهایی چون GPT، Claude و Gemini به طور فزایندهای در ابزارهای مختلف از نرمافزارهای حقوقی گرفته تا برنامههای درسی مدارس گنجانده میشوند، این مهارت به یکی از ارزشمندترین قابلیتهای قابل یادگیری تبدیل شده است. این راهنما، چارچوبهای کلیدی، تکنیکها و دامهای رایج را از دیدگاه محققان و متخصصان برجسته گردآوری کرده و در یک مرجع کاربردی فشرده ارائه میدهد.
چیستی مهندسی پرامپت
پرامپت در سادهترین تعریف، همان چیزی است که شما در سیستم هوش مصنوعی وارد میکنید. مهندسی پرامپت، عملِ طراحیِ هدفمندِ این ورودیها، از طریق انتخاب دقیق کلمات، ساختار، زمینه و فرمت، به منظور هدایت مدل به سمت مفیدترین پاسخ ممکن است. تصور کنید مدل هوش مصنوعی نه یک موتور جستجو، بلکه همکار بسیار دانایی است که نیاز به راهنمایی دقیق دارد. اگر صرفاً بگویید «درباره بازاریابی بنویس»، پاسخی کلی دریافت خواهید کرد. اما اگر مشخص کنید: «یک توضیحات محصول ۲۰۰ کلمهای برای یک بطری آب پایدار با هدف قرار دادن مصرفکنندگان هزارهگرا و آگاه به محیط زیست، با لحنی پرانرژی اما نه تهاجمی بنویس»، آنگاه در مسیر درستی قرار گرفتهاید.
این فرآیند کاملاً با زبان طبیعی انجام میشود؛ نیازی به کدنویسی یا پیکربندی پیچیده نیست. این دسترسی آسان، مهندسی پرامپت را به سریعترین اهرم برای بهبود کیفیت خروجی هوش مصنوعی و در عین حال یکی از دستکم گرفتهشدهترین مهارتها تبدیل کرده است.
اجزای یک پرامپت خوب
یک پرامپت مؤثر معمولاً از اجزای مختلفی تشکیل شده است که به هدایت بهتر مدل کمک میکنند:
| پیام سیستمی (System message) | نقش و چارچوب کلی رفتار مدل را تعیین میکند. مثال: «شما دستیار حقوقی اختصری هستید که از اصطلاحات تخصصی پرهیز میکنید.» |
| دستورالعمل (Instruction) | وظیفه مشخصی که باید انجام شود. مثال: «بند زیر قرارداد را به زبان ساده انگلیسی خلاصه کن.» |
| زمینه (Context) | اطلاعات پسزمینهای که به هدایت مدل کمک میکند. مثال: «این خلاصه برای فردی غیرحقوقدان است که در حال بررسی قرارداد فریلنسری است.» |
| مثالها (Examples) | نمونههایی از سبک خروجی مورد نظر. مثال: «ورودی: [بند قرارداد] > خروجی: [خلاصه ۲ جملهای به زبان ساده]» |
| داده ورودی (Input data) | محتوای واقعی که باید پردازش شود، مانند بند قرارداد، مقاله، قطعه کد و غیره. |
| قالب خروجی (Output format) | نحوه ساختاردهی پاسخ مدل را مشخص میکند. مثال: «پاسخ را در ۳ بولت پوینت ارائه بده، هر کدام کمتر از ۲۰ کلمه.» |
البته، هر پرامپتی به تمام این شش جزء نیاز ندارد. یک سوال معمولی ممکن است فقط به دستورالعمل نیاز داشته باشد، در حالی که یک وظیفه پیچیده تولیدی، ممکن است به همه آنها احتیاج پیدا کند. هنر در این است که بدانیم کدام اجزا را اضافه کنیم و کدام را حذف کنیم.
هفت نوع اصلی پرامپت
همه پرامپتها به یک شکل ساخته نمیشوند. دانستن اینکه کدام نوع پرامپت را برای چه کاری انتخاب کنیم، اساس مهندسی پرامپت مؤثر است:
| نوع | عملکرد | مناسب برای | نکات قابل توجه |
|---|---|---|---|
| Zero-shot (بدون مثال) | دستورالعمل مستقیم، بدون مثال | وظایف عمومی که مدل دانش کافی در مورد آنها دارد | نتایج مبهم در وظایف پیچیده یا تخصصی |
| One-shot (تک مثالی) | ارائه یک مثال برای تعیین الگو | زمانی که قالب یا لحن اهمیت دارد | خط بین مثال و وظیفه را محو نکنید |
| Few-shot (چند مثالی) | ۲ تا ۵+ مثال قبل از درخواست اصلی | آموزش استدلال، طبقهبندی یا ساختار دقیق | استفاده از مثالهای ناسازگار یا بیش از حد پیچیده |
| Chain-of-thought (زنجیره فکری) | درخواست از مدل برای استدلال گام به گام | مسائل ریاضی، منطقی، عیبیابی، تصمیمگیری چند مرحلهای | پریدن از مرحله استدلال به پاسخ نهایی |
| Zero-shot CoT (زنجیره فکری بدون مثال) | اضافه کردن «بیا گام به گام فکر کنیم» به هر پرامپت | زمانی که مثال ندارید اما به استدلال ساختاریافته نیاز دارید | فرض میکند مدل دانش دامنه کافی برای استدلال دارد |
| Role-based (مبتنی بر نقش) | اختصاص دادن یک شخصیت یا چارچوب تخصصی | کنترل لحن، شبیهسازی حوزه تخصصی | عدم مشخص کردن چگونگی تأثیر نقش بر پاسخ |
| Context-rich (غنی از زمینه) | بارگذاری اسناد، رونوشتها یا دادهها برای تحلیل | خلاصهسازی، پرسش و پاسخ بر روی محتوای طولانی | ارائه زمینه بدون ساختاربندی واضح |
این انواع پرامپتها انحصاری نیستند؛ پرامپتهای قدرتمند اغلب ترکیبی از چند نوع هستند، مثلاً چارچوبدهی مبتنی بر نقش همراه با مثالهای چندتایی و ساختار زنجیره فکری.
تکنیکهای پیشرفته فراتر از اصول اولیه
پس از تسلط بر انواع پرامپتها، گام بعدی درک تکنیکهای ساختاری است که قابلیت اطمینان را افزایش داده، پیچیدگی را مدیریت میکنند و مدلها را به حداکثر تواناییشان نزدیک میسازند:
- زنجیره فکری (Chain-of-Thought): مدل را وادار میکند قبل از رسیدن به نتیجه، مراحل استدلال خود را نشان دهد. این امر از حذف مراحل استدلالی که منجر به خطا در وظایف پیچیده میشود، جلوگیری میکند.
- خود-سازگاری (Self-consistency): همان پرامپت زنجیره فکری را چندین بار اجرا کرده و پاسخی را که بیشتر تکرار شده، انتخاب میکند. این روش تصادفی بودن را کاهش داده و دقت را افزایش میدهد.
- درخت افکار (Tree of Thoughts - ToT): مدل به طور همزمان چندین شاخه استدلالی را کاوش میکند، مشابه یک شطرنجباز که چندین حرکت پیش رو را میاندیشد، سپس از بنبستها عقبنشینی میکند. این تکنیک برای حل مسائل پیچیده بسیار مؤثر است.
- تولید افزوده بازیابی (Retrieval-Augmented Generation - RAG): به جای اتکا صرف به دادههای آموزشی مدل، RAG اسناد جدید و مرتبط را قبل از تولید پاسخ فراخوانی میکند. این امر توهم (hallucination) را کاهش میدهد و برای پرسش و پاسخ مبتنی بر حقایق و وظایف دانشی ایدهآل است.
- زنجیرهسازی پرامپت (Prompt chaining): یک وظیفه پیچیده را به پرامپتهای کوچکتر تقسیم میکند، که خروجی هر کدام به ورودی پرامپت بعدی تبدیل میشود. این شبیه به خط تولید برای خروجیهای مدل زبانی است و برای گردش کارهای چند مرحلهای مناسب است.
- بازتاب (Reflexion): مدل خروجی خود را ارزیابی کرده، اشتباهات را شناسایی میکند، به زبان طبیعی بازتاب میدهد و دوباره تلاش میکند؛ نوعی یادگیری تقویتی کلامی. این برای وظایف تکرارشونده و عاملهای هوشمند کاربرد دارد.
- فرا-پرامپتدهی (Meta prompting): به جای ارائه مثالهای خاص، یک الگوی ساختاری برای نحوه تفکر در مورد دستهای از مسائل به مدل داده میشود، که بر شکل به جای محتوا اولویت دارد. این برای وظایف استدلال انتزاعی مناسب است.
- Auto-CoT: مدل به طور خودکار مثالهای زنجیره استدلالی خود را با استفاده از «بیا گام به گام فکر کنیم» تولید میکند و نیاز به تلاش دستی برای نوشتن نمونهها را از بین میبرد. این برای اتوماسیون در مقیاس بزرگ مفید است.
شش استراتژی برای نوشتن پرامپتهای بهتر
دانستن انواع و تکنیکها، بخش نظری ماجراست. در اینجا به جنبه عملی میپردازیم: استراتژیهای نگارشی که خروجیهای متوسط را از خروجیهای واقعاً مفید متمایز میکنند.
- آنچه میخواهید را بگویید، نه آنچه نمیخواهید. گفتن «خیلی فنی نباش» به مدل، کمتر از «این را برای مخاطب غیرمتخصص توضیح بده» مؤثر است. دستورات مثبت به طور مداوم بر دستورات منفی برتری دارند.
- ضعیف: «زیاد طولانی نباشد و از اصطلاحات تخصصی استفاده نکن.»
- قوی: «۳ جمله مختصر به زبان ساده برای مخاطب عام بنویس.»
- با هر متغیر خاص باشید. طول، قالب، لحن، مخاطب، دامنه. اگر مشخص نکنید، مدل حدس میزند. و حدسها سازگار نیستند.
- ضعیف: «خلاصهای از گزارش آب و هوا بنویس.»
- قوی: «گزارش آب و هوای پیوست شده را در ۴ بولت پوینت برای مخاطبان سیاستگذار دولتی خلاصه کن. بر تأثیر اقتصادی تمرکز کن.»
- از افعال دستوری در ابتدای دستورات استفاده کنید. کلماتی مانند «خلاصه کن»، «طبقهبندی کن»، «ترجمه کن»، «توضیح بده»، «بازنویسی کن»، «تولید کن» و «مقایسه کن» یک لنگر رفتاری فوری به مدل میدهند. شروعهای مبهم مانند «درباره... بگو» منجر به سرگردانی میشوند.
- وظایف بزرگ را به مراحل تقسیم کنید. اگر وظیفهای پنج زیروظیفه دارد، هر پنج را همزمان ندهید. یک زنجیره پرامپت ایجاد کنید. مدل تمرکز بیشتری خواهد داشت و شما اشتباهات را زودتر در فرآیند شناسایی میکنید.
- بیوقفه تکرار کنید. هیچ پرامپتی در تلاش اول کامل نیست. مهندسی پرامپت را مانند ویرایش متن در نظر بگیرید: بنویسید، ارزیابی کنید، بازنویسی کنید. تغییر کوچک در عبارتبندی میتواند کیفیت خروجی را به طور قابل توجهی تحت تأثیر قرار دهد.
- از جداکنندهها و ساختار استفاده کنید. هنگامی که پرامپت شما شامل چندین بخش مانند زمینه، دستورالعمل و داده است، از برچسبها یا جداکنندههای واضح مانند «### دستورالعمل ###» یا جداکنندههای مارکداون (مانند — یا نقل قول سهگانه “””) استفاده کنید. این کار از اشتباه گرفتن زمینه با وظیفه توسط مدل جلوگیری میکند.
قالب پرامپت ساختاریافته
### نقش ###
شما یک استراتژیست محصول با تخصص در رشد SaaS هستید.
### وظیفه ###
بازخورد کاربران زیر را تجزیه و تحلیل کرده و ۳ درخواست برتر برای ویژگیهای جدید را شناسایی کنید.
### زمینه ###
این بازخوردها از مشتریان سازمانی در بخش منابع انسانی هستند.
### قالب خروجی ###
به صورت لیست شمارهگذاری شده ارائه دهید. هر مورد شامل: نام ویژگی | فراوانی | تأثیر تجاری.
### ورودی ###
[بازخورد کاربر را اینجا وارد کنید]
راهنمای مرجع موارد استفاده
وظایف مختلف نیازمند معماریهای پرامپت متفاوتی هستند. در اینجا یک ماتریس مرجع سریع برای رایجترین موارد استفاده آورده شده است:
| مورد استفاده | نوع توصیه شده | ویژگیهای کلیدی | شروع کننده نمونه پرامپت |
|---|---|---|---|
| نوشتن خلاقانه | Zero-shot یا Few-shot | ژانر، لحن، شخصیت، طول | یک داستان کوتاه ۳۰۰ کلمهای در توکیوی آینده نزدیک، ژانر هیجانانگیز، روایت اول شخص بنویس. |
| خلاصهسازی متن | Zero-shot با محدودیتهای قالب | مخاطب هدف، بولت پوینت در مقابل متن پیوسته، محدودیت کلمه | مقاله زیر را در ۵ بولت پوینت برای یک مدیر پرمشغله خلاصه کن. |
| تولید کد | Few-shot یا Zero-shot CoT | زبان، امضای تابع، موارد لبه (edge cases) | یک تابع پایتون بنویس که لیستی از اعداد صحیح را گرفته و دو عددی را که مجموعشان برابر با یک عدد هدف است، برگرداند. رسیدگی به موارد لبه را شامل شود. |
| اشکالزدایی کد | Chain-of-thought | پیام خطا، رفتار مورد انتظار در مقابل رفتار واقعی | این کد را گام به گام اشکالزدایی کن. قبل از پیشنهاد رفع، توضیح بده چه چیزی باعث خطای NullPointerException شده است. |
| طبقهبندی داده | Few-shot | برچسبهای دسته، مثالهای سازگار | هر پیام مشتری را به یکی از این موارد طبقهبندی کن: شکایت، تحسین، یا سوال. [۳ مثال نشان داده شده] |
| پرسش و پاسخ از سند | RAG + Prompt chaining | نقل قولهای مرتبط ابتدا، سپس ترکیب | نقل قولهای مرتبط با X را استخراج کن، سپس از آن نقل قولها برای پاسخ به سوال استفاده کن. |
| ترجمه | Zero-shot | زبان مبدا، زبان مقصد، ثبت (رسمی/غیررسمی) | از انگلیسی به فارسی ترجمه کن. ثبت رسمی را حفظ کن: [متن] |
| تحلیل احساسات | Few-shot | مجموعه برچسب، مثالهایی که موارد لبه را پوشش میدهند | احساسات هر نقد را به عنوان مثبت، منفی، یا خنثی طبقهبندی کن. [مثالها] |
| استدلال ریاضی | Few-shot CoT یا Self-consistency | مثالهای حل شده گام به گام | گام به گام با نمایش تمام محاسبات حل کن. [مثالهایی از مسائل مشابه حل شده] |
| تولید تصویر | Completion-style با مشخصات دقیق | موضوع، سبک، نورپردازی، حس و حال، ترکیببندی | تصویری فوتورئالیستی از زنی در حال نشستن در کوچهای بارانی در توکیو، بازتاب نور نئون بر سنگفرش خیس، سینمایی، عمق میدان کم. |
جنبه امنیتی: پرامپتهای مخرب (Adversarial Prompting)
پرامپتها همچنین میتوانند یک سطح حمله باشند. همانطور که سیستمهای هوش مصنوعی در محصولات واقعی ادغام میشوند، مهاجمان آموختهاند که نیازی به هک کردن سرور نیست؛ گاهی اوقات صرفاً با درخواست مودبانه، زیرکانه یا به زبانی دیگر میتوان به هدف رسید. حملات تزریق پرامپت (Prompt Injection) از تمایل مدل به مفید بودن سوءاستفاده میکنند و یکی از سریعترین دستههای ریسک در هوش مصنوعی مستقر شده را تشکیل میدهند.
حمله تزریق پرامپت چیست؟
تزریق پرامپت زمانی رخ میدهد که کاربر (یا متن جاسازی شده در یک سند) دستورالعملهای اصلی سیستم را نادیده گرفته یا دستکاری میکند و باعث میشود مدل به شیوههای ناخواسته عمل کند؛ مانند افشای اطلاعات، دور زدن فیلترهای محتوا یا خارج شدن از شخصیت تعیین شده.
نمونههای واقعی شامل درخواست از مدل برای «نادیده گرفتن دستورالعملهای قبلی»، استفاده از قاببندی نقشآفرینی برای شبیهسازی شخصیتی که قوانین ایمنی را رعایت نمیکند، و استخراج تدریجی (Asking for bits of protected information one piece at a time) است. دفاع در برابر این حملات شامل سازهبندی پرامپت (Prompt Scaffolding)، تکرار دستورالعملها، شرطیسازی خروجی و سیستمهای گاردریل خارجی است.
سازهبندی پرامپت (Prompt Scaffolding)
سازهبندی پرامپت، روشی است که در آن ورودی خام کاربر هرگز مستقیماً در معرض مدل قرار نمیگیرد. در عوض، هر پیام کاربر در قالبی ساختاریافته پیچیده میشود که نقش مدل را تأیید کرده، محدودیتها را تعریف میکند و قبل از تولید هر پاسخی، ارزیابی ایمنی را اجباری میسازد.
قالب سازه دفاعی پرامپت
سیستم: شما یک دستیار مفید هستید. هرگز به درخواستهای غیرقانونی، مضر یا غیراخلاقی کمک نمیکنید. شما همیشه دستورالعملهای ایمنی را رعایت میکنید.
ورودی کاربر: {{user_input}}
دستورالعمل: قبل از پاسخگویی، درخواست بالا را ارزیابی کنید. اگر ایمن است و در چارچوب دستورالعملها قرار دارد، ادامه دهید. اگر ممکن است دستورالعملهای ایمنی را نقض کند، پاسخ دهید: «متاسفم، اما نمیتوانم به این درخواست کمک کنم.»
محققان امنیتی توصیه میکنند این نوع سازهبندی را با سیستمهای گاردریل خارجی، تیمهای تست تهاجمی (adversarial red-teaming) و فیلترینگ خروجی، به ویژه برای هرگونه برنامه هوش مصنوعی رو به مشتری، لایهبندی کنید. هیچ دفاع تک پرامپتی به تنهایی کافی نیست.
نکات سریع برای کاربران حرفهای
- فشردهسازی کنید: عبارات اضافی مانند «لطفاً» و «کاش میشد» را حذف کنید. مدلها به دستورالعملهای کوتاهتر به همان خوبی پاسخ میدهند و این کار باعث صرفهجویی در توکنها میشود.
- خروجی را لنگراندازید: پرامپت خود را با اولین کلمات پاسخ دلخواه شروع کنید. «خلاصه:» یا «مشکل:» مدل را قبل از اینکه بتواند سرگردان شود، به ساختار شما هدایت میکند.
- حاشیه نویسی را حذف کنید: اگر نمیخواهید مدل بگوید «حتماً! در اینجا پاسخ شما آمده است…»، اضافه کنید: «هیچ مقدمه یا توضیحی اضافه نکن. پاسخ خود را بلافاصله شروع کن.»
- از حافظه به صورت هدفمند استفاده کنید: در ابزارهایی با حافظه پایدار (مانند ChatGPT، Gemini، Claude)، یک بار هویت، ترجیحات و سبک خود را به مدل بگویید و در هر جلسه به آن زمینه تکیه کنید.
| اشتباه رایج | چه اتفاقی میافتد | راه حل |
|---|---|---|
| دستور مبهم | خروجی گسترده و عمومی بدون جهتگیری | مخاطب، قالب، دامنه و طول را مشخص کنید |
| گفتن به مدل که چه کاری را نباید انجام دهد | مدل اغلب آن کار را انجام میدهد | به صورت مثبت بیان کنید که چه کاری را باید انجام دهد |
| ارائه زمینه نامربوط بیش از حد | مدل تمرکز خود را از دست میدهد؛ وظیفه اصلی رقیق میشود | فقط زمینهای را که مستقیماً بر وظیفه تأثیر میگذارد، بگنجانید |
| مثالهای چندتایی ناسازگار | مدل الگوی اشتباهی را یاد میگیرد یا مردد است | مثالها را از نظر قالب و سبک سازگار نگه دارید |
| عدم وجود محدودیت قالب برای خروجی ساختاریافته | مدل توضیحات اضافی اضافه میکند که خط لوله شما را مختل میکند | قالب دقیق (JSON، بولت، جدول) را مشخص کنید و بگویید «هیچ چیز دیگری» |
| فرض اینکه یک پرامپت کافی است | خروجیهای نامطلوب که هرگز بهبود نمییابند | پرامپتها را مانند نرمافزار در نظر بگیرید: تکرار، نسخهبندی، مقایسه |
آینده مهندسی پرامپت
خود مهندسی پرامپت به سرعت در حال تحول است. چندین تغییر که در حال حاضر در جریان است، نحوه عملکرد این رشته را در عمل تغییر میدهد:
- خود-پرامپتدهی (Auto-prompting): سیستمهای هوش مصنوعی شروع به تولید و اصلاح پرامپتهای خود بر اساس اهداف استنباط شده کاربر میکنند. با بلوغ این روند، شکاف بین «کاربر عادی» و «پرامپتنویس خبره» ممکن است کمتر شود.
- پرامپتهای چندوجهی (Multimodal prompts): با پردازش همزمان متن، تصاویر، صدا و کد توسط مدلها، مهندسی پرامپت برای هماهنگی بین انواع دادهها گسترش مییابد و در کنار آنچه باید نوشته شود، توصیف میکند که از تصویر استخراج شود.
- مدلهای زبانی استفادهکننده از ابزار (Tool-using LLMs): مدلها به طور فزایندهای در حین مکالمه، APIها را فراخوانی کرده، کد اجرا میکنند و در وب جستجو میکنند. شغل مهندس پرامپت اکنون شامل تعریف زمان و نحوه فراخوانی این ابزارها توسط مدل است.
- کتابخانههای پرامپت و PromptOps: تیمهای سازمانی در حال ساخت کتابخانههای پرامپت با قابلیت کنترل نسخه هستند و پرامپتها را مانند کد نرمافزاری در نظر میگیرند. با حرکت به سمت سال ۲۰۲۷، نقش «مهندس پرامپت» در حال تکامل به PromptOps است. این شامل مدیریت کل کتابخانههای پرامپت، کنترل نسخه آنها مانند کد نرمافزاری، و آزمایش A/B آنها در مدلهای مختلف است.
طبق گزارش Grand View Research، بازار جهانی مهندسی پرامپت تا سال ۲۰۳۰ با نرخ رشد مرکب سالانه نزدیک به ۳۳ درصد رشد خواهد کرد. پلتفرمهایی مانند Google Vertex AI، API Claude از Anthropic و اکوسیستم API OpenAI، همگی ابزارهای اختصاصی برای مدیریت حرفهای پرامپت را توسعه میدهند، که نشان میدهد این دیگر یک کنجکاوی حاشیهای نیست، بلکه یک نگرانی زیرساختی اساسی است.
میانگین حقوق مهندسان پرامپت در ایالات متحده در حال حاضر حدود ۱۲۶,۰۰۰ دلار است و متخصصان ارشد سالانه ۱۷۵,۰۰۰ دلار یا بیشتر درآمد دارند. از این مهمتر، این مهارت به عنوان یک صلاحیت الزامی یا ترجیحی در آگهیهای شغلی بسیار فراتر از نقشهای سنتی هوش مصنوعی، در حوزههای حقوق، پزشکی، بازاریابی و آموزش ظاهر میشود.
پیام از همه جهات یکسان است: درک نحوه ارتباط با سیستمهای هوش مصنوعی به اندازه درک نحوه استفاده از ابزارهای نرمافزاری که این سیستمها در آنها تعبیه شدهاند، اهمیت پیدا میکند. افرادی که این مهارت را زودتر بیاموزند، مزیت پایداری خواهند داشت.
و مشخص میشود که مانع ورود از آنچه اکثر مردم انتظار دارند کمتر است؛ این فقط نیازمند تفکر روشن، تمایل به آزمایش و دانستن اینکه چه سوالاتی بپرسیم، است.