فایل robots.txt کنترل می کند دقیقا چه چیزی توسط ربات ها دیده شود یا نشود یکی از گام های مهم است که این ابزار قدرتمند برای این کار دارد. در دنیای وب امروز، بهینه سازی سایت برای موتورهای جستجو فراتر از تولید محتوای خوب است. اگر شما سایت وردپرسی دارید یا سایتی کاملا اختصاصی، باید بدانید چگونه این فایل را بسازید، تنظیم کنید و بروزرسانی نمایید تا ضمن محافظت از بخش های حساس، از تاثیر منفی بر سئو جلوگیری شود.
در این مقاله با هم بررسی می کنیم تعریف robots.txt چیست، اهمیت آن، ساختار صحیح و اشتباهات رایج، به علاوه نکات عملی برای وردپرس و سایت های اختصاصی. آماده اید؟ بزن بریم!
تعریف فایل robots.txt چیست؟
چرا و چگونه طراحی شد؟
- فایل robots.txt یک فایل متنی است که در ریشه دامنه سایت قرار می گیرد (مثلا
https://example.com/robots.txt
) - این فایل به ربات های موتورهای جستجو مثل Googlebot، Bingbot و سایر «User-Agent» ها می گوید کدام قسمت های سایت را باید ایندکس کنند و کدام بخش ها را نه.
- بر اساس پروتکل Robots Exclusion Standard تعریف شده است.
عناصر اصلی ساختار فایل robots.txt (H3)
دستور | معنی |
---|---|
User-agent: | نام ربات مورد نظر (مثلا Googlebot یا * برای همه) |
Disallow: | مسیرهایی که دسترسی ربات به آنها ممنوع است |
Allow: | مسیرهایی که علی رغم Disallow کلی اجازه دارند |
Sitemap: | لوکیشن فایل نقشه سایت (sitemap.xml) |
Crawl-delay: | تاخیر بین درخواست های ربات (گاهی استفاده می شود ولی توسط همه موتور جستجو پشتیبانی نمی شود) |
اهمیت فایل robots.txt برای سئو
تاثیر بر ایندکس شدن صفحات
- اگر بخش هایی که اهمیت سئو دارند به اشتباه توسط robots.txt مسدود شوند، موتورهای جستجو نمی توانند به آنها دسترسی پیدا کنند و در نتایج ظاهر نمی شوند.
- بالعکس، اگر بخش هایی که نباید ایندکس شوند باز باشند (مانند بخش مدیریت، فولدرهای حاوی داده خصوصی)، ممکن است مشکلات امنیتی یا محتوای تکراری ایجاد شود.
بهینه سازی کارایی سرور و مصرف منابع
- محدود کردن دسترسی ربات ها به مسیرهایی که نیازی به ایندکس شدن ندارند مثل
/wp-admin
,/wp-includes
یا داده های مشابه، باعث کاهش مصرف پهنای باند و فشار روی سرور می شود. - تضمین اینکه درخواست های ربات ها رفتاری کنترل شده دارند، به ویژه در سایت های بزرگ یا اختصاصی با ترافیک زیاد.
فایل robots.txt در وردپرس vs سایت اختصاصی

تنظیم در وردپرس
- وردپرس به صورت پیش فرض یک فایل robots.txt مجازی تولید می کند اگر فایل فیزیکی وجود نداشته باشد.
- برای بهبود و کنترل بیشتر، معمولا توصیه می شود یک فایل robots.txt واقعی در ریشه هاست ایجاد شود.
- افزونه هایی مثل Yoast SEO امکان ویرایش robots.txt از داشبورد را فراهم می کنند.
- مثال پایه برای وردپرس:
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Allow: /wp-admin/admin-ajax.php Sitemap: https://yourdomain.com/sitemap_index.xml
تنظیم در سایت اختصاصی
- در طراحی سایت اختصاصی، مسیرها ممکن است متفاوت باشند؛ مثلا مسیرهای CSS، JS، تصاویر، API و بخش های مدیریتی خاص.
- باید بررسی شود که URLهای مهم برای سئو (مانند صفحات اصلی، دسته بندی، بلاگ) مسدود نشده باشند.
- مثال:
User-agent: * Disallow: /private/ Disallow: /temp/ Allow: /public/ Sitemap: https://yourdomain.com/sitemap.xml
نکات فنی پیشرفته و ابزارها
ابزارهای بررسی و تست robots.txt
- Google Search Console → قسمت «robots.txt Tester» برای سایت های ثبت شده.
- ابزارهای آنلاین مثل Robots.txt Checker، SEO Tools، SEMrush Site Audit.
- بررسی لاگ سرور (server logs) برای دیدن درخواست های ربات هایی که به مسیرهای Disallow دسترسی می خواهند.
اشتباهات رایج و نحوه رفع آنها
- مسدود کردن فایل های CSS و JS مهم:
بعضی مواقع برای جلوگیری از فشرده سازی یا دسترسی، این فایل ها مسدود می شوند و با رندر ناقص صفحات، نمره PageSpeed و Core Web Vitals کاهش پیدا می کند. - استفاده بیش از حد از Disallow:
مثلا مسدود کردن مسیرهایی که در آینده نیاز به ایندکس دارند. - فرم نادرست دستور User-Agent:
استفاده از نام اشتباه ربات ها باعث می شود دستور کار نکند. - نداشتن Sitemap در robots.txt:
سبب می شود ربات ها دیرتر نقشه سایت را پیدا کنند. - عدم بروزرسانی هنگام تغییر معماری سایت:
وقتی ساختار دایرکتوری ها یا URLها تغییر می کند، robots.txt نیز باید آپدیت شود.
تنظیمات منحصر به وردپرس / سایت اختصاصی برای بهبود بیشتر
- استفاده از دستور
Allow
دقیق برای فایل هایی که لازمند. - قراردادن
Sitemap
همیشه در robots.txt - در وردپرس، بررسی افزونه هایی که تولید URLهای اضافی می کنند (مانند افزونه های ترجمه، AMP، کش و غیره) و تنظیمات مناسب برای آنها در robots.txt
- در سایت اختصاصی، اگر از فریم ورک ها یا میکرو سرویس ها استفاده شده است، دقت کنید که ربات ها به APIهایی که باید ایندکس شوند یا نه، دسترسی دارند یا نه.
راهنمای گام به گام ساخت robots.txt مناسب
- تحلیل سایت فعلی
- بررسی کدام صفحات باید ایندکس شوند و کدام نه (مطالب مهم، دسته بندی ها، آرشیوها، برگه های اطلاع رسانی و غیره).
- بررسی ساختار URL و مسیرها.
- ایجاد فایل robots.txt در ریشه دامنه
- اگر وردپرس: در FTP یا File Manager هاست فایل جدید بسازید.
- نام فایل دقیق
robots.txt
باشد.
- اضافه کردن قواعد ابتدایی
- مشخص کردن User-Agent عمومی (
*
) - Disallow کردن بخشی که لازم است
- Allow کردن فایل های ضروری
- مشخص کردن User-Agent عمومی (
- افزودن آدرس نقشه سایت (Sitemap)
- اگر از Yoast SEO استفاده می کنید، نقشه سایت معمولا
sitemap_index.xml
است. - اگر سایت اختصاصی، نقشه سایت خود را بسازید و مسیر آن را قرار دهید.
- اگر از Yoast SEO استفاده می کنید، نقشه سایت معمولا
- تست فایل
- با ابزار Google Search Console
- یا ابزارهای آنلاین دیگر
- نظارت و به روزرسانی
- هنگام افزودن بخش جدید در سایت
- تغییرات ساختاری
- بررسی لاگ و ارورهای گوگل در کنسول
بررسی صحت فایل robots.txt در سرچ کنسول گوگل
یکی از بهترین روش ها برای اطمینان از درست بودن فایل robots.txt استفاده از ابزار Google Search Console است. مراحل کار به شکل زیر است:
- وارد اکانت سرچ کنسول شوید و وبسایت مورد نظر را انتخاب کنید.
- در بخش Legacy tools and reports ابزار robots.txt Tester را پیدا کنید.
- آدرس دامنه شما به صورت پیش فرض بارگذاری میشود و محتوای robots.txt نمایش داده خواهد شد.
- در کادر تست، می توانید مسیر دلخواه (مثلا
/wp-admin/
) را وارد کرده و بررسی کنید که آیا توسط ربات گوگل مسدود شده یا خیر. - اگر خطایی در دستورات وجود داشته باشد، کنسول با پیام هشدار مشخص می کند.
- بعد از ویرایش فایل در هاست، کافی است مجدداً تست کنید تا مطمئن شوید مشکل برطرف شده است.
🔎 نکته مهم: ابزار robots.txt Tester فقط در سرچ کنسول نسخه قدیمی قابل دسترس است اما همچنان کاربرد زیادی دارد. علاوه بر آن، میتوانید گزارش Coverage در سرچ کنسول را بررسی کنید تا مطمئن شوید صفحات مهم سایت به درستی ایندکس شدهاند.
سوالات متداول فایل robots.txt
خیر، فقط یک فایل robots.txt در ریشه دامنه اصلی مجاز است؛ اگر از ساب دامنه استفاده شود، هر ساب دامنه می تواند robots.txt مخصوص خود داشته باشد.
Crawl-delay
برای Google موثر است؟ نه همیشه؛ Google به طور رسمی Crawl-delay
را پشتیبانی نمی کند. برای کنترل امتیازات ایندکس و فشار سرور بهتر از نرخ ریکوئست ها در Search Console استفاده کنید.
کافی است فایل robots.txt را ویرایش کنید و دستور Disallow مربوطه را حذف یا Allow کنید، سپس تایید تغییر در گوگل سرچ کنسول و در نهایت منتظر ایندکس مجدد باشید.
نتیجه گیری
فایل robots.txt یکی از ابزارهای بنیادی در بهینه سازی فنی سایت است که همواره باید با دقت ساخته شود. چه وردپرسی باشید چه سایت اختصاصی:
- مطمئن شوید مسیرهای مهم برای سئو مسدود نشده اند؛
- فایل نقشه سایت را در آن درج کنید؛
- اشتباهات رایج را بشناسید و اصلاح کنید؛
- و همیشه تست و نظارت را فراموش نکنید.
با رعایت این نکات، فایل robots.txt می تواند به بهبود رتبه، افزایش سرعت ایندکس و کاهش خطاها کمک شایانی کند. برای راهنمایی های بیشتر درباره سئو داخلی و تکنیک های پیشرفته، می توانید به وب سایت استاد آی تی مراجعه کنید: آموزش سئو.