بهینه سازی فایل Robot txt آموزش کامل ساخت فایل robots.txt همیار وردپرس

این ابزار به صورت خودکار این فایل را برداشته و آن را تست می کند. همه خطاهای احتمالی و خطرات و ایرادها را همینجا به شما تذکر می دهد. علاوه بر این شما می توانید با کلیک روی گزینه ” FILE+” طبق تصویر زیر، در فیلدNew File Name، فایلی را با نامrobots.txtوارد کرده و در نهایت Create New File کلیک کنید تا فایل شما ساخته شود. تاکنون بیش از ۱۶۰۰۰۰ درخواست پشتیبانی را به خوبی و خوشی پاسخ داده‌ایم. اگر موقع کار با محصولات سوال یا مشکلی دارید، روی پشتیبانی ما حساب کنید. ظاهرا noindex بودن ادرس ها و دستکاری شده توی کدنویسی قالب (نال شده) .

  • به کمک این فایل دسترسی ربات های مختلف را می توان مسدود کرد، برای مثال امکان مدیریت دسترسی ربات های Moz و Ahref نیز به کمک این فایل امکان پذیر است.
  • خصوصا که گوگل صفحات سایت ما را فقط یکبار بررسی نمیکنند، که بطور مستمر و حتی روزانه درحال بررسی صفحات سایت هستند.
  • فایل robots.txt هم دقیقا مانند آیین نامه راهنمایی رانندگی برای ربات‌ها و خزنده‌های دنیای اینترنت عمل می‌کند.
  • این دستورالعمل یک فرایند چند خطی است که به شما در کوتاهترین زمان ممکن آموزش می‌دهد چه دستوراتی را در فایل خود قرار دهید تا ربات‌های گوگل بتوانند به خوبی در سایت شما جستجو کنند.
  • اگر از ورود آی‌پی‌های مختلف به منابع Dissallow اطلاع داشته باشید می‌توانید از یک لیست سیاه برای این کار استفاده کنید و قسمت‌های مختلف سایت را با استفاده از این تکنیک ایمن کنید.

شما با اضافه کردن کلمه robots.txt به انتهای ادرس سایت خود می‌توانید فایل robots.txt کنونی را ملاحظه بفرمایید. به عنوان مثال اگر دامنه شما Example.com است به ادرس example.com/robots.txt بروید و فایل robots.txt را مشاهده کنید. یکی از ابزارهای مختلف که به شما در بررسی صحت فایل robots.txt کمک می‌کند استفاده از ابزار تست robots.txt گوگل است. اگر می‌خواهید امنیت فایل ربات خود را چند درجه بالاتر ببرید از مکانیزم امنیتی Honeypot (یک مکانیزم مبتنی بر داده‌هایی که قابل دسترسی هستند اما دسترسی آن‌ها به صورت مداوم مانیتور می‌شود) استفاده کنید. اگر از ورود آی‌پی‌های مختلف به منابع Dissallow اطلاع داشته باشید می‌توانید از یک لیست سیاه برای این کار استفاده کنید و قسمت‌های مختلف سایت را با استفاده از این تکنیک ایمن کنید.

دستور های موجود در فایل Robot.txt

در بخش بعد توضیح می‌دهیم که چطور یک فایل Robots.txt بسازیم، آن را در جای درستش قرار دهیم و تست کنیم تا ربات‌های گوگل به آن دسترسی داشته باشند. هدر دادن منابع سرور برای این صفحات، باعث از بین رفتن Crawl Budget شما می‌شود. به این ترتیب صفحات ارزشمند و مهمی که واقعاً نیاز به ایندکس شدن دارند خیلی دیرتر به نتایج جستجو راه پیدا می‌کنند. گوگل اعلام کرد که برای حذف صفحه‌ها از نتایج جستجو، بهتر است از را‌ه‌های دیگری به جز فایل Robots.txt استفاده کنید. البته در حال حاضر می‌توان از این فایل برای خارج کردن فایل‌هایی مثل تصاویر، ویدیو یا صدا از نتایج جستجو استفاده کنید اما برای صفحات وب مناسب نیست. در ادامه می‌خواهیم با جزئیات کامل درباره همین فایل مهم صحبت کنیم.

الگوریتم موبایل فرست چیست؟ دلیل اهمیت Mobile First در گوگل

برای مثال اگر نمی‌خواهید موتورهای جستجو، تصاویر وب‌سایت‌تان را ایندکس کنند، می‌توانید تمام تصاویر سایت را درون یک پوشه در هاستینگ خود قرار دهید و از دسترس موتورهای جستجو خارج سازید. عدم وجود یک فایل robots.txt موتورهای جستجو را از خزیدن و نمایه‌سازی وب‌سایت شما متوقف نخواهد کرد. با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد. دستور Allow دقیقا برعکس دستور Disallow عمل می کند؛ این دستور به ربات های موتور جستجوی گوگل اجازه ایندکس کردن را می دهد.

در استفاده از Nofollow‌ و Disallow به طور همزمان مراقب باشید.

دستور Disallow از پرکاربردترین دستورات در فایل robots.txt است. این دستور مشخص کننده صفحه یا صفحات غیر قابل دسترس برای ربات‌های خزنده وب است. مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی ربات‌ها مخفی می‌کند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند. با افزودن نقشه xml سایت به فایل robots.txt نیز می توانید جستجوی همه صفحات سایت خود را برای ربات های گوگل آسان کنید. اگر این فایل را ایجاد نکردید، همچنان موتورهای جستجو سایت شما را خزش و ایندکس می کنند. با این حال، شما بدون داشتن فایل robots.txt نمی توانید به موتورهای جستجو بگویید که کدام صفحات و مسیرهای سایت را ایندکس نکنند.