دستور Disallow از پرکاربردترین دستورات در فایل robots.txt است. این دستور مشخص کننده صفحه یا صفحات غیر قابل دسترس برای رباتهای خزنده وب است. مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی رباتها مخفی میکند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند. با افزودن نقشه xml سایت به فایل robots.txt نیز می توانید جستجوی همه صفحات سایت خود را برای ربات های گوگل آسان کنید. اگر این فایل را ایجاد نکردید، همچنان موتورهای جستجو سایت شما را خزش و ایندکس می کنند. با این حال، شما بدون داشتن فایل robots.txt نمی توانید به موتورهای جستجو بگویید که کدام صفحات و مسیرهای سایت را ایندکس نکنند.
پیاده سازی آنها راحت تر است و احتمال وقوع فاجعه کمتر است (مانند مسدود شدن کل سایت شما). همانطور که می بینید، ما عنکبوت ها را از خزیدن صفحه مدیریت WP منع می کنیم. و همینطور هر چیزی که بعد از “Disallow” شما آن را برای خزیدن ربات ها مسدود می کنید. برای ایجاد یک فایل TXT می توانید از ویرایشگر notepad ویندوز خود استفاده کنید.
- در این مقاله به اهمیت فایل robots.txt در سایت و سئو سایت شما میپردازیم.
- سلام وقتتون بخیر خواستم تشکر کنم وخسته نباشیدبگم واقعا ربات های که خریدم عالین ومشکلی ندارن …
- این دستور مشخص میکند که دستورهای موجود در فایل، تنها برای یک ربات خاص (در اینجا Googlebot) قابلیت اجرا دارد.
- درست است که فایل robots.txt رتبه برتر را تضمین نمی کندف اما برای بهبود سئو مهم است.
برای کرال کردن سایتها، موتورهای جستجو لینکها را دنبال میکنند تا از یک سایت به سایت دیگر بروند. پس از ورود به یک وبسایت، ربات گوگل به دنبال یک فایل robots.txt میگردد. اگر بتواند آن را پیدا کند، قبل از ادامه کرال صفحه ابتدا آن فایل را میخواند. از آنجا که فایل robots.txt حاوی اطلاعاتی درباره چگونگی خزیدن موتور جستجو است، اطلاعات موجود در این فایل، دستورالعملهای بیشتری را در اختیار ربات خزنده قرار میدهد. اگر فایل robots.txt فاقد دستورالعملهایی باشد که فعالیت user-agent را مجاز نمیداند (یا مثلا اگر سایت، فایل robots.txt نداشته باشد)، به جستجوی سایر اطلاعات در سایت ادامه میدهد.
بهترین تکنیک ها برای Robots.txt در جهت بهبود سئو
مطالعه این راهنما به شما در مورد فایل robots.txt سایت و نحوه ساخت فایل ربات سایت و اهمیت آن در سئو اطلاعات زیادی خواهد داد. با مطالعه این مقاله شما میتوانید فایل robots.txt سایت خود را ایجاد و بررسی کنید و مطابق با ساختار سایتتان اصلاح کنید. این بدان معنی است که آنها تعداد مشخص و محدودی از صفحات را در یک جلسه، خزش و ایندکس می کنند. اگر آنها در آن جلسه خزیدن در تمام صفحات سایت شما را به پایان نرسانند، دوباره برمی گردند و در جلسه بعدی خزیدن را از سر می گیرند. پس مدیریت و بهینه سازی فایل robots.txt می تواند سرعت خزش و ایندکس صفحات سایت شما را افزایش دهد.
مثال هایی از فایل robots.txt
شما با اضافه کردن کلمه robots.txt به انتهای ادرس سایت خود میتوانید فایل robots.txt کنونی را ملاحظه بفرمایید. به عنوان مثال اگر دامنه شما Example.com است به ادرس example.com/robots.txt بروید و فایل robots.txt را مشاهده کنید. یکی از ابزارهای مختلف که به شما در بررسی صحت فایل robots.txt کمک میکند استفاده از ابزار تست robots.txt گوگل است. اگر میخواهید امنیت فایل ربات خود را چند درجه بالاتر ببرید از مکانیزم امنیتی Honeypot (یک مکانیزم مبتنی بر دادههایی که قابل دسترسی هستند اما دسترسی آنها به صورت مداوم مانیتور میشود) استفاده کنید. اگر از ورود آیپیهای مختلف به منابع Dissallow اطلاع داشته باشید میتوانید از یک لیست سیاه برای این کار استفاده کنید و قسمتهای مختلف سایت را با استفاده از این تکنیک ایمن کنید.
نحوه استفاده از دستور Crawl-delay *
SEM مفهومی است که اغلب افراد آن را با SEO یکسان میدانند؛ در صورتی که میتوان گفت SEM یا بازاریابی موتورهای جستوجو مفهومی کاملا جدا از سئو است. در این مقاله میخواهیم درباره SEM، مزایا و معایب آن و تفاوت آن با SEO صحبت کنیم. خود را بررسی و تست کنید تا مطمئن شوید بخش مهمی از سایت شما از طریق آن مسدود نشده باشد.