اگر قبلا حساب سرچ کنسول (همان وبمستر تولز قدیم) را ایجاد کرده اید، وارد پنل کاربری خود شوید. بیشتر وب سایت ها مخصوصا سایت های وردپرسی یک فایل ربات robots.txt دارند ولی به این معنی نیست که مدیر سایت این فایل را می شناسد. Robot.txt یک فایل متنی است که برای سئو استفاده میشود و حاوی دستوراتی برای روباتهای فهرستکننده موتورهای جستجو است که صفحاتی را مشخص میکند که میتوانند یا نمیتوانند ایندکس شوند. با لیست کردن برخی صفحات خاص و استفاده از Disallow در حقیقت شما به رباتهای مخرب و هکرها میگویید که این صفحات سایت مهم هستند و نباید به آنها دسترسی پیدا کنید و آنها به راحتی این صفحات را پیدا میکنند. اما اگر مسیرها و دایرکتوریها را دیسآلو کنید این رباتها صرفا میتوانند صفحهی دایرکتوری را ببینند و امکان دیدن سایر صفحات و وبپیجها وجود ندارد.
- ما به شدت توصیه میکنیم اگر فایل robots.txt را در سایت خود ندارید، بلافاصله آن را ایجاد کنید.
- همونطور که در ابتدای صفحه گفتیمنرم افزار ما با استفاده از ماوس و کیبورد واقعی بجای استفاده از دستورات برنامه نویسی جست وجو و کلیک روی سایت شمارو توی گوگل انجام میدهد.
- اصلا دستور دادن به رباتها چه فایدهای دارد؟ مگر اشکالی دارد که رباتها همینطور برای خودشان در وبسایت ما بچرند؟ بله..
- دستور Disallow به رباتها میگوید که چه فولدرهایی از وبسایت شما را نباید بررسی کنند.
User-agent رباتهای خزنده به ادمینهای سایت کمک میکنند تا انواع رباتهای خزنده در حال بررسی سایت را بشناسند. در فایل robots.txt شما قادر خواهید بود تا برای رباتهای مختلف، دستورالعملهای مختلفی صادر کنید. برای ساخت فایل robots.txt در وردپرس ابتدا وارد هاست سایتتان بشوید؛ سپس از آنجا روی گزینه File Manager کلیک کنید تا بتوانید فایل ها مختلف موجود در سایتتان را مشاهده کنید. پس برای اینکه در دنیای تجارت بتوانید از رقبای خود پیشی بگیرید باید تمام مسائل را موردتوجه قرار دهید. شما توسط فایل Robots.txt میتوانید بهراحتی سئو سایت خود را بالا ببرید.
ایندکس گوگل به فایل ربات سایت احترام زیادی نمیگذارد
Robots.txt نحوه خزیدن در صفحات مختلف وبسایت را به رباتها اعلام میکند در حالی که متا ربات و ربات X رفتارهای یک صفحه یا محتویات یک صفحه را به رباتهای خزنده اعلام میکنند. Robots.txt یک فایل متنی است که مدیران وبسایت برای آموزش به رباتهای وب (معمولاً روباتهای موتورهای جستجو) ایجاد میکنند که چگونه صفحات را در وبسایت خود بخزند. دقت کنید که استفاده غلط و نادرست از فایل robots.txt ممکن است باعث ضررو زیان به سئو سایتتان شود پس قبل از انجام هرگونه تغییرات در فایلتان بهتر است با مشاور سئو صحبت کنید و از او راهنمایی بگیرید.
آموزش استفاده از “rel=”noopener noreferrer در لینکهای خارجی
این دو خط اما اجازه بررسی سایت ما را به صورت استثنا به ربات Googlebot میدهد. اما اگر ایرادی در فایل دیده شود، لاین (دستور) مشکل دار هایلایت شده و مشخص میشود. یا فایل منیجر کنترل پنل هاست) در روت اصلی سایت آپلود کنید. میتوان این مدل لینکها را مدیریت کرده و آدرس آنها را پنهان کرد. یکی از مواردی که متخصصین بایستی در نظر بگیرند بررسی چک لیست کلیک پذیری یکی… در مقاله پیشرو به بررسی کامل موضوع مهمی در بخش سئو به نام راهنمای سئو…
چگونه یک فایل robots.txt ایجاد کنیم؟
فعال کردن گزینه Enable Custom Robotsافزونه All in One SEO فایل robots.txt موجود در سایت شما را در بخش Robots.txt Preview در پایین صفحه نشان میدهد. در این قسمت قوانین پیشفرض که توسط وردپرس اضافه شده است را نشان میدهد. اگر اولین بارتان باشد که این قسمت را باز میکنید و قبل از نصب افزونه یوست سئو فایل ربات خود را نساخته باشید، دکمه برای شما به صورت “ایجاد فایل ربات” نمایش داده خواهد شد. بهتر است دقیق تر با دستورات آشنا شوید و همیشه نظر یک متخصص را بپرسید تا بتوانید یک نقشه سایت درست حسابی برای خود بسازید.