این پروتکلی است که به رباتها میگوید از بررسی کدام صفحات وب و منابع آن اجتناب کنند. دستورالعملهای فرمت شده برای این پروتکل در فایل robots.txt گنجانده میشود. فایل robots.txt به مدیریت فعالیتهای این خزندههای وب کمک میکند تا بر سرور وب میزبان وبسایت، یا فهرستبندی صفحاتی که برای نمایش عمومی نیستند، هزینه بار اضافه نکنند. اصلا آنها زبان آدمیزان حالیشان نیست، پس خودتان را خسته نکنید. بله درست حدس می زنید، فایل ربات سایت برای ربات موتورهای جستجو ساخته می شود، موتورهای جستجو ابزاری دارند که به آن ربات یا بات bot می گویند. این ربات ها وظیف دارند سایت ها را بررسی کرده و تغییرات جدید را در دیتابیس خود ذخیره کنند.
- اگر وبسایت بزرگی داشته باشید، امکان دارد رباتهای گوگل تا چند ده هزار بار در روز صفحههای سایت را بررسی کنند.
- به عنوان نکته بعدی کاملا توجه داشته باشین که مراحل اولیه بهتره تعداد سرچ روزانتون رو خورد خورد افزایش بدین و به گوگل شک وارد نکنید.
- این بدافزار به شدت به دنبال ایمیلهای سایت شما هستند تا ارسال تعدادی زیادی هرزنامه و اسپم را آغاز کنند.
- درصورتی که شما اقدام به ایجاد یک فایل حقیقی به نام robots.txt در ریشه هاست سایت خودتان کنید، فایل ربات مجازی به صورت خودکار از کار میافتد و فایل حقیقی آپلود شده توسط شما جایگزین آن خواهد شد.
- اگر در فایل Robots دستور دهید که رباتهای گوگل اجازه دسترسی به صفحاتی را ندارند، این صفحات کلاً بررسی نمیشوند اما هیچ تضمینی وجود ندراد که این صفحه در نتایج جستجوی گوگل ظاهر نشود.
- بلکه این فایل به صورت مجازی و خودکار توسط وردپرس ایجاد میشود.
به عنوان مثال در بسیاری از سایتها بخشی تحت عنوان پروفایل کاربران وجود دارد که نمایش این پروفایلهای کاربری در نتایج گوگل هیچ ترافیکی برای سایت مورد نظر ایجاد نمیکنند. اما به صورت کلی میتوانیم امیدوار باشیم که تمام قوانینی که داخل فایل ربات سایتمان مشخص میکنیم توسط مهمترین خزندههای وب یعنی خزندههای گوگل رعایت میشوند. فایل robots.txt هم دقیقا مانند آیین نامه راهنمایی رانندگی برای رباتها و خزندههای دنیای اینترنت عمل میکند. به کمک این فایل ما میتوانیم محدودیتهایی را در خزش رباتها تعیین کنیم و انتظار داشته باشیم که آنها هم به این محدودیتها پایبند باشند.
دایرکت ادمین را باز کرده و روی مدیریت فایل File Manager کلیک کنید. پس از اینکه مسیر مورد نظر برای شما باز شد باید وارد پوشه Public_html شوید. وارد این مسیر شدید، روی گزینه Upload to this Directory کلیک کرده و فایل خود را برای آپلود انتخاب کنید. پیشنهاد ما همیشه اینست که اول کل دستورات را مرور کنید، چند مثالی از آنها را ببینید و سپس تصمیم بگیرید کدام بخش از سایت را از ایندکس خارج کرده و کدام را در ایندکس وارد کنید.
اگر سایتتان را تازه راه اندازی کردید و صفحات زیادی ندارد داشتن این فایل تاثیر زیادی بر سئو وب سایت نخواهد گذاشت. با این وجود وقتی وب سایت شما رشد و توسعه پیدا می کند و صفحات آن بیشتر می شود پس قطعا به وجود فایل robots.txt برای کنترل بهتر در نحوه خزیدن و ایندکس صفحات سایت خود نیاز خواهید داشت. Sitemap یا نقشه سایت یک فایل عمدتا XML است، وظیفه راهنمایی و هدایت رباتهای موتورهای جستجو برای خزش بهتر محتوای سایتها را بر عهده دارد. میتوانیم به کمک فایل robots.txt مشخص کنیم که آدرس این فایل دقیقا کجاست و موتورهای جستجو از کجا باید آدرس نقشه سایت ما را پیدا کنند. موتور جستجوی گوگل رباتهای مختلفی دارد که هرکدام وظیفه خاصی دارند، شناخت این رباتها به ما کمک میکند تا ارتباط بهتری با آنها برقرار کنیم و به صورت خیلی دقیقتری بتوانیم فایل ربات سایتمان را طراحی کنیم.
ارسال فایل ربات robots.txt به گوگل
این قانون به Googlebot میگوید که پوشه تصویر وبسایت شما را ایندکس نکند. اگر یک سئو کار حرفه ای نیستید، به هیچ عنوان سمت استفاده از این روش نروید؛ این تکنیک یکی از تکنیک های سئوی کلاه سیاه به حساب می آید و حتما باید توسط افراد حرفه ای و متخصص انجام شود. بعد از کلی گشتن تو نت دنبال پیدا کردن مشکلم، شما واقعا یه محتوای کاربردی نوشتید، بقیه یه چیز تکراری رو کپی زدن از هم. همواره از عدم وجود خطا در فایل robots.txt خود اطمینان حاصل کنید.
بعد از اینکه public_html را باز کردید، فایل را به داخل آن بکشید؛ توجه داشته باشید که به عنوان مالک سایت، باید بتوانید به تمام قسمت های فایل دسترسی داشته باشید و آن را بخوانید، ویرایش کنید و بنویسید. لازم به ذکر است که این دسترسی ها را هیچ شخصی به غیر از مالک سایت نباید داشته باشد. در ادامه ی مقاله نحوه ساخت فایل ربات را با دستورات آن آورده ایم.
به همین دلیل مدیریت بودجه کراول و خزش صفحات موضوع بسیار مهمی است و به کمک فایل ربات تی ایکس تی امکان برنامه ریزی آن برای ما فراهم می شود. در فایل ربات تی ایکس تی به کمک دستورهایی مشخص می توان تعیین کرد که ربات های گوگل کدام یک از صفحات سایت را نباید بررسی کنند، موضوعی که در سئو سایت، به خصوص سئو سایت فروشگاهی اهمیت بسیار بالایی دارد. هرچه تعداد صفحات وبسایت شما بیشتر باشد، رباتهای موتور جستجو زمان بیشتری برای خزیدن و ایندکس کردن صفحات نیاز دارد. همین زمان طولانی، روی رتبه سایتتان در نتایج جستجو، تاثیر منفی خواهد گذاشت. این که رباتهای خزنده هر چند وقت یک بار به سایت شما سر میزنند به چند فاکتور بستگی دارد.
شرح کاملی از لیست خدمات پشتیبانی سایت
گوگل که به خوبی از این موضوع آگاه است، برای اینکه به تجربه کاربری سایتها کمترین لطمه را وارد کند برای هر سایت یک بودجه خزش مشخص در نظر میگیرد و با توجه به فاکتورهای مختلفی این بودجه را کم یا زیاد میکند. موتور جستجو گوگل به تجربه کاربری سایتها توجه ویژهای دارد، یکی از مواردی که به تجربه کاربری کاربران لطمه زیادی وارد میکند بحث از دسترس خارج شدن سایت یا به اصطلاح down شدن آن است. لینک سازی داخلی و لینک سازی خارجی را می توان مهم ترین فعالیت برای بهینه سازی سایت یا سئو دانست. در ادامه به توضیحات بیشتری در این باره می پردازیم تا با استفاده از آن ها به گوگل بفهمانید که سایتی محبوب دارید. بنابراین در حال حاضر بدون نیاز به مورد خاصی، صفحه مدیریتی پنل سایت شما به صورت خودکار از لیست ایندکسهای موتورهای جستجو حذف میشود.
در مورد کلمات کلیدی کم رقابت، استفاده از ربات افزایش ورودی گوگل قطعاً سبب بالا آمدن سایت شما (ورود به صفحه اول و حتی آمدن به رتبه نخست) میشود اما در کلمات کلیدی پُر رقابت، قضیه آنقدرها آسان نیست. زیرا کسب رتبه در کلمات کلیدی پُر رقابت تنها به ورودی گرفتن از گوگل وابسته نیست و به عواملی نظیر اعتبار دامنه، اعتبار صفحه، بک لینکها و عوامل متعدد دیگر بستگی دارد. با این حال اگر سایت شما در یک کلمه کلیدی پر رقابت در صفحه سوم یا چهارم گوگل باشد استفاده از ربات شاید بتواند آنرا به صفحه دوم یا اول بیاورد اما نمیتواند آنرا به رتبه های نخست صفحۀ اول برساند. در مرحله ی اول به هیچ عنوان نباید نشون بدین که یه شخص ثابت همش یه کلمه کلیدی ثابت رو سرچ میزنه.
اگر تعداد صفحاتی که شما می خواهید با تعداد صفحات فهرست بندی شده برابر بودند. مثلا یک صفحه در دست ساخت دارید و یا اینکه یک صفحه برای ورود به بخش مدیریت سایت دارید. و صفحاتی را که تشخیص دهد که مهم نیستند، یا کپی از صفحات دیگر هستند را فهرست بندی نمی کند. فقط اینکه سرچ کنسول تغییر کرده و دیگه چنین مسیری برای دسترسی به تستر ربوت وجود نداره. اگر هنوز هم این قابلیت در سرچ کنسول هست لطفا مسیر جدید رو معرفی کنید. اشتباهات سئو بسیار رایج هستند، بهویژه اگر شما در این زمینه تازهکار باشید و یا کسبوکار خود را تازه راهانداخته باشید، ممکن است در دام این اشتباهات بیفتید.