پس بنده باید داخل فایل منیجر هاستم دنبال آدرس وبم باشم و فایل رو داخل اون پوشه آپلود کنم ولی به گفته ی شما باید این فایل تکست داخل روت هاست آپلود شه. وقتی فایل ربات شما خالی از دستورات باشد، ربات ها هر گونه که بخواهند با سایت شما رفتار می کنند. اگر واقعا مصمم هستید سایت خود را با افزونه Yoast SEO بهینه سازی کنید. پیشنهاد میکنیم از نسخه تجاری و حرفه ای آن استفاده کنید، و البته اگر آن را از مانگو تهیه کنید، هم پشتیبانی دریافت میکنید هم بروز رسانی های آن را به طور اورجینال دریافت می کنید. این افزونه به طور خودکار یک فایل می سازد، دسترسی های آن را بررسی کرده و آن را به گوگل و بینگ نشان می دهد.
- بنابراین، robots.txt یک ابزار ضروری برای کنترل نمایهسازی صفحات شما است.
- همانطور که عنوان شد تمام صفحات یک سایت از درجه اولویت یکسانی برخوردار نیستند و عموم وبمستران نیز تمایل دارند که بیشتر تمرکز بر صفحات اصلی سایت باشد.
- با تنظیم صحیح این فایل میتوانید فرایند خزش در سایت خود را بهینه سازی کنید و از فهرست شدن صفحات با محتوای تکراری جلوگیری کنید.
- البته در حال حاضر میتوان از این فایل برای خارج کردن فایلهایی مثل تصاویر، ویدیو یا صدا از نتایج جستجو استفاده کنید اما برای صفحات وب مناسب نیست.
اما وقتی کدهای مربوطه را در صفحات خود جاسازی می کنید، ممکن است گوگل پیشنهاد دهد که به دلیل اینکه محتوای جایگذاری شده بدون فهرست است، این کار را انجام ندهید. صفحه ای را که ما به عنوان مثال در آن کدهای مربوطه را جایگذاری می کنیم به طور حتم ایندکس خواهند شد. در این بخش، گوگل به شما کنترل بیشتری می دهد تا بگویید، صفحه ای را که در آن کدهای مربوطه جایگذاری شده اند را چگونه فهرست کنید. این موضوع را به عنوان هشداری در گوگل در مورد جایگذاری شبکه های اجتماعی از جمله اینستاگرام یا سایر تصاویر و مشکلات سئو که می توانید ایجاد کنید موثر خواهد بود. برخی موتورهای جستجو از چند نوع ربات برای بررسی سایتها استفاده میکنند؛ مثلاً گوگل دارای ربات Googlebot برای جستجوی ارگانیک در بین سایتها است. همچنین گوگل دارای ربات Googlebot-Image برای جست جوی تصاویر نیز است.
ربات ارتقاء سئو و افزایش ورودی گوگل
یک متخصص سئو میتواند از فایل ربات robots.txt برای استراتژی سئو استفاده کند. پس شما و تقریبا همه ی ادم هایی که به عنوان یه انسان معمولی از گوگل استفاده میکنندهیچ وقت یه کلمه کلیدی ثابت رو به مدت یه هفته تا یه ماه پشت سر هم سرچ نمی زنند و روی یک سایت کلیک نمیکنند. AMP تکنولوژی گوگل برای افزایش سرعت صفحات وب در نمایشگرهای موبایل است. موارد خاصی نیز وجود دارد که نمیخواهید هیچ بودجه خزشی را برای بازدید گوگل در صفحاتی با تگ noindex هدر دهید.
بهینه سازی فایل Robot.txt برای بهبود سئو
فایلهای Robots.txt دسترسی خزنده به ناحیه های خاصی از سایت شما را کنترل میکنند. درحالیکه اگر شما به طور تصادفی Googlebot را از خزیدن در کل سایت خود منع کنید، میتواند بسیار خطرناک باشد، برخی موقعیت ها وجود دارد که در آن فایل robots.txt میتواند بسیار مفید باشد. حتی اگر صفحه robots.txt مثلاً در webjavan.com/index/robots.txt یا /homepage/robots.txt وجود داشته باشد، توسط عوامل کاربر کشف نمیشود و در نتیجه سایت تحت درمان قرار میگیرد. این یک لیست قابل خواندن ماشینی از تمام صفحات یک وبسایت است.
این کد به این معنی است که “اجرای دستورات فایل، تنها برای ربات گوگل الزامی است. و شما میتوانید برای ویرایش و ایجاد آن از یک FTP یا با فایل منیجر کنترلپنل هاست خود اقدام کنید. این فایل درست مثل هر فایل متنی معمولی است و شما میتوانید آن را با یک ویرایشگر متن ساده مانند Notepad باز کنید. فایل Robots.txt یک فایل متنی ساده (با پسوند txt) است که توسط موتورهای جستجو و برخی سیستمهای دیگر خوانده میشود و نام دیگر آن «Robots Exclusion Protocol» به معنی پروتکل حذف رباتها است. این فایل حاصل یک اجماع بین توسعه دهندگان موتورهای جستجو در روزهای ابتدایی بوجود آمدن اینترنت است ولی همچنان اغلب موتورهای جستجو بدان پایبند هستند. در هنگام طراحی سایت، مطمئن شوید که از این فایل در هیچکدام از URL هایی که می خواهید توسط گوگل ایندکس شوند و نتایج آنها نمایش داده شوند، استفاده نکرده اید.
مدیریت لینک ها و آدرس ها (URL) با Robots.txt
با فعال کردن این گزینه یک فایل سفارشی robots.txt در وردپرس ایجاد خواهد شد. ما مقاله ای کامل در زمینه سئو فروشگاه نوشتیم که تبدیلش کردیم به یک کتاب pdf میتونید در این صفحه دانلود کنید هر آموزشی که برای یک فروشگاه اینترنتی لازم هست رو توضیح دادم. یک نمونه فایل صحیح ربات robots.txt که شاید بیشتر کاربران به دنبال آن هستند، میتوانید آن را در زیر مشاهده کنید. شما باید یک فایل ربات داشته باشید که حداقل یک دستور درون خود دارد.