SEO best practices

فایل Robots.txt

 

Robots.txt یک فایل متنی است که مدیران وب ایجاد می‌کنند و به کمک آن، نحوه خزیدن (crawl کردن) صفحات وب سایت خود را به روبات‌های وب (معمولاً روبات‌های موتورهای جستجو) آموزش می‌دهند. فایل robots.txt بخشی از پروتکل حذف روبات‌ها (REP) است. این پروتکل، مجموعه‌ای از استانداردهای وب است که نحوه خزیدن روبات‌ها در وب، دسترسی و فهرست بندی محتوا و ارائه آن محتوا به کاربران را تنظیم می‌کند. REP همچنین شامل دستورالعمل‌هایی مانند meta robotها، و همچنین دستورالعمل‌های مربوط به صفحه، زیردایرکتوری یا کل سایت در جهت نحوه برخورد موتورهای جستجو با لینک‌ها (به عنوان مثال "دنبال کردن" یا "دنبال نکردن") است.

ادامه‌ی مطلب

Redirectها برای SEO

 

وب سایت‌ها معمولاً به طور دائم، ساختار خود را تغییر می‌دهند، صفحاتی را حذف می‌کنند و حتی از یک دامنه به یک دامنه دیگر منتقل می‌شوند. مدیریت صحیح ریدایرکت‌ها در پیشگیری از افت جایگاه و از دست دادن رتبه SEO سایت نقش حیاتی دارد و به موتور‌های جستجو در درک بهتر فعالیت‌های شما کمک می‌کند. در این آموزش، به شرح اصول ریدایرکت‌های مربوط به سئو پرداخته شده است.

ادامه‌ی مطلب