فایل Robots.txt به موتورهای جستجو می گوید که چگونه می توانند وب سایت شما را جستجو کنند ، که آن را به یک ابزار فوق العاده قدرتمند SEO تبدیل می کند.
در این مقاله ، ما به شما نشان خواهیم داد که چگونه یک فایل robots.txt بی نقص برای سئو ایجاد کنید.
پرونده robots.txt چیست؟
Robots.txt یک فایل متنی است که دارندگان وب سایت می توانند با ایجاد آن برای رباتهای موتور جستجو چگونه صفحات را در سایت خود بخزند و فهرست کنند. این به طور معمول در پوشه اصلی وب سایت شما ذخیره می شود. قالب اصلی فایل robots.txt به این شکل است:User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
User-agent: [user-agent name]
Allow: [URL string to be crawled]
Sitemap: [URL of your XML Sitemap]
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Sitemap: https://example.com/sitemap_index.xml
آیا برای سایت وردپرس خود به یک پرونده Robots.txt نیاز دارید؟
اگر فایل robots.txt ندارید ، موتورهای جستجو همچنان وب سایت شما را خزنده و فهرست می کنند. با این وجود ، نمی توانید به موتورهای جستجو بگویید که نباید از کدام صفحات یا پوشه ها خزنده شوند. این برای اولین بار که یک وبلاگ راه اندازی می کنید و محتوای زیادی ندارید ، تأثیر زیادی نخواهد داشت. با این وجود وقتی وب سایت شما رشد می کند و محتوای زیادی دارید ، پس احتمالاً می خواهید کنترل بهتری بر نحوه خزیدن و نمایه سازی وب سایت خود داشته باشید. در اینجا دلیل آن وجود دارد. ربات های جستجو برای هر وب سایت سهمیه خزیدن دارند. این بدان معنی است که آنها تعداد مشخصی از صفحات را در یک جلسه خزیدن خزنده می کنند. اگر آنها خزیدن در تمام صفحات سایت شما را تمام نکنند ، آنها دوباره برمی گردند و در جلسه بعدی خزیدن را از سر می گیرند. این می تواند سرعت نمایه سازی وب سایت شما را کاهش دهد. با جلوگیری از تلاش رباتهای جستجو برای جستجوی صفحات غیرضروری مانند صفحات مدیریت وردپرس ، پرونده های پلاگین و پوشه تم ها ، می توانید این مشکل را برطرف کنید. با اجازه دادن به صفحات غیرضروری ، سهمیه خزیدن خود را ذخیره می کنید. این به موتورهای جستجو کمک می کند تا صفحات بیشتری را در سایت شما جستجو کرده و در اسرع وقت آنها را فهرست بندی کنند. دلیل خوب دیگر استفاده از فایل robots.txt زمانی است که می خواهید موتورهای جستجو را از نمایه سازی یک پست یا صفحه در وب سایت خود متوقف کنید. این امن ترین راه برای مخفی کردن مطالب از بین عموم نیست ، اما به شما کمک می کند تا از نمایش آنها در نتایج جستجو جلوگیری کنید.یک فایل Ideal Robots.txt چگونه به نظر می رسد؟
بسیاری از وبلاگ های معروف از یک پرونده robots.txt بسیار ساده استفاده می کنند. محتوای آنها بسته به نیاز سایت خاص ممکن است متفاوت باشد:User-agent: *
Disallow:
Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/
Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml
چگونه یک فایل Robots.txt در وردپرس ایجاد کنیم؟
برای ایجاد یک فایل robots.txt در وردپرس دو روش وجود دارد. شما می توانید روشی را انتخاب کنید که برای شما مناسب باشد. روش 1: ویرایش فایل Robots.txt با استفاده از همه در یک SEO All in One SEO همچنین به عنوان AIOSEO شناخته می شود ، بهترین افزونه SEO WordPress در بازار است که بیش از 2 میلیون وب سایت از آن استفاده می کنند. استفاده از آن آسان است و به همراه یک مولد فایل robots.txt ارائه می شود. توجه: نسخه رایگان AIOSEO نیز موجود است و از این ویژگی برخوردار است. پس از نصب و فعال سازی افزونه ، می توانید از آن برای ایجاد و ویرایش فایل robots.txt خود به طور مستقیم از منطقه مدیر وردپرس خود استفاده کنید. برای ویرایش پرونده robots.txt خود کافیست به All in One SEO , Tools بروید.






چگونه فایل Robots.txt خود را آزمایش کنیم؟
هنگامی که فایل robots.txt خود را ایجاد کردید ، همیشه بهتر است آن را با استفاده از یک ابزار تستر robots.txt تست کنید. ابزارهای زیادی برای آزمایش robots.txt وجود دارد ، اما توصیه می کنیم از یکی از ابزارهای موجود در کنسول جستجوی Google استفاده کنید . سپس ، می توانید از ابزار آزمایش Google Search Console Robots استفاده کنید .
