فایل Robots txt چیست و چگونه کار می کند ریوو وب
پس چنانچه هر سوالی در رابطه با این مقاله داشتید، از طریق بخش ارسال نظرات، در پایین این صفحه با ما در ارتباط باشید. تاکنون به خوبی با مزایای فایل robots.txt آشنا شدید؛ حالا قصد داریم به سراغ معایب این فایل برویم. یکی از این فایلها متعلق به دایرکتوری اصلی دامنه و دیگری متعلق به دایرکتوری اصلی دامنه فرعی (برای مثال وبلاگ) است. در ادامه یاد میگیرید اهمیت انجام هریک از نکات بالا در نوشتن فایل robots.txt چیست. ازجمله رباتهای مختلف گوگل میتوان به ربات Googlebot Image، ربات Googlebot Video و ربات Googlebot News اشاره کرد.
در سادهترین حالت، با کلیک راست روی تصویر پسزمینه ویندوز، گزینه text document را بزنید تا محیط ویرایشگر متن Notepad برای شما باز شود. در ادامه مسیر، فایل را با نام robots.txt ذخیره کنید و آن را باز نگه دارید تا در مرحله بعدی دستورهای لازم را به آن اضافه کنید. در ادامه، توضیح میدهیم نکات اصلی در ساخت فایل robots.txt چیست و چطور باید آن را به وبسایت اضافه و تست کرد. پس برای اینکه در دنیای تجارت بتوانید از رقبای خود پیشی بگیرید باید تمام مسائل را موردتوجه قرار دهید. شما توسط فایل Robots.txt میتوانید بهراحتی سئو سایت خود را بالا ببرید. این کار سبب میشود با زیادتر شدن محتوای سایتتان بتوانید روی آن مدیریت بهتری داشته باشید و مثل یک وبمستر حرفهای آن را کنترل کنید.
این ابزار به صورت خودکار این فایل را برداشته و آن را تست می کند. همه خطاهای احتمالی و خطرات و ایرادها را همینجا به شما تذکر می دهد. طبق آموزش ها با استفاده از نرم افزار FTP به وردپرس متصل شوید.
از طرف دیگر، بسیاری از این وبسایتها نمیتوانند ورود دائم رباتهای جستجو و کاربران را بهطور همزمان مدیریت کنند. برای حل این دو چالش، موتورهای جستجو از معیاری به نام بودجه خزش استفاده میکنند. اگر تعداد صفحات نمایهگذاریشده گزارش با تعداد صفحاتی که قرار بوده گوگل آنها را نمایهگذاری کند، برابر است، احتمالا به فایل robots.txt نیازی ندارید. در غیر این صورت تعداد صفحات وبسایت شما آنقدر زیاد شده که لازم باشد با استفاده از فایل robots.txt دسترسی رباتهای جستجو را به آنها محدود یا مجاز کنید. با این روش میتوانید فایل robots.txt وبسایتهای مختلف را در مرورگر ببینید. اکثر رباتها (رباتهای مودّب!) پیش از اینکه به بررسی صفحات وبسایت شما و ایندکس کردن آنها بپردازند، به سراغ فایل Robots.txt میروند و بر اساس قوانین نوشته شده در این صفحه اقدام به بررسی سایت شما میکنند.
حتی با کمک این دستور شما نمیتوانید HTTP یا HTTPS را مشخص کنید و این یک ویژگی منفی است. افراد بسیار کمی هستند که با دستور Host آشنا باشند؛ چرا که این دستور صرفا توسط موتور جستجوگر یاندکس (Yandex) پشتیبانی میشود. یعنی سایر موتورهای جستجوگر از جمله گوگل و بینگ، از دستور Host پشتیبانی نمیکنند. البته ناگفته نماند که این دستور از اهمیت زیادی برخوردار نیست. دستور Disallow بیشترین کاربرد را دارد و ممکن است در یک خط یا در چند خط مشخص کنیم که موتور جستجوگر به چه بخشهایی از سایت دسترسی نداشته باشد.
فایل txt کار می کند، نقشه سایت به موتورهای جستجو اجازه می دهد تا در فهرستی از تمام صفحات وب سایت شما در یک مکان بخزند. برای مثال با دستورات زیر در فایل robots.txt هیچ اتفاقی برای سایت رخ نمیدهد و در واقع به موتورهای جستجوگر گفته شده است که تمام قسمتهای سایت را مورد بررسی قرار دهید. Robots.txt یک فایل متنی میباشد که توسط موتورهای جستجوگر از جمله گوگل، مورد بررسی قرار میگیرد. البته فایل robots.txt با نام Robots Exclusion Protocol یا پروتکل REX نیز شناخته میشود که نتیجه توافقات بین توسعهدهندگان اولیه موتورهای جستجوگر میباشد. البته این پروتکل توسط هیچ سازمانی تایید نشده است؛ اما با این حال تمام موتورهای جستجوگر نسبت به آن حساس میباشند و اهمیت زیادی برای آن قائل هستند.
بدین ترتیب تمامی صفحات موجود در وبلاگ از دسترس ربات بایدو خارج خواهد شد. تنها برای آن میزان از منابع سختافزاری که نیاز دارید هزینه میپردازید و دیگر نیازی به پرداخت هزینههای غیر موجه، در ابتدای فعالیت وب سایت خود، نخواهید داشت. در غیر اینصورت احتمالا متا تگ نوایندکس گزینه بهتری برای شما باشد. بنابراین بغیر از این سه مورد، توصیه می کنیم به جای robots.txt از دستورات متا استفاده کنید. و احتمال وقوع فاجعه کمتری وجود دارد (مانند مسدود کردن کل سایت شما).
تا این بخش بهخوبی میدانید دستورات مهم در فایل robots.txt چیست و هرکدام چه کاربردی دارند. در ادامه، توضیح میدهیم چطور برای وبسایت فایل robots.txt بسازید و آن را به هاست وبسایت اضافه کنید. یک دلیل خوب دیگر برای استفاده از فایل robots.txt برای وردپرس این است که فایل ها و فولدرهایی که دوست ندارید، ایندکس نشوند و در نتایج جستجو گوگل نمایش داده نشوند. هدف از این آموزش این است که اگر مدیران سایت دوست نداشته باشند گوگل به تمام قسمتهای سایتشان نفوذ کند میتوانند از این فایل استفاده کرده و یک نوع حریم برای سایتشان ایجاد کنند.
آموزش ساخت و تست فایل robots.txt
فهرست مطالب
پس انعکاس تغییرات اعمال شده در فایل Robots.txt زمان زیادی نخواهد برد و سریعا اعمال میشود. کاربران میتوانند برای انجام این کار به صورت دستی وارد هاست خود شده و نسبت به Edit فایل ربات سایت اقدام کنند. در سایتهای اختصاصی کافیست دستورات این فایل را درون فایلی به همین نام با پسوند txt وارد کرده و سپس آن را در بخش روت سایت خود آپلود کنید. خط بالا یک کد از نوع meta robots tag است که میتواند برای تعیین ایندکس کردن یک صفحه به کار برود. شما میتوانید با ۱۱ دستور، شیوه ایندکس شدن صفحه را بیان کنید. اگر برای ایندکس کردن تمام صفحات خود با مشکل مواجه هستید، ممکن است با مشکل بودجه crawl مواجه شوید.
تا اینجای مطلب شما را با فایل robot.txt و نحوه عملکرد آن آشنا کردیم. حال در ادامه مطلب قصد داریم نحوه ساخت فایل robots.txt را با استفاده از روش های مختلف به شما آموزش دهیم. از بین این گزینهها روی گزینه «تنظیمات سئو» کلیک کرده تا وارد بخش مربوطه شوید. اگر سایت شما وردپرسی است با نصب افزونههای سئو وردپرس نظیر رنک مث یا یوست سئو به صورت خودکار برای شما این فایل ایجاد خواهد شد. در غیر این سئو مگ صورت به پوشه public_html در هاست خود بروید و یک فایل متنی با نام robots.txt ایجاد کنید و محتوای آن را مطابق با نیازهای خود و مطالب ارائه شده در این مقاله اصلاح کنید.
دامنه سایت
شما میتوانید با استفاده از افزونهای که در بالا ذکر شد کاری کنید که قسمتی از فایلها مانند readme.html در گوگل ایندکس نشود و یا غیرازاین میتوانید هر فایل دلخواه دیگری را مشخص کنید تا نمایش داده نشود. بنابراین این ربات در بالا رفتن سئو سایت اهمیت فراوانی دارد که نمیتوان آن را نادیده گرفت. در نظر داشته باشید که عدم نصب این فایل به معنی جستجو نشدن سایت شما نیست اما نصب آن بهشدت به مدیران سایت توصیه میشود و تقریباً تمام مدیران سایتها به خاطر اهمیت آن حتماً آن را نصب میکنند. شما توسط این فایل بهعنوان یک وبمستر حرفهای عمل کرده؛ اهمیت فایل تاحدی است که حتی خود گوگل هم دارای این فایل است!
البته اگر جلوی عبارت Disallow خالی باشد، به این معنا است که هیچ بخشی از سایت محدود نشده است و موتور جستجوگر به تمام بخشهای سایت دسترسی دارد. برای مثال، اگر نمیخواهید تصاویر وبسایت در نتایج جستجوهای تصویری گوگل به کاربران نمایش داده شوند، میتوانید دستور آن را بهطور دقیق روی Imagebots گوگل و فایل تصاویر تنظیم کنید. رباتهای جستجو از هر چیزی که با علامت هشتگ در فایل robots.txt شروع شود، بیتوجه رد میشوند.
در حقیقت، وقتی شما از دستور Disallow استفاده میکنید، رباتهای جستجوگر مثل Googlebot دیگر قادر به دسترسی و ایندکس کردن آن صفحات یا مسیرها نخواهند بود. این قابلیت میتواند برای بهینهسازی خزیدن رباتها و مدیریت صحیح بودجه خزش سایت بسیار مفید باشد. دستور آخر و قدیمی فایل robots.txt که گوگل هیچوقت پیروی از آن را رسما تایید نکرد، دستور noindex نام دارد که استفاده از آن ظاهرا نمایهگذاری صفحه و نمایش آن را در نتایج جستجو مسدود میکند. بهینه سازی سئو یکی از مهم ترین موضوعاتیست که می تواند به بهبود رتبه و ترافیک سایت شما کمک کند. روش های مختلفی برای بهینه سازی سایت وجود دارد که یکی از آنها، ساخت فایل robots.txt می باشد.
اگر تا این بخش از مطلب را بهخوبی مطالعه کرده باشید، میدانید فایل robots.txt چیست و چطور ساخته و استفاده میشود. جدای از آن، در مورد افزایش خوانایی محتوای شما نیز به شما کمک می کند، به این معنی که کاربران از خواندن محتویات سایت شما لذت خواهند برد. علاوه بر قابلیت های بهینه سازی، این افزونه به شما امکان ایجاد فایل robots.txt را نیز می دهد. Robots.txt باید در ریشه وب سایت قرار بگیرد تا خزنده آن را پیدا کنند.
مرحله اول: مشاهده فایل robots.txt
بعد تمام محتوایات فایلی که از سرچ کنسول دانلود کردید را کپی کرده و داخل کادر این صفحه وارد کنید. در نهایت روی دکمه ذخیره فایل کلیک کنید تا فایل robots.txt سایت شما ایجاد شود. در این فایل نوشته شده است که رباتهای گوگل به کدام قسمتهای سایت میتوانند دسترسی داشته باشند.
مدیریت لینک ها و آدرس ها (URL) با Robots.txt
تمامی حقوق مادی و معنوی این سایت برای مجموعه نوین وردپرس محفوظ است. در صورتی که فایل را پیدا کرده اید، کافیست روی آن راست کلیک کرده و گزینه “ویرایش” را کلیک نمائید تا وارد ویرایشگر فایل شوید. در این قسمت قوانینی به صورت پیش فرض وجود دارد که در بخش پیش نمایش Robots.txt می توانید مشاهده کنید. بعد از آن از پیشخوان وردپرس خود از بخش “All in One SEO” روی گزینه “ابزار” کلیک کنید. در عین حال که فایل robots.txt برای خیلی ها ناشناخته است اما در سئو چندان بی اهمیت نیست. بهجز اینها، یک دستورالعمل هم در برخی فایلهای Robots.txt وجود دارد که آوردن آن اختیاری است؛ Crawl-delay.
اضافه کردن نقشه سایت (Site Map) به فایل Robots.txt
یکی از نکاتی که باید سئو خارجی و لینکسازی ممکن است به آن توجه نکنید آن است که اگر سایت دیگری به صفحهای که شما در فایل Robots.txt آن را غیرمجاز ثبت کنید لینک دهد، ممکن است آن URL ایندکس گردد. برای رفع این مشکل حتما نسبت به ایجاد رمز در فایلهای سرور اقدام کرده و از متاتگهای Noindex یا Respone Headerها استفاده کنید. در سایتهایی که حجم بسیار زیادی دارند، برخی از وبمسترها تلاش میکنند تا برای ذخیره و حفظ پهنای باند خود، تنها به خزندههای مهم مانند گوگل باتها دسترسی بدهند.
در اینجا مثالی از فایل robots.txt وردپرس برای شما نمایش داده ایم. توسط این فایل شما میتوانید مشخص کنید که گوگل چه قسمتهایی از سایت شما را ایندکس کند و درواقع میتوانید گوگل را کنترل کنید. توسط این فایل قسمتهای محدود و مشخص از سایت شما توسط موتورهای جستجو ایندکس میشود. درواقع توسط این قسمت مشخص میشود که گوگل به چه قسمتهایی دسترسی داشته باشد و سراغ محتوای غیر مرتبط نرود. بعد از آن باید مشخص کنید که موتورهای جستجوگر دسترسی به خزیدن آنها را داشته باشند یا خیر.
پشتیبانی در مجموعه نوین وردپرس یک مسئولیت مهم و ضروری در قبال کاربران است ، هیچ محصولی بدون پشتیبانی و همراهی سازنده ارزشی ندارد واحد پشتیبانی کاربران نوین وردپرس همیشه و همه جا همراه شما میباشد. حال در آن قسمت می توانید بدون خروج از پیشخوان مدیریت، فایل htaccess خود را ایجاد و ویرایش کنید. همچنین یک دکمه وجود دارد که از شما سوال می پرسد “می خواهید یک فایل htaccess ایجاد کنید؟” که با کلیک روی آن می توانید یک فایل جدید ایجاد نمائید.
شاید این موضوع شاید کمی عجیب باشد، اما نکتهای مهم در رابطه با فایل robots.txt است که اکثر سئوکارها از آن بیخبر هستند. در گام بعدی، با روش ساخت فایل robots.txt، اضافه کردن آن به وبسایت و تست عملکرد آن آشنا میشویم. در پایان هم چند نکته مهم و حرفهای را برای ساخت بهتر فایل ربات یاد میگیریم.
در ادامه ی مقاله نحوه ساخت فایل ربات را با دستورات آن آورده ایم. فایل روبوت robots.txt چیست؟ نحوه ساخت فایل robots.txt چگونه است؟ بهترین و مناسب ترین فایل روبوت برای وردپرس و جوملا چیست؟ پاسخ به همه این پرسشها را میتوانید در این مقاله از سایت میزفا مطالعه نمایید. همچنین مگ سئو در این مقاله ۸ مثال کاربردی درباره فایل روبوت (ربات) گفته شده است.
دیدگاه دربارهٔ «فایل robots.txt چیست؟ آموزش ساخت فایل ربات سایت»
به دلیل وجود برخی صفحات بیارزش، انجام این کار ممکن است برای بهینه سازی سئو سایت مناسب نباشد. بنابراین توجه کنید که اگر میخواهید از ایندکس صفحهای جلوگیری کنید، بهتر است از متا تگ ربات استفاده نمایید. چراکه قرار دادن این دستور برای صفحه موردنظر در فایل Robots.txt تضمین کننده عدم نمایش آن به موتورهای جستجو به صورت قطعی نیست. تنظیم و ساخت چنین فایلهایی یکی از مهمترین اقداماتی است که در سئو تکنیکال انجام میشود.
- برای این روش، باید از یک سرویس گیرنده FTP برای ویرایش فایل robots.txt استفاده کنید.
- خوشبختانه خود گوگل ابزار بسیار خوبی برای تست فایل robots.txt ایجاد کرده که البته قبل از استفاده از آنها باید مطمئن شوید که فایل robots.txt وبسایت شما بهطور کامل در دسترس همه قرار گرفته است.
- همچنین دقت کنید که دسترسی به مشاهده تصاویر، فایل های جاوا اسکریپت و CSS در این فایل محدود نشده باشد.
- در عین حال که فایل robots.txt برای خیلی ها ناشناخته است اما در سئو چندان بی اهمیت نیست.
فایل robots.txt یا متاتگ روبات
از جمله این رباتها میتوان به Spambots اشاره کرد که با تحلیل وبسایتهای سطح وب، رباتهای اسپمری که در بستر یک وبسایت مخفی شدهاند را شناسایی و نشانه گذاری میکند. خیر، این فایل فقط به رباتهای جستجو میگوید که کدام بخشها را بررسی نکنند، اما مانع دسترسی هکرها یا کاربران عادی نمیشود. برای محافظت از دادههای حساس، بهتر است از احراز هویت و تنظیمات امنیتی سرور استفاده کنید.
حالا تصور کنید که حتی بدون لینک بیلدینگ هم می توانید به این … با این حال، ۳ دلیل اصلی وجود دارد که میخواهید از فایل robots.txt استفاده کنید. برای ساخت فایل txt اول باید یک فایل یا داکیومنت با نام robots.txt باز کنید. حواستان باشد که برای این کار از نرمافزارهای ویرایش متن مثل ورد استفاده نکنید؛ چون ممکن است فایل را با فرمت خاصی ذخیره کند و بعداً برایتان مشکلساز شود.
حال که تاحدودی فهمیدیم فایل Robots.txt چه تاثیری در سئو دارد؟ لازم است برای آموزش ساخت فایل ربات اطلاعاتی را مطرح نماییم. برای ایجاد فایل Robots.txt، از آنجایی که چنین دادهای در حالت معمول خود به عنوان یک فایل txt شناخته میشود، شما میتوانید آن را به صورت دستی نیز بسازید. برای این کار میبایست با دستوراتی که بیان کردهایم آشنا شده باشید. Robot.txt یک فایل متنی است که برای بهبود سئو سایت از طریق مدیریت ایندکس گوگل، مورد استفاده قرار می گیرد. دستور سایت مپ(نقشه سایت) برای معرفی کردن نقشه سایت (سایت مپ) به کراولر ها کاربرد دارد. نقشه سایت یک فایل XML است که شامل لیستی از تمام صفحات وب سایت شما و همچنین متادیتاها می باشد (متادیتا شامل اطلاعاتی است که به هر URL منسوب می شود).
دستور دیس الو (Disallow)
در این شرایط است که برای بهینه سازی عملکرد سایت، باید ربات های موتور جستجوی گوگل را محدود کرد؛ برای انجام این کار هم باید از فایل Robots.txt استفاده کرد. این صفحات فیلتری ارزش سئویی ندارند و حتی ممکن است محتوای تکراری نیز قلمداد شوند. مهمتر از آن، خزش این صفحات بودجه خزش و ایندکس شدن سایر صفحات ارزشمند سایت شما را میگیرد. بنابراین، یکی از کاربردهای اصلی فایل robots.txt اطمینان از بودجه بندی درست بودجه خزش سایت شماست.
Robots.txt یک فایل متنی ساده است که به ربات های موتورهای جستجوگر همچون گوگل اطلاع می دهد که در کدام صفحات سایت شما بخزند و کدام صفحات را ایندکس نکنند. با کمک این فایل می توانید نحوه خزیدن و ایندکس کردن صفحات سایت را فهرست بندی کنید. کاری که فایل robots.txt انجام می دهد، ارائه مجموعهای از دستورالعمل ها برای ربات های موتورهای جستجوگر است. مهمتر از آن، بدون فایل robots.txt تعداد زیادی ربات در وب سایت شما می خزند که این می تواند بر عملکرد سایت تأثیر منفی بگذارد. یک ربات باید در ابتدا خزشی را صورت بدهد و سپس تصمیم میگیرد که آن را در دیتابیس موتورهای جستجو ذخیره کند یا نه.
مرحله پنجم: ثبت در گوگل سرچ کنسول
متا تگ Robots در صفحاتی مانند صفحه جستجو سایت مهم هستند زیرا این صفحات برای کاربران خود سایت بسیار حائز اهمیت هستند و پل ارتباطی بین صفحات سایت محسوب میشوند. اما برای کاربری که از گوگل به سایت منتقل میشود این صفحه فاقد اهمیت است. کاربر مسلما نمی خواهد از گوگل به صفحه جستجوی دیگری منتقل شود.
ابتدا شما باید گزینه “فعال کردن Robots.txt سفارشی” را فعال کنید. با فعال کردن این گزینه، می توانید یک فایل robots.txt سفارشی در وردپرس خود ایجاد کنید. در انتهای خط اول این بخش مثل عکس زیر روی عبارت «اینجا را کلیک کنید» کلیک کرده تا صفحه جدیدی برای شما باز شود. با کلیک بر روی آیکون سه نقطه در سمت راست گزارش میتوانید به گوگل درخواست بررسی مجدد فایل روبات را بدهید. پس از خزش یک صفحه توسط خزندههای گوگل، آن صفحه در پایگاه داده ایندکس میشود.
در سمت راست دستوراتی را مشاهده میکنید که در فایل robots.txt درج کرده بودید. این نشان دهنده این است که شما به درستی این فایل را ایجاد کردهاید و مکان آن صحیح است. دستور زیر وقتی کاربرد دارد که شما در آدرسهای خود کاراکتری مانند ? را داشته باشید چراکه گاهی به دلیل مشکلات فنی در سایت، مقاله شما ممکن است با آدرسهای مختلف و با مقادیر متفاوت انتشار پیدا کند. به همین منظور دستور زیر را به شکل موقت درج میکنید تا رباتها آدرسهای دارای کاراکتر علامت سؤال را ایندکس نکنند. به همین راحتی میتوانید با دستور sitemap مشخص کنید که نقشه سایت در کجا قرار دارد.
این دستور مشخص میکند که موتورهای جستجوگر چه مقدار باید صبر کنند تا یک صفحه به صورت کامل بارگذاری شود و شروع به خزیدن کنند. البته همانطور که پیش از این گفتیم، پیشنهاد میکنیم از این دستور استفاده نکنید. چرا که استاندارد نیست و توسط موتورهای جستجوگر مهم از جمله گوگل، شناسایی نمیشود.
هدف از استفاده از این دستور، کاهش بار کاری سرور و جلوگیری از کند شدن وبسایت است. یکی از مواردی که در سئو باید رعایت کنید این است که رباتهای گوگل صفحات غیرضروری شما را در نتایج جستجو وارد نکنند. حالا چرا باید این کار انجام شود؟ دلیلش این است که این صفحات از نظر گوگل سئوی مناسبی ندارند.
این فایل حجم سنگینی ندارد و در اکثر مواقع نهایتاً چند صد بایت خواهد بود. در واقع این خزندگان سطح وب، با بررسی این فایل، اطلاعات سایت شما را به ثبت میرسانند. اگر به دنبال مثال های بیشتری هستید مقاله Robots.txt Specifications گوگل هم میتواند برای شما مفید باشد. حالا وقت آن است که مزایای فایل robots.txt را برای شما توضیح دهیم. فراموش نکنید که نام فایل به حروف کوچک و بزرگ حساس است و حتما باید بهصورت robots.txt آن را ذخیره کنید نه Robots.txt یا robots.TXT یا هر نام دیگری. وب وان مجموعه کاملی از خدمات و محصولات شامل بازاریابی دیجیتال, سئو, سوشال مدیا,طراحی سایت, مارکت پلیس و پیامک انبوه است تا نیازهای شما را در تمام مراحل مرتفع کند.
البته فراموش نکنید که بعد از اتمام تغییرات حتما دکمه ذخیره را بزنید.به این ترتیب می توانید با افزونه یواست سئو فایل robot.txt را ویرایش کنید. در صفحه بعد، یواست سئو، فایل Robot.txt قبلی را به شما نشان می دهد. و اگر تا به حال این فایل را نداشتید، در این مرحله robot.txt ایجاد می شود. نوین وردپرس تداعی خلاقیت و نوآوری در دنیای وردپرس فارسی است ، کیفیت محصولات ، پشتیبانی ویژه و منحصربه فرد از ویژگی های برجسته نوین وردپرس میباشد. تمامی محصولات تجاری مجموعه بصورت اورجینال از مراجع مربوطه خریداری شده و با بهترین کیفیت در اختیار شما عزیزان قرار میگیرد.
خطاهای فایل robots.txt و اشتباهات آن را بررسی کنید
همچنین این نکته را هم در نظر داشته باشید که هر زمانی که یک قانون جدید را اضافه یا حذف می کنید، تغییرات خود را ذخیره نمائید. نهایتا گوگل در موج دوم ایندکسینگ، خروجی صفحات وب را از طریق مرورگر render میکند تا مطمئن شود که صفحات به طور مناسب برای کاربران نمایش داده میشود و سرعت و تجربه کاربری مناسبی را ایجاد میکند. البته خزندههای گوگل دیگر این دستور را در فایل روبوت نمیخوانند و برای تنظیم کراول ریت باید از طریق سرچ کنسول اقدام کنید.
برای انجام این کار، ابتدا باید به قسمت URL removal سرچ کنسول مراجعه کرده و درخواست خود را برای دامنه مذکور ثبت کنید. برای حذف دائمی صفحه از نتایج گوگل، تگ Noindex را در صفحه خود از طریق کدنویسی یا پلاگینهای سئو سایت اضافه نمایید. در نهایت پس از گذشت این مدت، قادر خواهید بود صفحه را به صورت کامل حذف نمایید. تنها کافیست فایل مذکور را در قسمت Root سایت خود آپلود کرده و اجازه دهید تا رباتهای گوگل هر ۲۴ ساعت نسخه کش شده آن را بروزرسانی کنند. اگر میخواهید این کار سریعتر انجام شود، کافیست از Robots.txt Tester گوگل استفاده نمایید. Txt بیشتر برای مدیریت فعالیتهای رباتهای خوب مانند خزندههای وب در نظر گرفته شدهاند، زیرا رباتهای بد احتمالاً دستورالعملها را دنبال نمیکنند.
تا اینحا میدانید دو دستور اصلی فایل robots.txt چیست و هرکدام چه کاربردی دارند. اما Robots.txt چیست؟ چطور این فایل را به صورت بهینه برای سئو ایجاد کنیم؟ و از کجا بدانیم که این فایل هیچ نقصی ندارد؟ در این مقاله می خواهیم همه این موارد را بررسی کنیم. معمولا دومین گزینه در لیست نتایج گوگل مربوط به گوگل سرچ کنسول است که باید روی آن کلیک کنید. برای جلوگیری از خزش یک صفحه خاص، میتوانید از دستور disallow با یک URL خاص استفاده کنید. برای جلوگیری از خزش همه صفحات در یک دسته، میتوانید از دستور disallow استفاده کنید. ساده ترین روش برای ساخت فایل robots.txt استفاده از برنامه notepad ویندوز است.
یعنی صفحاتی که در این فایل Disallow شدهاند، توسط رباتها بررسی نخواهند شد. برای این که سایت شما بیشتر دیده شود و افراد زیادی وارد آن شوند راههای مختلفی وجود دارد. سئو در اصل باعث میشود که سایت شما در صفحات اول موتورهای جستجو مثل گوگل نمایش داده شود. بنابراین وقتی افراد مختلف عبارتی را سرچ میکنند، احتمال این که وارد سایت شما شوند بیشتر میشود.
رباتهای تمام توسعهدهنگان موتورهای جستجو از جمله گوگل، بینگ و Duckduckgo، از این دسته رباتها هستند. رباتهای جستجو خواندن دستورات فایل robots txt را از ابتدای آن شروع میکنند و اولین بلوک دستوری را که خطاب به آنها باشد، انتخاب میکنند. بههمین دلیل بهتر است فایل robots.txt را اول با دستورهای User-Agent که گروه خاصی از رباتهای جستجو را خطاب قرار میدهند، شروع کنید و در ادامه به سراغ دستورهای کلیتر بروید.