کمپین تبلیغاتی

راهنمای جامع نحوه ساخت فایل robots txt به همراه ۸ مثال کاربردی

اگر وردپرس روی دامنه اصلی شما نصب شده کافیه توی همین مسیر باشید اما اگر در پوشه جدایی اونو نصب کردید باید وارد همون پوشه از هاست خودتون بشید. حالا که به مسیر درست رسیدید با استفاده از برنامه notepad یا هر نرم‌افزار ویرایشگر متن که دارید یک فایل با نام robots.txt و همین فرمت بسازید و با کلیک روی دکمه آپلود در فایل منیجر هاست اونو به این مسیر اضافه کنید. یا اینکه با کلیک روی دکمه FILE+ کلیک کنید تا پنجره‌ای مشابه تصویر زیر براتون باز بشه و بعدش نام فایل را در فیلد New File Name با نام robots.txt وارد کنید و در نهایت روی دکمه Create New File کلیک کنید تا فایل شما ساخته شود. شما می توانید طبق دستورالعملی که در بخش قبلی آموزش دادهشد، فایل robots.txt خود را ویرایش و بهینه سازی کنید. بعد ازاینکه کار شما به پایان رسید روی دکمه “ذخیره تنظیمات به robots.txt” کلیککنید تا تغییرات شما ذخیره شود. در این آموزش دستورالعمل مثال بالا در فایل robots.txt به ربات های جستجو اجازه ایندکس کردن تمام فایل ها و تصاویر وردپرس را می دهد.

آیا اجازه برای ایندکس کردن فایل با فرمت خاصی مثل pdf یا png را دارد یا خیر؟! در این آموزش به نحوه ساخت robots.txt برای وردپرس پرداخته و در نهایت نیز یک فایل بهینه و استاندارد robots.txt برای سایت‌های وردپرسی را درج می‌کنیم. برای بهینه‌سازی سایت وردپرسی خود می‌توانید از افزونه‌های سئو استفاده کنید که اکثر آن‌ها تنظیماتی برای ایجاد فایل robots.txt دارند.

چگونه با مهارت‌های وردپرس، اکسل و فتوشاپ یک وبسایت بی‌نقص بسازیم

یا دکودرهای (رمزگشا) مخصوصشان نوشته شده است، یا سورس شما را دارای باگ می‌کند یا محدود به نگارش PHP خاصی می‌کند که بسیار وقت‌گیر و دوباره‌کاری به بار می‌آید. ضمن اینکه غالبا هزینه‌های بسیار بالایی برای تهیه آن‌ها نیاز است و همچنین امنیت کامل را برای شما تامین نمی‌کنند. زی لایسنس اولین و برترین سرویس است که بصورت ۱۰۰% ایمن برنامه نویسی شده است و بصورت یک سامانه آنلاین جهت مدیریت و ساماندهی لایسنس ها با الگوریتمی بسیار نوین و ایمن برای مشترکین ایفای نقش میکند. بطور کلی توسط سرویس زی لایسنس میتوانید برای کلیه پروژه های php، اسکریپت، سیستم های فروشگاهی، سایت ساز، قالب، افزونه و هر آن چیزی که میخواهید مجوز و لایسنس تعریف کنید.

اگر پلاگین یواست را بر روی سایت خود ندارید ابتدا باید آن را نصب و فعال کنید. برای اینکار از پیشخوان وردپرس و منو سمت راست به بخش افزونه‌ها بروید و روی گزینه افزودن کلیک کنید. اسم پلاگین Yoast SEO را مطابق تصویر زیر جستجو کرده و آن را نصب کنید. مدیرهای سایت‌ها می‌توانند با ساخت robots.txt روی هاست خود، فقط به خزنده‌های اخلاق مدار پیشنهاد دهند.

چگونه با استفاده از Yoast SEO اقدام به ساخت و ویرایش Robots.txt بزنیم؟

ابتدا فایلی متنی با نام robots.txt در کامپیوتر شخصی خود ایجاد نمایید. با استفاده از متن بالا مگ سئو شما دسترسی تمام ربات‌ها به دایرکتوری wp-admin را مسدود کردید اما آن‌ها اجازه دسترسی به فایل widgets.php داخل این دایرکتوری را دارند. همچنین باید حواستان باشد قوانین داخل این فایل به کوچک یا بزرگ بودن اسامی حساس هستند. به عنوان مثال در نمونه بالا نام تصویر را باید درست به همان شکل وارد کنید و نوشتن اسم تصویر مورد نظر به‌شکل Myphoto.jpg، شما را از هدفتان دور می‌کند. این عبارت به نام ربات یک موتور جستجو اشاره می‌کند که قوانین داخل فایل باید برای آن اجرا شوند. می‌توانید فایل خود را با استفاده از ابزارهایی مانند Google Search Console تست کنید تا اطمینان حاصل کنید که به درستی کار می‌کند و دستورات شما را به طور صحیح اجرا می‌کند.

با این کار، موتورهای جستجو وقت بیشتری برای ایندکس صفحات مفید و ضروری شما دارند. حالا که فایل را ایجاد کردید بر اساس توضیحاتی که در ادامه میدم میتونید تا با دستورات و قوانینی که این فایل داره دسترسی برای موتورهای جستجو توسط این فایل را به پوشه‌های مختلف از هاست خودتون کنترل کنید. پس از ایجاد فایل robots.txt و اعمال تغییرات موردنظر خود بهترین کار این است که با استفاده از یک ابزار تست کننده robots.txt آن را آزمایش کنید تا از نصب صحیح آن مطمئن شوید. اگر از افزونه All In One SEO استفاده می کنید می توانید فایل robots.txt را در رابط افزونه ایجاد و ویرایش کنید. تنها کاری که باید انجام دهید این است که در پیشخوان وردپرس به مسیر سئوی کامل » مدیریت قابلیت ها بروید و ویژگی Robots.txt را فعال کنید. شما می توانید هر کدام از روش ها را که در سایت شما بهتر کار می کند، انتخاب کنید.

چرا که آدرس‌ هایی مثل آرشیو، برچسب، دسته‌ بندی و… در وردپرس در حکم یک پوشه یا دایرکتوری نیستند که با استفاده از این روش بتوانید دسترسی به آنها را غیرفعال کنید. بلکه این آدر‌ها از طریق دیتابیس تعیین شده‌ اند و عملا پوشه‌ ای با نام category یا tag در هاست شما وجود ندارد که با استفاده از این روش بخواهید دسترسی را محدود کنید. حال که با ساختار فایل robots.txt وردپرس آشنا شدید در ادامه به معرفی راه‌ هایی برای بهینه سازی robots.txt می‌پردازم تا با استفاده از این راه‌ ها سئو وردپرس خودتان را بهبود دهید. با جلوگیری از خزیدن صفحات غیرضروری، موتورهای جستجو زمان و منابع کمتری را صرف بررسی سایت می‌کنند. این امر باعث می‌شود که بخش‌های اصلی سایت سریع‌تر ایندکس شوند و سرعت پاسخگویی سرور بهبود یابد. برای ساخت فایل robots.txt وردپرس ابتدا وارد هاست خودتون بشید و بعد از ورود روی File Manager کلیک کنید تا به فایل منیجر هاست هدایت شده و بتونید فایل‌های موجود در هاست را کنترل کنید.

به عنوان مثال، Googlebot-Image قوانین رو برای اسپایدر Google Images تعریف می کنه. را داشته باشید چراکه گاهی به دلیل مشکلات فنی در سایت، مقاله شما ممکن است با آدرس‌های مختلف و با مقادیر متفاوت انتشار پیدا کند. به همین منظور دستور زیر را به شکل موقت درج می‌کنید تا ربات‌ها آدرس‌های دارای کاراکتر علامت سؤال را ایندکس نکنند.

ترکیب هوشمندانه این تکنیک‌ها منجر به بهبود کلی رتبه سایت در نتایج جستجو خواهد شد. وجود محتوای تکراری یا صفحات مشابه در سایت می‌تواند منجر به کاهش ارزش SEO سایت شود. با تنظیم دقیق فایل robots.txt، می‌توان از ایندکس شدن صفحات تکراری جلوگیری کرد و به موتورهای جستجو کمک کرد تا به راحتی صفحات اصلی و منحصر به فرد را شناسایی کنند. برای ختم این مقاله، باید دانست که در بیشتر مواقع نیازی نیست فایل robots.txt وردپرس خود را دستکاری کنید.

توسط این فایل قسمت‌های محدود و مشخص از سایت شما توسط موتورهای جستجو ایندکس می‌شود. درواقع توسط این قسمت مشخص می‌شود که گوگل به چه قسمت‌هایی دسترسی داشته باشد و سراغ محتوای غیر مرتبط نرود. آزمایش کردن کدهای فایل robots.txt با یکی از ابزارهای موجود قبل از اینکه به وب سایت تون اضافه بشه خیلی مهمه، با این آزمایش می تونین مطمئن باشین که هیچ خطی رو اشتباه ننوشتین. کد بالا روی هزاران وبلاگ بازتولید شده و به نظر من بهترین قوانینی نیستن که میتونین به فایل روبات سایت تون اضافه کنین. این کد چندین سال پیش در سایت وردپرس منتشر شده و از اون زمان هیچ تغییری نکرده. مثلا Digg illustrates موضوع جدیدی نیست و سالهاست کسی در موردش نگران نیست تا در کدهای ربات بهش اشاره بشه.

این فایل به موتورهای جستجو کمک می‌کند تا زمان خزیدن (Crawling) را بهینه کرده و از مصرف بی‌مورد منابع سرور جلوگیری کنند. یک ربات باید در ابتدا خزشی را صورت بدهد و سپس تصمیم می‌گیرد که آن را در دیتابیس موتورهای جستجو ذخیره کند یا نه. هر ربات استانداردی قبل از خزیدن صفحه‌ای از یک دامنه، ابتدا فایل robots.txt را می‌خواند و بر اساس دستورات موجود در این فایل، اجازه خزیدن را پیدا می‌کند تا بتواند ایندکس را انجام دهد. به طور کلی، هدف از بهینه سازی فایل robots.txt جلوگیری از خزیدن ربات های موتورهای جستجوگر در صفحاتی است که به صورت عمومی در دسترس نیستند. به عنوان مثال، صفحاتی در پوشه wp-plugins یا صفحاتی در پوشه مدیریت وردپرس شما وجود دارند. ما در این مطلب آموزش ایجاد فایل robot.txt برای وردپرس، تنظیمات و بهینه سازی آن را در اختیار شما عزیزان قرار دادیم.

چگونه با استفاده از فایل robots.txt اقدام به جلوگیری از دسترسی به پوشه یا فایل کنیم؟

برای ارتباط با کارشناسان ویکی دمی میتوانید از راه های ارتباطی زیر استفاده نمایید. ارسال دیدگاه به معنی این است که شما ابتدا قوانین ارسال دیدگاه را مطالعه کرده‌اید و با آن موافق هستید. چیزی که شهر وردپرس را از سایر مجموعه های طراحی سایت متمایز میکند بودن جمعی از افراد دلسوز در تیم شهر وردپرس است که تنها دغدغه شان حل مشکلات شماست. سپس شما با رفتن به مسیر All in One SEO → Robots.txt قادر به مدیریت آن خواهید بود.

این ابزارها به شما بازخورد دقیقی از وضعیت فایل و مشکلات احتمالی می‌دهند و در نتیجه می‌توانید خطاهای احتمالی را برطرف کنید. به طور پیش فرض از کراولر Googlebot برای این آزمایش استفاده می شه اما شما می تونین از چهار کراولر دیگه (Google Image, Google Mobile, Mediapartners Google و Adsbot Google یا همون Adwords) هم برای این آزمایش استفاده کنین. اگر تصمیم دارین از چند تا User Agent خاص استفاده کنین حتما باید در ابتدای فایل Robots.txt اونها رو به صورت یک لیست معرفی کنین. سپس زیرمنوی  “robots.txt Tester.” را انتخاب کرده تا ابزار تست این فایل را مشاهده کنید. برای غیر فعال کردن دسترسی به یک فایل کافی است آدرس مستقیم فایل را به صورت پوشه بندی مانند نمونه زیر تعریف کنید.

آیا برای سایت وردپرس خود به فایل Robots.txt احتیاج دارید؟

اما Robots.txt چیست؟ چطور این فایل را به صورت بهینه برای سئو ایجاد کنیم؟ و از کجا بدانیم که این فایل هیچ نقصی ندارد؟ در این مقاله می خواهیم همه این موارد را بررسی کنیم. خب در اینجا ما چون از قبل فایلرا در هاست اپلود کردیم با کلیک روی دکمه Submit گزینه سوم را انتخاب کنید. با عضویت در سرویس زی لایسنس، پنلی برای شما فراهم می‌شود که با آن می‌توانید به تمام محصولات خود لایسنس اختصاص دهید و از محصولات و خدمات خود محافظت کنید. این کار به شما کمک می‌کند تا جلوی انتشار و استفاده‌های غیرمجاز از محصولات خود را بگیرید و به درآمد بیشتری دست یابید. برای عضویت در سرویس زی لایسنس، به راحتی می‌توانید از طریق منوی سایت، بر روی گزینه ثبت نام کلیک کنید. در صورت عضو سایت هستید، با ورود به پنل کاربری، به سادگی وارد سرویس زی لایسنس شوید.

فایل robots.txt چیست؟ بهینه سازی فایل ربات در وردپرس

Robots.txt یک فایل متنی ساده است که به موتورهای جستجو می‌گوید کجای سایت شما را کراول کنند و کجا را کراول نکنند. بخش خوب ماجرا این است که برای استفاده از فایل Robots.txt و بهینه‌سازی آن، نیاز به دانش فنی زیادی ندارید. سایت زرین هاست با اتخاذ این رویکرد می‌تواند در رقابت با سایت‌های دیگر پیشرو باشد و تجربه کاربری بهتری را به بازدیدکنندگان ارائه کند. بهینه‌سازی فایل robots.txt می‌تواند به عنوان یکی از عوامل فنی در بهبود رتبه سایت عمل کند.

با افزودن نقشه‌های سایت به فایل robots.txt، شما می‌توانید ایندکس همه صفحات موجود در نقشه سایت خود را برای ربات‌های گوگل آسان کنید. و به‌وسیله آن می‌توان صفحاتی که محتوای آن‌ها از اهمیت چندانی برخوردار نیست ایندکس نشاند. درواقع موتورهای جستجو توسط این ربات متوجه می‌شوند که به چه بخش‌هایی اجازه دسترسی دارند. علاوه بر بلاک کردن wp-admin،  wp-content و wp-includes، جف استار صفحات Trackbacks و فایل xmlrpc وردپرس رو هم مسدود کرده که توسط موتورهای جستجو پیمایش نشن و همینطور صفحات نظرات.

در بخش نحوه ساخت فایل robots.txt بیشتر راجع به این دستورات صحبت خواهیم کرد. شما می‌توانید با استفاده از چندین دستورالعمل به URLهای خاصی اجازه فعالیت دهید یا آن‌ها را ممنوع و مسدود کنید، همچنین امکان افزودن چند نقشه به سایت را برای شما فراهم می‌کند. برای انجام اینکار، در ابتدا این افزونه را در سایت خود نصب و فعال کنید. تا اینجای مطلب شما را با فایل robot.txt و نحوه عملکرد آن آشنا کردیم.

نتیجه این آزمایش به صورت هایلایت کردن خطاهایی که در فایل robots.txt وجود داره نمایش داده می شه، مثلا تعریف کردن یک سایت مپ که وجود خارجی نداره میتونه یک خطا در فایل روبات باشه. این دستورالعمل ها رو غیر استاندارد می دونن چون همه کراولرها اونها رو پشتیبانی نمی کنن، البته در عمل اکثر موتورهای جستجو این قوانین رو می شناسن. در عین حال، در سایت شما صفحات غیر مهمی وجود دارد که نیازی به دیدن شدن ندارند. برای مثال بیایید فرض کنیم شما سایت فروشگاهی‌ای که دراید که هزاران صفحه دارد و از فیلترهای زیادی برای این محصولات استفاده کرده اید. اگر درست بود حالا محتویات فایل robots.txt را وارد ویرایشگری که میبینید بکنید و روی دکمه Submit کلیک کنید تا پنجره زیر برایتان باز شود. بنابراین مشابه مثال قبل ابتدا با استفاده از دستور User-agent ربات خودمان را تعیین می‌کنیم.

البته در نظر داشته باشین وقتی که مشخص می کنین فایل سایت مپ شما کجا قرار داره، نیازی به تعریفuser agent ندارین. در حالت کلی، سایت مپ رو در هر جایی از فایل robots.txt از ابتدا تا انتها میشه تعریف کرد. با گسترش روزافزون اینترنت و رشد سایت‌های وردپرسی، رقابت در جذب مخاطب و کسب رتبه‌های برتر در نتایج جستجو هر روز پیچیده‌تر شده است.

با لایسنس گذاری بر روی محصولات، این امکان فراهم می‌شود که مالکیت و کنترل محصولات را حفظ کنید و اجازه استفاده از آنها را به دیگران بدهید. این فرایند، امنیت و حقوق مالکیت فکری شما را تضمین می‌کند و محافظت از محصولات شما در مقابل استفاده‌های غیرمجاز فراهم می‌کند. کد اسنیپت (Code Snippet) قطعه کد کوچکی است که می توانید در سایت وردپرس خود استفاده کرده و ویژگی…

همانطور که می دانید، افزونه یوآست سئو یکی از بهترین و محبوب ترین افزونه های سئو برای وردپرس می باشد که به شما این امکان را می دهد تا سایتتان را به بهترین شکل ممکن هم برای کاربران و هم برای موتورهای جستجوگر بهینه کنید. جدای از آن، در مورد افزایش خوانایی محتوای شما نیز به شما کمک می کند، به این معنی که کاربران از خواندن محتویات سایت شما لذت خواهند برد. علاوه بر قابلیت های بهینه سازی، این افزونه به شما امکان ایجاد فایل robots.txt را نیز می دهد. ربات‌ های جستجوگر به محض ورود به سایتی ابتدا این فایل را بررسی می‌کنند تا ببینند به چه دایرکتوری‌ هایی دسترسی دارند و بعد از اینکه وظیفه و مسیرشان مشخص شد شروع به بررسی کامل یک سایت می‌کنند. خوب احتمالا بعضی از شما که دارین این پست رو می خونین می خواین به راحتی یه کدی رو کپی کنین تو فایل رباتتون و به بقیه کاراتون برسین.

پس از اتمام کار ، فراموش نکنید که روی دکمه ” Save robots.txt file” کلیک کنید تا تغییرات خود را ذخیره کنید. پس از حذف متن پیش فرض، می‌توانید قوانین robots.txt خود را اضافه کنید. توصیه می کنیم از قالب ایده آل robots.txt که در بالا به اشتراک گذاشتیم استفاده کنید. برای بلاگ‌های شخصی، تمرکز بر نمایش پست‌های جدید و مقالات مهم است و محدودیت‌ها بیشتر بر روی صفحات سیستمی و مدیریتی اعمال می‌شوند. ابزارهای آنلاین متنوعی مانند SEO Analyzer وجود دارند که می‌توانید فایل Robots.txt خود را در آن‌ها تست کنید.

علاوه بر این، برای اسپایدرهای مختلف گوگل زمان های متفاوتی رو هم نمی تونین انتخاب کنین. اگر دو تا user agent متفاوت از گوگل مثل Google image و Google news دارین، نمی تونین زمان های متفاوتی برای crawl delay اونها انتخاب کنین و هر زمانی که مشخص کنین برای همه کراولر های گوگل استفاده میشه. داده های شخصی شما برای پشتیبانی از تجربه شما در این وب سایت، برای مدیریت دسترسی به حساب کاربری شما و برای اهداف دیگری که در سیاست حفظ حریم خصوصی ما شرح داده می شود مورد استفاده قرار می گیرد.

ساخت فایل robots.txt برای هر سایتی ضروری است؟

در این نوع وب‌سایت‌ها، معمولاً تمام محتوا برای موتورهای جستجو مفید است، اما صفحات مدیریتی و فایل‌های سیستمی باید از خزش جلوگیری شوند. بسیاری از وب‌سایت‌ها از فایل Robots.txt استفاده نمی‌کنند و این باعث می‌شود که موتورهای جستجو بدون هدایت مناسب به سایت آن‌ها دسترسی داشته باشند، که این می‌تواند به خزش بی‌هدف و کاهش عملکرد سئو منجر شود. مثلاً استفاده نادرست از دستور Disallow برای صفحات اصلی سایت می‌تواند باعث افت رتبه در موتورهای جستجو شود. پس برای اینکه در دنیای تجارت بتوانید از رقبای خود پیشی بگیرید باید تمام مسائل را موردتوجه قرار دهید. شما توسط فایل Robots.txt می‌توانید به‌راحتی سئو سایت خود را بالا ببرید. این کار سبب می‌شود با زیادتر شدن محتوای سایتتان بتوانید روی آن مدیریت بهتری داشته باشید و مثل یک وب‌مستر حرفه‌ای آن را کنترل کنید.

  • همچنین جلو موتور جستجو، را برای ایندکس کردن افزونه ها و فولدر ادمین وردپرس گرفته ایم(با عبارت Disallow) و در خط آخر هم آدرس نقشه سایت xml را نوشته ایم.
  • اگر دایرکتوری جدیدی به سایتم اضافه بشه یا متوجه بشم که یک دایرکتوری اشتباه ایندکس شده فایل رو تغییر میدم و اصلاحش می کنم.
  • اکنون که می‌دانید یک فایل ایده آل robots.txt چگونه است، اجازه دهید بررسی کنیم که چگونه می‌توانید یک فایل robots.txt را در وردپرس ایجاد کنید.
  • اگر پلاگین یواست را بر روی سایت خود ندارید ابتدا باید آن را نصب و فعال کنید.

به عنوان مثال معروف‌ترین ربات گوگل که با نام Googlebot شناخته شده وظیفه بررسی و ایندکس صفحات را داره که بعد از ثبت سایت در گوگل کار خودش را برای سایت ما آغاز میکند. یا ربات Googlebot-image وظیفه بررسی و ایندکس تصاویر را داره که در این مثال ما باید از این بات برای غیرفعال کردن دسترسی این بات به تصویر خودمون استفاده کنیم. با اضافه کردن نقشه سایت به فایل robots.txt به موتورهای جستجو کمک می کنید که صفحات سایت شما را راحت تر پیدا کنند. توجه داشته باشید که اگر از یک افزونه مانند Yoast SEO یا All in One SEO در سایت خود استفاده می کنید نیازی به اضافه کردن نقشه سایت در فایل robots.txt نیست و این افزونه ها به صورت خودکار این کار را انجام می دهند.

با توجه به تعریف فوق این سوال پیش می آید که چگونه عدماجازه دسترسی موتورهای جستجو به صفحات خاصی می تواند باعث بهبود سئو سایت شود وآیا شما در سایت خود نیاز به فایل robots.txt دارید یا خیر. در اکثر مواقع نیازی به اضافه کردن robots.txt برای سایت های وردپرسی ندارید، زیرا مورتوهای جستجوگر به صورت پیش فرض تمامی مطالب و صفحات سایت شما را ایندکس می کنند. با این حال؛ اگر می خواهید از ایندکس برخی از صفحات سایت خود توسط موتورهای جستجوگر جلوگیری کنید، می توانید یک فایل robots.txt ایجاد و در فهرست اصلی سایت خود قرار دهید.

قبل از شروع بحث اصلی بهتر است که ابتدا به مفهوم کلمه robot در اینجا بپردازیم. منظور از robot هرگونه ربات اینترنتیست که به مشاهده وب سایت ها می پردازد. این ربات ها به پایش وب پرداخته و به موتورهای جستجو کمک می کنند تا به ایندکس و رتبه بندی صفحات وب بپردازند. آیا تا به حال پیش آمده که نخواهید ربات‌های موتورهای جستجو یک فایل خاص از سایت شما را ایندکس (کراول) نکنند؟ انجام این کار به سادگی از طریق فایل Robots.txt وردپرس ممکن است. در نهایت، توصیه می‌شود که هر مدیر سایتی علاوه بر بهینه‌سازی فایل robots.txt، به جنبه‌های دیگر سئو مانند بهینه‌سازی محتوا، سرعت بارگذاری، تجربه کاربری و لینک‌سازی نیز توجه ویژه‌ای داشته باشد.

Jeff Starr (نویسنده و توسعه دهنده وردپرس) هم به تازگی به این موضوع اشاره کرده و گفته اگه یک سایت مپ کاربردی روی سایت تون دارین دیگه نیازی نیست که از RSS به عنوان سایت مپ استفاده کنین. در مثال بالا ربات بینگ از دسترسی به کل سایت منع می گردد، در صورتی که سایر ربات ها تنها به مسیر /wp-admin/ دسترسی ندارند. این تکه کد دسترسی به کل پوشه به جز فایل /wp-admin/admin-ajax.php را بلاک می کند.

برای اینکه مثال هایی عملی از نکات بالا را مشاهده کنید فایل robots.txt چند سایت وردپرسی معروف جهان را برایتان نمایش داده ایم. تنها با کلیک بر این دکمه می توانید اقدام به ویرایش محتوای فایل robots.txt در رابط کاربری یواست سئو کنید. استفاده از عبارت زیر در فایل Robots.txt وردپرس دسترسی ربات‌های خزنده را به تمام محتویات دایرکتوری wp-admin خواهد گرفت.

به سادگی از قسمت SEO  گزینه Tools را انتخاب کنید و روی پیوند File Editor کلیک کنید. این تنظیمات باعث می‌شود که تمام فایل‌ها و صفحات دایرکتوری “private-directory” به غیر از “special-page.html” مسدود شوند. اگر فایل روبات تون چندین سطر داره و بزرگه حتما مطمئن بشین که سایز مناسبی داره و اگر از ۵۰۰ کیلو بایت بزرگتره باید حتما سایز اون رو کاهش بدین و یا اینکه منتظر یک نتیجه ناقص باشین. اگر به دنبال مثال های بیشتری هستید مقاله Robots.txt Specifications گوگل هم می‌تواند برای شما مفید باشد.

مثلا زمانی که با یک سری دستورالعمل همه موتورهای جستجو رو بلاک کردین تا صفحات شما ایندکس نشه، اما میخواین فقط به یک موتور جستجو مثل بینگ اجازه بدین که سایت شما رو پیمایش کنه باید این قانون رو لحاظ کنین. حتی می تونین کل وب سایت رو بلاک کنین و فقط اجازه پیمایش از یک فایل یا دایرکتوری خاص رو بدین. استاندارد Robots Exclusion در سال ۱۹۹۴ تدوین شد و در واقع مجموعه ای از استانداردهای وب به حساب میاد که صاحبان وب سایت ها میتونن از اونها استفاده کنن و به موتورهای جستجو بگن که چطور وب سایتشون رو کراول (Crawl) کنن. فایل robots.txt بخشی از این مجموعه ست که مشخص می کنه ربات های موتور جستجو چطور باید یک سایت رو پیمایش، محتواهاش رو بررسی و ایندکس کنن و چطور این محتواها رو در دسترس کاربران قرار بدن. یکی دیگر روش‌های ویرایش فایل robots.txt به صورت دستی می‌باشد که می‌توانید از طریق سی پنل هاست و یا FTP به هاست خود متصل شده و فایل را ویرایش و سفارشی‌سازی کنید. پس از ورود به هاست، می توانید فایل robots.txt را در پوشه اصلی وب سایت خود یا public_html پیدا کنید.

ربات‌های جستجوگر به محض ورود به سایتی ابتدا این فایل را بررسی می‌کنند تا ببینند به چه دایرکتوری‌هایی دسترسی دارند و بعد از اینکه وظیفه و مسیرشون مشخص شد شروع به بررسی کامل یک سایت می‌کنند. زمانی که برای رسیدگی به سئوی سایت خود توجه زیادی به تحقیق در مورد کلمات کلیدی، بهینه‌سازی محتوا، ساخت بک لینک یا مسائل دیگر می‌کنید، فایل Robots.txt وردپرس را نیز نباید از قلم بیاندازید. چون ممکن است اهمیت آن در ابتدای فعالیت سایت شما زیاد نباشد ولی شاید با افزایش تعداد صفحات سایتتان بخواهید بعضی چیزها را از دید موتورهای جستجو دور نگه دارید. ما در این مطلب نحوه بهینه سازی فایل robots.txt و نکات مهم دیگر مربوط به آن را آموزش دادیم که می‌توانید براساس نیاز خود از آن استفاده کنید.

راهکارهای حفاظت از سرویس لایسنس در برابر نقض‌های حقوق تصاویر و نرم‌افزارها

در هاست سی پنل یا دایرکت ادمین با مراجعه به بخش file manaager و سپس قسمت public_html می توانید این فایل را ایجاد یا مدیریت کنید. دلیل این امر آنست که فایل robots.txt سایت به موتورهای جستجو اعلام نمی کند صفحه ای را ایندکس نکنند، بلکه صرفا موتورهای جستجو آن را پایش نخواهند کرد. با اینکه گوگل دست به پایش آدرس های بلاک شده در robots.txt نمی زند اما خود گوگل اعلام کرده است که اگر این آدرس دارای لینکی در خارج از سایت شما باشد، این امکان وجود دارد که گوگل دست به ایندکس محتوای آن صفحه بزند.

فایل Robots.txt در وردپرس

ساخت robots.txt وردپرس و بهینه سازی

اگر دایرکتوری جدیدی به سایتم اضافه بشه یا متوجه بشم که یک دایرکتوری اشتباه ایندکس شده فایل رو تغییر میدم و اصلاحش می کنم. این نکته کلیدی و خیلی مهمیه، همیشه باید در نظر داشته باشین که در صورت لزوم فایل robots.txt رو اصلاح و کامل کنین. به عنوان جمع بندی یک بار دیگر دقت داشته باشید که دستور Disallow در فایل robots.txt معادل استفاده از متا تگ نوایندکس نیست. Robots.txt موجب محدود کردن پایش صفحات سایت شده اما الزاما این مسئله به معنی عدم ایندکس آن صفحات نیست.

کدی که نمایش داده می شه آخرین نسخه فایل روبات شماست که گوگل از وب سایت تون بازیابی کرده. بنابراین اگر بعد از بازیابی گوگل نسخه جدیدی رو آپلود کرده باشین به احتمال زیاد نمی تونین فایل جدید رو ببینین. تو این قسمت می تونین کد جدیدی رو اضافه کنین اما حواستون باشه که این ابزار فقط برای آزمایش این فایله یعنی اگر تصمیم دارین فایل تون رو تغییر بدین باید فایل واقعی روی وب سایت تون رو به روز رسانی کنین. خوب حالا تقریبا یاد گرفتین که چطور از اپراتورهای متفاوت در فایل robots.txt استفاده کنین. فقط یادتون باشه همه کراولرها این اپراتورها رو پشتیبانی نمی کنن، در نتجه حتما باید چک کنین کدوم یکی از موتورهای جستجو با این دستورات کار می کنن.

بیشتر وب سایت ها دارای فایل robots.txt هستند اما بسیاری از مدیران سایت ها نمی دانند این فایل چیست و چه کاربردی دارد. در این مقاله سعی داریم آموزش جامع و کاملی در مورد فایل robots.txt، محتویات، کاربرد و نحوه استفاده از آن برای بهبود SEO سایت ارائه دهیم. مشخص کردن سایت مپ به موتورهای جستجو کمک می کنه تا سریعتر نقشه سایت تون رو دربیارن و بتونن محتواهای سایت رو سریعتر شناسایی و ایندکس کنن. اگر بخواین تو فایل robots.txt چند تا سایت مپ داشته باشین باید از دستورالعمل sitemap استفاده کنین.

فایل robots.txt وردپرس به صورت کلی از دو دستور اصلی پیروی می‌کند و قادر به استفاده از این دو دستور در فایل هستید و سایر دستوراتی که در آن وارد شوند بی معنی هستند. پس از کلیک بر روی این دکمه، برگه ویرایشگر جدیدی برای شما نمایش داده می شود که می توانید فایل robots.txt خود را به صورت مستقیم از آن تغییر دهید. به خاطر داشته باشید که Yoast SEO قوانین پیش ‌فرض خود را تنظیم می ‌کند، که فایل مجازی robots.txt تان را نادیده می ‌گیرد. همچنین این نکته را هم در نظر داشته باشید که هر زمانی که یک قانون جدید را اضافه یا حذف می کنید، تغییرات خود را ذخیره نمائید.

باید گفت که در رابطه با نه تنها وردپرس بلکه هیچ CMS دیگه ای این گفته درست نیست. چرا که آدرس‌هایی مثل آرشیو، برچسب، دسته‌بندی و… در وردپرس در حکم یک پوشه یا دایرکتوری نیستند که با استفاده از این روش بتونید دسترسی به اونها را غیرفعال کنید. بلکه این آدر‌ها از طریق دیتابیس تعیین شده‌اند و عملا پوشه‌ای با نام category یا tag در هاست شما وجود نداره که با استفاده از این روش بخواهید دسترسی را محدود کنید. در دستورالعمل های وبمستر گوگل به وبمستران توصیه شده است که از فایل robots.txt برای پنهان کردن محتوای کم کیفیت سایت خود استفاده نکنند. استفاده از فایل robots.txt برای جلوگیری از ایندکس کردن دسته ها، برچسب ها، تاریخ و دیگر صفحات آرشیو انتخاب هوشمندانه ای به نظر نمی رسد.

رباتهای گوگل سهم مشخصی را برای گشت و گذار و ایندکس مطالب هر سایت اختصاص می دهند. فایل Robots.txt یکی از ابزارهای ساده اما بسیار قدرتمند برای بهینه‌سازی خزش ربات‌های موتور جستجو در سایت‌های وردپرسی است. با استفاده از این فایل، می‌توانید به راحتی به موتورهای جستجو بگویید که کدام بخش‌های سایت شما را باید بررسی کنند و کدام بخش‌ها را نادیده بگیرند. این کار می‌تواند به بهبود سرعت ایندکس شدن صفحات مهم، کاهش منابع مصرفی سرور و در نهایت بهبود رتبه سئوی سایت شما کمک کند. Robots.txt یک فایل ساده و در عین حال مهم است که می تواند سرنوشت وب سایت وردپرس شما را در صفحات نتایج موتور جستجو (SERP) تعیین کند. در حقیقت، حتی با تجربه ترین متخصصان سئو هم در معرض خطاهای robots.txt هستند.

در این مقاله جامع با بیش از ۱۶۰۰ کلمه، به بررسی عمیق بهینه‌سازی وردپرس توسط فایل robots.txt پرداخته و نکاتی از قبیل تنظیمات صحیح، استراتژی‌های پیشرفته و تجربیات موفق سایت‌های برتر را مرور می‌کنیم. هدف از این مقاله ارائه راهکاری کامل و کاربردی برای بهبود سئو سایت زرین هاست و ارتقای ایندکسینگ صحیح صفحات در موتورهای جستجو است. در مثال بالا ما به موتورهای جستجو اجازه بررسی فایل های درون فولدر wp-content/uploads را داده ایم. بهینه سازی سئو یکی از مهم ترین موضوعاتیست که می تواند به بهبود رتبه و ترافیک سایت شما کمک کند. روش های مختلفی برای بهینه سازی سایت وجود دارد که یکی از آنها، ساخت فایل robots.txt می باشد.

فایل Robots.txt رو باید در مسیر روت دامنه سایتتون قرار بدین تا بتونین مدیریت کنین یک موتور جستجو کدوم فایل یا دایرکتوری ها رو crawl (پیمایش) کنه. به عنوان مثال ممکنه یک آلبوم عکس یا فایل PDF در پوشه مخفی داشته باشین و نخواین گوگل اونها رو کراول کنه. موتورهای جستجوی اصلی مثل گوگل، بینگ، بایدو، یاندکس و … از این استانداردها پیروی می کنن. در آدرس‌های متفاوتی می‌توان از robots.txt برای منبع کردن خزنده‌ها استفاده کرد. ما از فایل robots.txt استفاده می‌کنم تا هر صفحه‌ای که جزو استراتژی سئو نیست (برای مثال صفحات «افزودن به سبد خرید» یا «سرچ داخلی» وبسایت) را منع کنیم.

پس از نصب و فعال سازی افزونه، می توانید از آن برای ایجاد و ویرایش فایل robots.txt به صورت مستقیم از قسمت مدیریت وردپرس خود اقدام نمائید. برای ساخت فایل robots.txt وردپرس ابتدا وارد هاست خودتان شوید و بعد از ورود برروی File Manager کلیک کنید تا به فایل منیجر هاست هدایت شده و بتوانید فایل‌ های موجود در هاست را کنترل کنید. برای تست فایل robots.txt می توانید از گوگل سرچ کنسول استفاده نموده و از صحت پیاده سازی آن اطلاع حاصل کنید.

فایل Robots.txt در وردپرس

این افزونه با ارائه API اختصاصی می تواند بستری را فراهم سازد تا بتوانید روی تمامی محصولات خود لایسنس بگذارید. مدیر وردپرس یک وبسایت آموزشی در زمینه آموزش وردپرس است که در سال ۱۳۹۷ تأسیس شده است. هدف اصلی ما، ارائه آموزش حرفه‌ای و کامل درباره وردپرس به عنوان یکی از برترین سیستم‌های مدیریت محتوا در جهان است.

پس از وارد کردن قوانین برای ذخیره تنظیمات می‌بایست بر روی دکمه Save Changes کلیک کنید. با فعال کردن این گزینه یک فایل سفارشی robots.txt در وردپرس ایجاد خواهد شد. پشتیبانی در مجموعه نوین وردپرس یک مسئولیت مهم و ضروری در قبال کاربران است ، هیچ محصولی بدون پشتیبانی و همراهی سازنده ارزشی ندارد واحد پشتیبانی کاربران نوین وردپرس همیشه و همه جا همراه شما میباشد. نوین وردپرس تداعی خلاقیت و نوآوری در دنیای وردپرس فارسی است ، کیفیت محصولات ، پشتیبانی ویژه و منحصربه فرد از ویژگی های برجسته نوین وردپرس میباشد. تمامی محصولات تجاری مجموعه بصورت اورجینال از مراجع مربوطه خریداری شده و با بهترین کیفیت در اختیار شما عزیزان قرار میگیرد. اگر دوست دارید در زمینه آموزش ، افزونه ، قالب وردپرس و ووکامرس ، آموزش سئو و… مقالات آموزشی خود را در نوین وردپرس منتشر کنید میتوانید به عنوان نویسنده در نوین وردپرس فعالیت کنید.

بنابراین، اگر این فایل به درستی پیکربندی نشود، ممکن است موتورهای جستجو به بخش‌های نامناسب سایت شما دسترسی پیدا کنند و صفحات مهم را نادیده بگیرند. نکتهٔ بسیار جالب اینجاست که وردپرس به صورت خود به خود یک سند robots.txt البته از نوع مجازی، روی هاست شما ایجاد می‌کند. یعنی همان ابتدایی که وردپرس را نصب می‌کنید، اگر یک / و سپس robots.txt در انتهای نشانی دامنهٔ سایت خود وارد کنید، محتوای فایل robots.txt را حتماً خواهید دید. ساختار این سند بسیار ساده و کم حجم است و در بیشتر موارد همین robots.txt پیش فرض وردپرس برای سایت شما کافی است و نیازی به انجام کار خاصی نیست. فایل robots.txt فایلی است که با استفاده از آن می توانید با ربات های موتور جستجو صحبت کرده و دستورالعمل های خاصی را به آنها بدهید.

ورود دو مرحله ای برای حساب کاربری شما فعال شده است.یک کد تایید برای شما ارسال شد.لطفا کد را وارد نمایید. برای عدم دسترسی به یک پوشه خاص کافیه تا نام آن پوشه و یا زیر پوشه‌ های آن را وارد کنید. حالا برای اینکه بدانید کدام مسیرها را در این فایل درج کنید به بخش بعدی بروید و ساختار را با دقت کامل کنید. دستور Disallow بالا تنها بر روی User-agent با نام Bingbot اعمال می شود. برای مشاهده نام User-agent ربات های معروف می توانید سری به این صفحه بزنید. حال به معرفی شرایط مختلف و نحوه استفاده از فایل robots.txt می پردازیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا