दोस्तों आज मैं आपको Blogging का बहुत ही उपयोगी Topic बताने जा रहा हूं। ब्लॉगर में इसे Custom Robots.txt के रूप में जाना जाता है। जिसका अर्थ है कि आप अपनी पसंद के अनुसार इस File को कस्टमाइज़ कर सकते हैं। आज के Tutorial में, हम इस शब्द के बारे मे गहरी चर्चा करेंगे। और इसकी उपयोग और लाभों के बारे में जानेंगे। मैं आपको बताऊंगा कि Blogger में Custom Robots.txt File कैसे जोड़ें। तो चलिये शुरु करते है।
Robots.txt एक Text File है। जिसमें सरल कोड की कुछ पंक्तियाँ हैं। यह Blog के सर्वर पर सहेजा जाता है। जो Web Crawlers को Search results में अपने Blog को Index और Crawl करने का निर्देश देता है। इसका मतलब है कि आप अपने Blog पर Web Crawlers से किसी भी Web Page को प्रतिबंधित(Restricted) कर सकते हैं, ताकि इसे अपने Blog Labels Page, आपके Demo Page या किसी अन्य Page जैसे Search Engines में Indexed नहीं किया जा सकते। जो Indexed करने के लिए महत्वपूर्ण नहीं हैं। हमेशा याद रखें कि Search Crawlers किसी भी Web Page को Crawl करने से पहले Robots.txt File को स्कैन करते हैं।
Blogger पर Hosted किए गए प्रत्येक Blog की अपनी Default robots.txt File होती है जो कुछ इस तरह दिखती है।
Explanation (व्याख्या)✓User-agent: Mediapartners-Google✓Disallow:✓User-agent: *✓Disallow: /search✓Allow: /✓Sitemap: http://example.blogspot.com/feeds/posts/default?orderby=UPDATED
यह Code तीन खंडों में विभाजित है। चलो पहले उनमें से प्रत्येक का अध्ययन करें, हम सीखें कि Blogspot Blogs में Custom Robots.txt File कैसे जोड़ें।
1.User-agent: Media partners-google
यह कोड Google Ad sense Robots के लिए है। जो उन्हें अपने Blog पर बेहतर ADD देने में मदद करता है। तो आप अपने Blog पर Google Ad sense का उपयोग कर रहे हैं। केवल इसे छोड़ दें।
2.User-agent:*
यह तारांकन(Asterisk) चिह्न (*) के साथ चिह्नित सभी Robots के लिए है। डिफ़ॉल्ट सेटिंग में हमारे Blog के Labels Link Search Crawl द्वारा Indexed करने के लिए प्रतिबंधित(Restricted) हैं। जिसका मतलब है कि Web Crawl हमारे Labels Page Link को नीचे Code के कारण नहीं दिखाएंगे।
Disallow: /search
इसका अर्थ है कि Keyword Search वाले Link केवल Domain नाम के Ignored होने के बाद। नीचे दिए गए उदाहरण देखें। जो SEO नाम के Lable Page का Link है।
https://mrtechindian.blogspot.com/search/label/SEO
और अगर हम Disallow: /Search उपरोक्त Code से Search करें तो Crawlers हमारे संपूर्ण Blog को Index में एक्सेस करेंगे और इसकी सभी सामग्री(Content) और Web Page Crawl करेंगे।
यहां Allow: / Home Page से संदर्भित(Refers) करता है जिसका मतलब है कि Web Crawlers हमारे Blog के Home Page को Crawl और Index कर सकते हैं।
Disallow विशिष्ट(Particular) पोस्ट
अब मान लीजिए कि यदि हम Indexing से एक विशेष पोस्ट को बाहर करना चाहते हैं तो हम Code में नीचे Line जोड़ सकते हैं।
Disallow विशेष(Particular) Page
यदि हमें किसी Particular Page को Disallow करने की आवश्यकता है तो हम इसके बाद के Edition के समान
Method का उपयोग कर सकते हैं। बस Page URL की Copy बनाएँ और उस से Blog पते को हटा दें जो कुछ इस तरह दिखेंगे:
3.Sitemap: http://example.blogspot.com/feeds/posts/default?
यह कोड हमारे Blog के Sitemap को संदर्भित(Referenced) करता है। यहां Sitemap Link जोड़कर हम बस हमारे Blog की Crawling दर को Customized कर रहे हैं। जब भी Web Crawlers हमारी robots.txt File को स्कैन करते हैं, तब वे हमारे Sitemap का path ले सकते हैं जहां हमारे Published पोस्ट के सभी Link मौजूद होते हैं। Web Crawlers को हमारे सभी Post को Crawl करने में आसान लगता है। इसलिए, बेहतर संभावनाएं हैं कि Web Crawlers किसी भी एक को अनदेखा किए बिना हमारे सभी Blog पोस्ट Crawl करते हैं
Note:- यह Sitemap केवल 25 Crawlers के बारे में बताएगा, जो हाल में 25 Post हैं यदि आप अपने Sitemap में Link की संख्या को बढाना चाहते हैं, तो नीचे एक के साथ डिफ़ॉल्ट Sitemap को बदलें। यह पहले 500 हाल के Post के लिए काम करेगा।
यदि आपके पास अपने Blog में 500 से अधिक Publish Post हैं तो आप नीचे दो Sitemap का उपयोग कर सकते हैं।
अब इस Tutorial का मुख्य काम Blogger में Custom robots.txt को कैसे जोड़ता है। तो नीचे दिए गए Step को Follow करे।
इसका अर्थ है कि Keyword Search वाले Link केवल Domain नाम के Ignored होने के बाद। नीचे दिए गए उदाहरण देखें। जो SEO नाम के Lable Page का Link है।
https://mrtechindian.blogspot.com/search/label/SEO
और अगर हम Disallow: /Search उपरोक्त Code से Search करें तो Crawlers हमारे संपूर्ण Blog को Index में एक्सेस करेंगे और इसकी सभी सामग्री(Content) और Web Page Crawl करेंगे।
यहां Allow: / Home Page से संदर्भित(Refers) करता है जिसका मतलब है कि Web Crawlers हमारे Blog के Home Page को Crawl और Index कर सकते हैं।
Disallow विशिष्ट(Particular) पोस्ट
अब मान लीजिए कि यदि हम Indexing से एक विशेष पोस्ट को बाहर करना चाहते हैं तो हम Code में नीचे Line जोड़ सकते हैं।
Disallow: /yyyy/mm/post-url.htmlयहां yyyy और MM क्रमशः(Respectively) Post के Publishing वर्ष और महीने को संदर्भित(Referenced) करता है। उदाहरण के लिए, अगर हमने मार्च 2014 के महीने में एक पोस्ट Publish किया है तो हमें नीचे दिए गए Format का उपयोग करना होगा
Disallow: /2014/04/post-url.htmlयह कार्य आसान बनाने के लिए, आप बस पोस्ट URL की Copy बना सकते हैं और शुरुआत से ही Blog का नाम निकाल सकते हैं।
Disallow विशेष(Particular) Page
यदि हमें किसी Particular Page को Disallow करने की आवश्यकता है तो हम इसके बाद के Edition के समान
Method का उपयोग कर सकते हैं। बस Page URL की Copy बनाएँ और उस से Blog पते को हटा दें जो कुछ इस तरह दिखेंगे:
Disallow: /p/page-url.html
3.Sitemap: http://example.blogspot.com/feeds/posts/default?
यह कोड हमारे Blog के Sitemap को संदर्भित(Referenced) करता है। यहां Sitemap Link जोड़कर हम बस हमारे Blog की Crawling दर को Customized कर रहे हैं। जब भी Web Crawlers हमारी robots.txt File को स्कैन करते हैं, तब वे हमारे Sitemap का path ले सकते हैं जहां हमारे Published पोस्ट के सभी Link मौजूद होते हैं। Web Crawlers को हमारे सभी Post को Crawl करने में आसान लगता है। इसलिए, बेहतर संभावनाएं हैं कि Web Crawlers किसी भी एक को अनदेखा किए बिना हमारे सभी Blog पोस्ट Crawl करते हैं
Note:- यह Sitemap केवल 25 Crawlers के बारे में बताएगा, जो हाल में 25 Post हैं यदि आप अपने Sitemap में Link की संख्या को बढाना चाहते हैं, तो नीचे एक के साथ डिफ़ॉल्ट Sitemap को बदलें। यह पहले 500 हाल के Post के लिए काम करेगा।
Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500
यदि आपके पास अपने Blog में 500 से अधिक Publish Post हैं तो आप नीचे दो Sitemap का उपयोग कर सकते हैं।
sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=500&max-results=1000Blog मे Custom Robots.txt को कैसे ADD करे?
अब इस Tutorial का मुख्य काम Blogger में Custom robots.txt को कैसे जोड़ता है। तो नीचे दिए गए Step को Follow करे।
- सबसे पहले अपने Blogger के Blog मे जाईए।
- अब आप Setting >> Search Preferences >> Crawlers And Indexing >> Custom Robots.txt >>Edit >> Yes
- अब आप अपने Code को Paste किजिये।
- अब आप Save Change बटन पर Click किजिये।
अपने Blog कि Robots.txt File को कैसे Check करे?
आप ब्राउजर में अपने Blog URL पर /robots.txt को जोड़कर अपने Blog पर इस File की जांच कर सकते हैं। Demo के लिए नीचे दिए गए उदाहरण पर एक नज़र डालें।
https://mrtechindian.blogspot.com/robots.txt
एक बार जब आप robots.txt फ़ाइल URL पर जाते हैं तो आपको Entire Code दिखाई देगा जो आप अपने Coustom robots.txt File में उपयोग कर रहे हैं। Photo नीचे देखें
मेरे Finel शब्द इस Post के बारे मे!!
Blogger में Coustom robots.txt File को ADD करने का तरीका यह आज का पूरा Tutorial था। इस Tutorial को संभव सरल और सूचनात्मक बनाने के लिए में अपने दिल से कोशिश करता हूं। लेकिन फिर भी अगर आपके पास संदेह या प्रश्न है तो मुझसे पूछने में संकोच न करें। अपने Coustom robots.txt सेटिंग में इसके बारे में जानने के बिना किसी भी Code को मत डालें। बस अपने प्रश्न पूछने के लिए मुझसे पूछें। मैं आपको सब कुछ विस्तार से बताऊंगा।
अगर आपको यह पसंद है तो कृपया अपने Social Media प्रोफाइल पर इस पोस्ट को Share करके अपने Word को फैलाने के लिए कृपया मुझे Support करें।
धन्यवाद...
0 comments: