網(wǎng)站優(yōu)化過程非常容易忽視的一個就是robots文件,因?yàn)槿绻W(wǎng)站徹底不做robots文件好像也沒有多大影響,但不做好這個文件,引起的問題可不能小視。
什么是robots文件?簡單的說就是告訴搜索引擎哪些是你能抓取的哪些是你不能碰的,哪個蜘蛛可以進(jìn)來哪個不能進(jìn)來,做好了robots文件有以下幾點(diǎn)好處:節(jié)省服務(wù)器資源,避免不必要的抓取;像有客戶資料的私密信息不會泄露;讓蜘蛛爬取的更加順利方便,增加搜索引擎的友好度等等。
一、robots文件看法
想要看別人網(wǎng)站的robots文件,直接在網(wǎng)址欄輸入:http://www.域名.com/robots.txt,比如你想看A5的robots文件就可以輸入:http://m.findingchristbooks.com/robots.txt
二、robots文件寫法
這個在網(wǎng)上有大量的教程,本人的表達(dá)能力也比較欠佳,就不再贅述了。建議還是參照百度站長平臺的資訊更加簡單易懂一點(diǎn)。
三、如果robots文件出現(xiàn)了問題導(dǎo)致網(wǎng)站數(shù)據(jù)出現(xiàn)嚴(yán)重問題怎么辦
robots文件對于稍稍有點(diǎn)規(guī)模的網(wǎng)站都是不可或缺的,很多不必要的搜索引擎的蜘蛛那就沒有必要讓它們爬取來占取資源,這時靠robots封禁,如果網(wǎng)站出現(xiàn)了嚴(yán)重的數(shù)據(jù)波動,比如收錄索引全部掉完,排名全部下降,若網(wǎng)站沒有出現(xiàn)其他問題正常優(yōu)化的情況下,首先就要檢查robots文件,這時也不要慌,筆者整理了方法,供大家參考使用。
1.修改Robots封禁為允許,然后到百度站長后臺檢測并更新Robots。
2.在百度站長后臺抓取檢測,此時顯示抓取失敗,沒關(guān)系,多點(diǎn)擊抓取幾次,觸發(fā)蜘蛛抓取站點(diǎn)。
3.在百度站長后臺抓取頻次,申請抓取頻次上調(diào)。
4.百度反饋中心,反饋是因?yàn)檎`操作導(dǎo)致了這種情況的發(fā)生。
5.百度站長后臺鏈接提交處,設(shè)置數(shù)據(jù)主動推送(實(shí)時)。
6.更新sitemap網(wǎng)站地圖,重新提交百度,每天手工提交一次。
以上處理完,接下來就是等待了,基本5天內(nèi)就能回到正常狀態(tài)!在最后筆者還是建議大家要好好做好網(wǎng)站的robots文件,因?yàn)楹锰幨怯心抗捕玫?,放在根目錄下就可以了,?dāng)然,還可以在robots文件中放上網(wǎng)站的sitemap,對蜘蛛的爬取很有好處。
筆者:在職考研招生信息網(wǎng)www.eduzzyjs.com,轉(zhuǎn)載請附上鏈接
友情提示:A5官方SEO服務(wù),為您提供權(quán)威網(wǎng)站優(yōu)化解決方案,快速解決網(wǎng)站流量異常,排名異常,網(wǎng)站排名無法突破瓶頸等服務(wù):http://www.admin5.cn/seo/zhenduan/
申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!