Robots.txt編寫似雷區(qū) 稍有不慎“毒害甚深”(一)

作者:Lgo100 來源:未知 2012-04-06 18:57:24 閱讀 我要評論 直達(dá)商品

  每小我都有自己的隱私,網(wǎng)站也是這樣,網(wǎng)站中也有不但愿被蜘蛛看到的工具,好比會員密碼等等,而想要隱瞞住這部門隱私,一般情形下站長城市在第一時刻想到Robots.txt。沒錯,Robots.txt文件的使用簡直可以給蜘蛛指明道路,告訴它什么處所該去,什么處所不應(yīng)去,也恰是因?yàn)檫@點(diǎn)原因,良多站長都熱衷于用Robots.txt,可是巨匠真的會用Robots.txt嗎?對于它的編寫軌則巨匠又知道若干好多呢?本人不才,但對于這方面總歸有點(diǎn)經(jīng)驗(yàn),在這分享出來,讓巨匠有個參考,當(dāng)然老鳥可以飛過了。

  Robots.txt編寫的挨次問題

  舉個最簡單的例子,如不美觀你想讓自己a文件中的b.html被抓取,那么你怎么編寫呢?是

  Allow:/a/b.html Disallow:/a/ 仍是Disallow:/a/ Allow:/a/b.html這樣?

  在Robots.txt編寫軌則中,它并不執(zhí)行樹狀剖析結(jié)構(gòu),換句話說編寫時并不應(yīng)該把母文件夾放在最前,而是遵循一種就近原則,如不美觀我們把母文件夾放在前面,蜘蛛會認(rèn)為這個路子被封鎖了,不能訪謁,而我們最終的目的卻是訪謁,這樣一來,方針和現(xiàn)實(shí)就年夜相逕庭了。

  Robots.txt編寫的開放性問題

  良多站長,尤其是新手站長對于Robots.txt的理解過清客面,他們認(rèn)為既然Robots.txt可以劃定蜘蛛的訪謁路子,那我們何須不開放,把所有文件都設(shè)置成可訪謁,這樣一來網(wǎng)站的收錄量不久當(dāng)即上升了,其實(shí)問題遠(yuǎn)遠(yuǎn)沒有我們想象的簡單,巨匠都知道網(wǎng)站一一些固定的文件是不必傳送給搜索引擎訪謁的,如不美觀我們把網(wǎng)站“全方位開放”,后不美觀就是加年夜網(wǎng)站處事器負(fù)載,降低訪謁速度,減緩蜘蛛的爬行率,對于網(wǎng)站收錄沒有一點(diǎn)用處,所以對于固定不需要訪謁的文件,我們直接Disallow失蹤就可以了。

  一般情形下,網(wǎng)站不需要訪謁的文件有后臺打點(diǎn)文件、軌范劇本、附件、數(shù)據(jù)庫文件、等等。

  Robots.txt編寫的一再性問題

  我們天天都在寫著原創(chuàng)內(nèi)容,然后更新到自己的網(wǎng)站中,巨匠想過沒有我們這樣做的目的是什么?當(dāng)然是為了討搜索引擎的好,巨匠都知道搜索引擎很垂青原創(chuàng)內(nèi)容,對于原創(chuàng)內(nèi)容的收錄很快,相反,如不美觀你的網(wǎng)站中充溢著年夜量的復(fù)制內(nèi)容,那么我只能遺憾的告訴你,網(wǎng)站的前途一片渺茫。不外這也年夜另一個方面告訴我們要積極的操作robots文件禁止一再頁面的代碼,降低頁面的一再度,可是在編寫robots文件時必然要記得

  在User-agent后插手某個搜索引擎,例如User-agent:BaiduSpider Disallow:/,如不美觀沒有插手,編寫成User-agent: * Disallow: /形式,則是對網(wǎng)站所有內(nèi)容的“屏障”。

  Robots.txt編寫的meta問題

  在 Robots.txt編寫軌則中,有一個取最強(qiáng)參數(shù)法例,而且如不美觀網(wǎng)站以及頁面標(biāo)簽上同時呈現(xiàn)robots.txt文件和meta標(biāo)簽,那么搜索引擎就會年夜命兩個軌則中較為嚴(yán)酷的一個,即禁止搜索引擎對于某個頁面的索引,當(dāng)然如不美觀robots.txt文件和meta標(biāo)簽不是呈現(xiàn)一個文件中,那么搜索引擎就會遵循就近原則,就會索引meta標(biāo)簽前的所有文件。

  Robots.txt編寫的細(xì)節(jié)性問題

  1.反斜杠的插入

  仍是以Disallow:/a/b.html為例,在編寫該語句的時辰,如不美觀健忘插手了反斜杠,則是對全數(shù)內(nèi)容進(jìn)行開放,這與編心暌癸句的設(shè)法相悖,因?yàn)榉葱备艿囊饬x是根目錄。

  2.空格的呈現(xiàn)

  空格的呈現(xiàn)就很好理解了,因?yàn)樗阉饕鎸τ谶@個非凡符號的呈現(xiàn)并不識別,它的插手只會使語句失蹤饒暌功有的效用。

  此刻巨匠理解我為什么說有人知道robots.txt文件,可是少有人知道該怎么正確編寫了robots.txt文件了吧。其實(shí)robots.txt文件中還會其他的細(xì)節(jié)以及注重問題,在往后的時刻里我會繼續(xù)和說一下robots.txt文件編寫中涉及到的目錄巨細(xì)、user-agent的數(shù)目等問題。


  推薦閱讀

  <b>流量來源多樣化是成功SEO的必要條件</b>

比來我在GA帳戶里建樹了一些自界說過濾器以期圖解seomoz在曩昔12個月的流量: seomoz曩昔12個月的流量來歷分布圖 以下按照各流量來歷占總流量百分比排序: * 搜索流量(谷歌,雅虎,必應(yīng),百度等):36.0% * 直接流量(>>>詳細(xì)閱讀


本文標(biāo)題:Robots.txt編寫似雷區(qū) 稍有不慎“毒害甚深”(一)

地址:http://m.sdlzkt.com/a/34/20120406/48691.html

樂購科技部分新聞及文章轉(zhuǎn)載自互聯(lián)網(wǎng),供讀者交流和學(xué)習(xí),若有涉及作者版權(quán)等問題請及時與我們聯(lián)系,以便更正、刪除或按規(guī)定辦理。感謝所有提供資訊的網(wǎng)站,歡迎各類媒體與樂購科技進(jìn)行文章共享合作。

網(wǎng)友點(diǎn)評
我的評論: 人參與評論
驗(yàn)證碼: 匿名回答
網(wǎng)友評論(點(diǎn)擊查看更多條評論)
友情提示: 登錄后發(fā)表評論,可以直接從評論中的用戶名進(jìn)入您的個人空間,讓更多網(wǎng)友認(rèn)識您。
自媒體專欄

評論

熱度

主站蜘蛛池模板: 亚洲欧洲成人精品香蕉网| 国产成人精品一区二三区在线观看 | 国产成人福利免费视频| 国产成人久久精品一区二区三区| 国产成人在线免费观看| 99国产精品久久久久久久成人热 | a级成人毛片久久| 在线91精品亚洲网站精品成人| 国产91青青成人a在线| 欧美成人全部免费观看1314色| 国产成人麻豆亚洲综合无码精品| 中文字幕成人免费高清在线| 国产精品成人第一区| 久久久久亚洲AV成人无码| 成人国产在线24小时播放视频| 国产成人综合野草| 成人毛片18女人毛片免费| 亚洲成人免费在线观看| 国产成人AV无码精品| 国产精品成人久久久| 成人午夜视频在线播放| 最新69堂国产成人精品视频| 亚洲国产成人精品女人久久久| 在线观看亚洲成人| 成人永久免费福利视频网站| 猫咪av成人永久网站在线观看| 亚洲欧美日韩成人高清在线一区| 影院成人区精品一区二区婷婷丽春院影视| 久久久久av综合网成人| 亚洲av午夜成人片| 亚洲国产成人久久笫一页| 亚洲综合在线成人一区| 亚洲欧美精品成人久久91| 亚洲国产成人精品女人久久久 | 成人无码嫩草影院| 成人区人妻精品一区二区不卡 | 亚洲av无码成人网站在线观看| 国产成人午夜片在线观看| 国产精品成人va在线观看| 国产成人久久av免费| 久久精品成人一区二区三区|