欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
robots寫(xiě)法大全,教你巧妙運用robots文件
    robots.txt文件的運用,在SEO技術(shù)里面是比較不易懂的知識,但是SEOER的我們又必須要去了解,因為它牽扯到一些代碼、URL在內,也許稍微偏差一字,對網(wǎng)站的影響就和本身的效果遠遠不同了。


     robots.txt的功能分很多,我們如果合理運用好,對網(wǎng)站的幫助是起很大作用的。接下來(lái)我們來(lái)介紹一些比較常用的功能。

 

一、 利用robots.txt來(lái)限制網(wǎng)頁(yè)快照
     很多搜索引擎都提供一個(gè)網(wǎng)頁(yè)快照的功能。但是網(wǎng)頁(yè)快照功能卻有很多的弊端,例如事實(shí)內容在網(wǎng)頁(yè)快照中更新不及時(shí)、索引網(wǎng)頁(yè)快照浪費大量的服務(wù)器資源等。因此,我們有些時(shí)候可能并不需要搜索引擎來(lái)索引我們某個(gè)頁(yè)面的網(wǎng)頁(yè)快照。
解決這樣問(wèn)題的辦法很簡(jiǎn)單,只需要在你的網(wǎng)頁(yè)元標記中(<head>和</head>之間)放置如下的一段代碼。
 <meta name=”robots” content=”noarchive”>
以上的一段代碼限制了所有的搜索引擎建立你的網(wǎng)頁(yè)快照。如果我們需要僅僅限制一個(gè)搜索引擎建立快照的話(huà),就可以像如下這樣去寫(xiě)
<meta name=”Baiduspider” content=”noarchive”>
需要注意的是,這樣的標記僅僅是禁止搜索引擎為你的網(wǎng)站建立快照,如果你要禁止搜索引擎索引你的這個(gè)頁(yè)面的話(huà),請參照后面的辦法。
 
二、禁止搜索引擎抓取網(wǎng)頁(yè)頁(yè)面
     在SEO中,禁止搜索引擎抓取本頁(yè)面或者是允許搜索引擎抓取本頁(yè)面是經(jīng)常會(huì )用到的。因為網(wǎng)頁(yè)有一些是我們不需要用來(lái)參加關(guān)鍵詞排名的,所以可以屏蔽掉。為了讓搜索引擎禁止抓取本頁(yè)面,我們一般的做法是在頁(yè)面的元標記中加入如下的代碼:
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>
  <meta content=’***************’ name=description>
在 這里,META NAME=”ROBOTS”是泛指所有的搜索引擎的,在這里我們也可以特指某個(gè)搜索引擎,例如META NAME=”Googlebot”、META NAME=”Baiduspide”、META NAME=”www.********.com”等。content部分有四個(gè)命令:index、noindex、follow、nofollow,命令間以英文的“,”分隔。
 
 
INDEX命令:告訴搜索引擎抓取這個(gè)頁(yè)面
FOLLOW命令:告訴搜索引擎可以從這個(gè)頁(yè)面上找到鏈接,然后繼續訪(fǎng)問(wèn)抓取下去。
NOINDEX命令:告訴搜索引擎不允許抓取這個(gè)頁(yè)面
NOFOLLOW命令:告訴搜索引擎不允許從此頁(yè)找到鏈接、拒絕其繼續訪(fǎng)問(wèn)。
 
根據以上的命令,我們就有了一下的四種組合:
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>:可以抓取本頁(yè),而且可以順著(zhù)本頁(yè)繼續索引別的鏈接
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>:不許抓取本頁(yè),但是可以順著(zhù)本頁(yè)抓取索引別的鏈接
<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>:可以抓取本頁(yè),但是不許順著(zhù)本頁(yè)抓取索引別的鏈接
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>:不許抓取本頁(yè),也不許順著(zhù)本頁(yè)抓取索引別的鏈接。
這里需要注意的是,不可把兩個(gè)對立的反義詞寫(xiě)到一起,例如 www.*********.com
<META NAME=”ROBOTS” CONTENT=”INDEX,NOINDEX”>
或者直接同時(shí)寫(xiě)上兩句
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>
這里有一個(gè)簡(jiǎn)便的寫(xiě)法,如果是
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>的形式的話(huà),可以寫(xiě)成:
<META NAME=”ROBOTS” CONTENT=”ALL”>
如果是
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>的形式的話(huà),可以寫(xiě)成:<META NAME=”ROBOTS” CONTENT=”NONE”>
 
     當然,我們也可以把禁止建立快照和對于搜索引擎的命令寫(xiě)到一個(gè)命令元標記中。從上面的文章中我們得知,禁止建立網(wǎng)頁(yè)快照的命令是noarchive,那么我們就可以寫(xiě)成如下的形式:<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW,noarchive”>
如果是對于單獨的某個(gè)搜索引擎不允許建立快照,例如百度,我們就可以寫(xiě)成:
<META NAME=” Baiduspider” CONTENT=”INDEX,FOLLOW,noarchive”>
如果在元標記中不屑關(guān)于蜘蛛的命令,那么默認的命令即為如下
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW, archive”>
因此,如果我們對于這一部分把握不準的話(huà),可以直接寫(xiě)上上面的這一行命令,或者是直接留空。
 
     在SEO中,對于蜘蛛的控制是非常重要的一部分內容,所以希望各位看官準確把握這部分的內容有些時(shí)候我們會(huì )遇到這樣的困難:我們原本不想被搜索引擎收錄的網(wǎng)站后臺地址卻被搜索引擎“無(wú)情”的收錄,這樣只要在Google里輸入一個(gè)“后臺、管理site: http://www.********.com/  ”,自己的后臺地址就會(huì )顯露無(wú)疑,因此網(wǎng)站安全性也無(wú)從談起。遇到這樣的情況時(shí),我們如何阻止搜索引擎收錄我們不想被收錄的文件呢?
 
     一般在這個(gè)時(shí)候,我們常用的辦法有兩個(gè),一個(gè)是編輯robots.txt文件,另外一個(gè)是在不想被收錄的頁(yè)面頭部放置META NAME=”ROBOTS”標簽。
 
     所謂的robots.txt文件,是每一個(gè)搜索引擎到你的網(wǎng)站之后要尋找和訪(fǎng)問(wèn)的第一個(gè)文件,robots.txt是你對搜索引擎制定的一個(gè)如何索引你的網(wǎng)站的規則。通過(guò)這個(gè)文件,搜索引擎就可以知道在你的網(wǎng)站中,哪些文件是可以被索引的,哪些文件是被拒絕索引的。
     在很多網(wǎng)站中,站長(cháng)們都忽略了使用robots.txt文件。因為很多站長(cháng)都認為,自己的網(wǎng)站沒(méi)有什么秘密可言,而且自己也不太會(huì )使用robots.txt的語(yǔ)法,因此一旦寫(xiě)錯了會(huì )帶來(lái)更多的麻煩,還不如干脆不用。
 
     其實(shí)這樣的做法是不對的。在前面的文章中我們知道,如果一個(gè)網(wǎng)站有大量文件找不到的時(shí)候(404),搜索引擎就會(huì )降低網(wǎng)站的權重。而robots.txt作為蜘蛛訪(fǎng)問(wèn)網(wǎng)站的第一個(gè)文件,一旦搜索引擎要是找不到這個(gè)文件,也會(huì )在他的索引服務(wù)器上記錄下一條404信息。
 
     雖然在百度的幫助文件中,有這樣的一句話(huà)“請注意,僅當您的網(wǎng)站包含不希望被搜索引擎收錄的內容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內容,請勿建立robots.txt文件?!钡俏覀€(gè)人還是認為建立robots.txt還是必須的,哪怕這個(gè)robots.txt文件是一個(gè)空白的文本文檔都可以。因為我們的網(wǎng)站畢竟不是僅僅會(huì )被百度收錄,同時(shí)也會(huì )被其他搜索引擎收錄的,所以,上傳一個(gè)robots.txt文件還是沒(méi)有什么壞處的。
     如何寫(xiě)一個(gè)合理的robots.txt文件?
     首先我們需要了解robots.txt文件的一些基本語(yǔ)法。   
語(yǔ)法作用
 
寫(xiě)法允許所有搜索引擎訪(fǎng)問(wèn)網(wǎng)站的所有部分
或者建立一個(gè)空白的文本文檔,命名為robots.txt
 
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
 禁止所有搜索引擎訪(fǎng)問(wèn)網(wǎng)站的所有部分
 
User-agent: *
Disallow: /
 禁止百度索引你的網(wǎng)站
 
User-agent: Baiduspider
Disallow: /
 禁止Google索引你的網(wǎng)站
 
User-agent: Googlebot
Disallow: /
 禁止除Google外的一切搜索引擎索引你的網(wǎng)站
 
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
 

 

禁止除百度外的一切搜索引擎索引你的網(wǎng)站
 
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
 

禁止蜘蛛訪(fǎng)問(wèn)某個(gè)目錄
(例如禁止admin\css\images被索引)
 
User-agent: *
Disallow: /css/
Disallow: /admin/
Disallow: /images/
 

允許訪(fǎng)問(wèn)某個(gè)目錄中的某些特定網(wǎng)址
 
User-agent: *
Allow: /css/my
Allow: /adminml
Allow: /images/index
Disallow: /css/
Disallow: /admin/
Disallow: /images/
 

使用“*”,限制訪(fǎng)問(wèn)某個(gè)后綴的域名,例如索引訪(fǎng)問(wèn)admin目錄下所有ASP的文件
 
User-agent: *
Disallow: /admin/*.htm
 

使用“$”僅允許訪(fǎng)問(wèn)某目錄下某個(gè)后綴的文件
 
User-agent: *
Allow: .asp$
Disallow: /
 

禁止索引網(wǎng)站中所有的動(dòng)態(tài)頁(yè)面(這里限制的是有“?”的域名,例如index.asp?id=1)
 
User-agent: *
Disallow: /*?*
 
     有些時(shí)候,我們?yōu)榱斯澥》?wù)器資源,需要禁止各類(lèi)搜索引擎來(lái)索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。具體辦法如下。
 
語(yǔ)法作用
 
寫(xiě)法
 

禁止Google搜索引擎抓取你網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱(chēng),在這里也可以直接添加)
 
User-agent: Googlebot
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
 

禁止百度搜索引擎抓取你網(wǎng)站上的所有圖片
 
User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
 

除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片(注意,在這里為了讓各位看的更明白,因此使用一個(gè)比較笨的辦法——對于單個(gè)搜索引擎單獨定義。)
 
User-agent: Baiduspider
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: Googlebot
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: *
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
 

僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件(其他搜索引擎的辦法也和這個(gè)一樣,只是修改一下搜索引擎的蜘蛛名稱(chēng)即可)
 
User-agent: Baiduspider
Allow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
 

僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件
 
User-agent: Baiduspider
Disallow: .jpg$
 

 
     如果你看完以上這些,并記下,相信你對robots.txt已經(jīng)有基本了解和認識。光知道還不是你的,要能在網(wǎng)站上運用出來(lái),知識才是你的。

本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
如何創(chuàng )建robots.txt文件?
robots.txt和Robots META標簽
搜索引擎原理-網(wǎng)絡(luò )蜘蛛和ROBOTS
如何寫(xiě)robots.txt?
如何寫(xiě)robots.txt
搜索引擎統一:Robots文件標準 ? Wopus中文博客平臺 - Wordpress
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久