欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
robots.txt寫(xiě)法,規范,作用

        Robots.txt是存放在網(wǎng)站根目錄下的一個(gè)文件,通常情況下,搜索引擎會(huì )對所有的網(wǎng)站頁(yè)面進(jìn)行抓取分析,如果一個(gè)網(wǎng)站管理員不想讓搜索引擎抓取一些頁(yè)面,比如網(wǎng)站管理后臺,網(wǎng)站次要目錄或者涉及到不愿被搜索引擎抓取公開(kāi)的內容等,則通過(guò)創(chuàng )建該文件來(lái)引導各大搜索引擎抓取。當搜索引擎抓取一個(gè)站點(diǎn)時(shí),會(huì )首先檢查其根目錄下是否有robots.txt存在。如果存在,則會(huì )按照文件中所規定的抓取范圍,若不存在,則會(huì )按照正常的方法進(jìn)行抓取。

        首先是了解各大搜索引擎spider名稱(chēng)。

        Baiduspider[baidu]    Scooter[altavista]    ia_archiver[alexa]    Googlebot[google]    FAST-WebCrawler[alltheweb]     MSNBOT[MSN]

        SEO中國robots.txt的寫(xiě)法:

        User-agent: *
        Disallow: /dir/admin/

        User-agent是指定搜索引擎robot的名字,即若針對baidu則會(huì )對應的值是Baiduspider,google對應的是Googlebot等。如果針對所有搜索引擎均有效,則保留為*值。

        Disallow是規定讓搜索引擎忽略抓取的目錄。例如,http://www.cn-seo.net/dirSEO中國分類(lèi)目錄地址,而其管理地址是對搜索引擎抓取沒(méi)有任何意義的目錄,則該例中,/dir/admin/為所有搜索引擎所禁止抓取。

        Disallow書(shū)寫(xiě)方法:默認從根目錄出發(fā),指定忽略的目錄,末尾加上/
        指定多個(gè)目錄:
        Disallow: /dir/admin/
        Disallow: /a/
        Disallow: /b/

        以上是針對網(wǎng)站目錄抓取情況進(jìn)行處理,如何進(jìn)行單個(gè)文件處理呢?采用Robots Meta方法。

        和其他的meta,如description.keywords等相同,書(shū)寫(xiě)到<head></head>之間

        <head>
        <title>SEO中國,搜索引擎優(yōu)化,網(wǎng)站優(yōu)化,網(wǎng)站SEO研究</title>
        <meta name="Robots" content="index,follow">
        <meta name="Keywords" content="SEO中國, 網(wǎng)站排名, Google左側排名, 搜索引擎優(yōu)化, SEO研究, SEO資訊, SEO下載, SEO案例, 網(wǎng)站推廣">
        <meta name="Description" content="SEO中國致力于網(wǎng)站優(yōu)化,Google左側排名,搜索引擎優(yōu)化,中國網(wǎng)站SEO研究,提高中國網(wǎng)站搜索引擎排名競爭力.">
        </head>

        則規定了該頁(yè)的抓取方法:正常抓取,順序抓取。

        與之對應的是:"noindex,nofollow"。Robots則可以指定為各大單個(gè)搜索引擎spider名稱(chēng)。另外,Googlebot還制定了archive用于規定網(wǎng)頁(yè)快照的保留與否。
 
本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
如何創(chuàng )建robots.txt文件?
【SEO必學(xué)】robots.txt作用和寫(xiě)法
robots.txt和Robots META標簽
分享一下robots.txt寫(xiě)法
Robots.txt怎么寫(xiě)?
如何使用robots.txt防止搜索引擎抓取頁(yè)面
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久