国产精品免费成人_91禁国产网站_国产精品一区二区性色av_国产日韩精品一区二区

  • 電話咨詢
  • 028-65577666
  • 初中學(xué)什么好
  • 高中學(xué)什么好
  • 男生學(xué)電腦
  • 女生學(xué)電腦

當(dāng)前位置:主頁 > 資訊中心 > 熱點話題 > Robots協(xié)議詳解 > 正文

Robots協(xié)議詳解

   禁止搜索引擎收錄的方法(robots.txt)

  一、什么是robots.txt文件?
 
  搜索引擎通過一種程序robot(又稱spider),自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。您可以在您的網(wǎng)站中創(chuàng)建一個純文本文件robots.txt,在這個文件中聲明該網(wǎng)站中不想被robot訪問的部分,這樣,該網(wǎng)站的部分或全部內(nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。
 
  二、robots.txt文件放在哪里?
 
  robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來說,當(dāng)robots訪問一個網(wǎng)站(比如http://www.abc.com)時,首先會檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個文件,如果機器人找到這個文件,它就會根據(jù)這個文件的內(nèi)容,來確定它訪問權(quán)限的范圍。
 
  網(wǎng)站 URL 相應(yīng)的 robots.txt的 URL
  http://www.w3.org/ http://www.w3.org/robots.txt
  http://www.w3.org:80/ http://www.w3.org:80/robots.txt
  http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt
  http://w3.org/ http://w3.org/robots.txt
 
  三、robots.txt文件的格式
 
  "robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:":"。
 
  在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:
 
  User-agent:
  該項的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受到該協(xié)議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設(shè)為*,則該協(xié)議對任何機器人均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
  Disallow :
 
  該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被robot訪問到。例如"Disallow: /help"對/help.html和/help/index.html都不允許搜索引擎訪問,而"Disallow:/help/"則允許robot訪問/help.html,而不能訪問/help/index.html。任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在"/robots.txt"文件中,至少要有一Disallow記錄。如果"/robots.txt"是一個空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。
 
  四、robots.txt文件用法舉例
 
  例1.            禁止所有搜索引擎訪問網(wǎng)站的任何部分
  下載該robots.txt文件 User-agent: *
  Disallow: /
 
  例2.            允許所有的robot訪問
  (或者也可以建一個空文件 "/robots.txt" file)
  User-agent: *
  Disallow:
 
  例3.            禁止某個搜索引擎的訪問
  User-agent: BadBot
  Disallow: /
 
  例4.            允許某個搜索引擎的訪問
  User-agent: baiduspider
  Disallow:
  User-agent: *
  Disallow: /
 
  例5. 一個簡單例子
  在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。
  需要注意的是對每一個目錄必須分開聲明,而不要寫成 "Disallow: /cgi-bin/ /tmp/"。
  User-agent:后的* 具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow:
  /tmp/*" or "Disallow: *.gif"這樣的記錄出現(xiàn).
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/
 
  五、robots.txt文件參考資料
 
  robots.txt文件的更具體設(shè)置,請參看以下資料:
  · Web Server Administrator's Guide to the Robots Exclusion Protocol
  · HTML Author's Guide to the Robots Exclusion Protocol
  · The original 1994 protocol description, as currently deployed
  · The revised Internet-Draft specification, which is not yet completed or implemented
  在你的主頁中為Web Robot設(shè)計路標(biāo)
 
  Internet越來越酷,WWW的知名度如日中天。在Internet上發(fā)布公司信息、進(jìn)行電子商務(wù)已經(jīng)從時髦演化成時尚。作為一個WebMaster,你可能對HTML、Javascript、Java、 ActiveX了如指掌,但你是否知道什么是WebRobot?你是否知道Web Robot和你所設(shè) 計的主頁有什么關(guān)系?
 
  Internet上的流浪漢--- Web Robot
 
  有時你會莫名其妙地發(fā)現(xiàn)你的主頁的內(nèi)容在一個搜索引擎中被索引,即使你從未與他 們有過任何聯(lián)系。其實這正是Web Robot的功勞。WebRobot其實是一些程序,它可以 穿越大量Internet網(wǎng)址的超文本結(jié)構(gòu),遞歸地檢索網(wǎng)絡(luò)站點所有的內(nèi)容。這些程序有時被叫“蜘蛛(Spider)” , “網(wǎng)上流浪漢(Web Wanderer)”,“網(wǎng)絡(luò)蠕蟲(web worms)”或Webcrawler。
 
        一些Internet網(wǎng)上知名的搜索引擎站點(Search Engines)都 有專門的WebRobot程序來完成信息的采集,例如Lycos,Webcrawler,Altavista等,以及中文搜索引擎站點例如北極星,網(wǎng)易,GOYOYO等。WebRobot就象一個不速之客,不管你是否在意,它都會忠于自己主人的職責(zé),任勞任怨、不知疲倦地奔波于萬維網(wǎng)的空間,當(dāng)然也會光臨你的主頁,檢索主頁內(nèi)容并生成它所需要的記錄格式。或許有的主頁內(nèi)容你樂于世人皆知,但有的內(nèi)容你卻不愿被洞察、索引。難道你就只能任其“橫行”于自己主頁空間,能否指揮和控制WebRobot的行蹤呢?答案當(dāng)然是肯定的。只要你閱讀了本篇的下文,就可以象一個交通 警察一樣,布置下一個個路標(biāo),告訴WebRobot應(yīng)該怎么去檢索你的主頁,哪些可以檢索,哪些不可以訪問。其實Web Robot能聽懂你的話不要以為Web Robot是毫無組織,毫無管束地亂跑。很多Web Robot軟件給網(wǎng)絡(luò)站點的 管理員或網(wǎng)頁內(nèi)容制作者提供了兩種方法來限制Web Robot的行蹤:
 
  1.         Robots Exclusion Protocol 協(xié)議
  網(wǎng)絡(luò)站點的管理員可以在站點上建立一個專門格式的文件,來指出站點上的哪一部分 可以被robot訪問, 這個文件放在站點的根目錄下,即robots.txt." target="_blank">http://.../robots.txt.
 
  2.         Robots META tag
  一個網(wǎng)頁作者可以使用專門的HTML META tag ,來指出某一個網(wǎng)頁是否可以被索 引、分析或鏈接。這些方法適合于大多數(shù)的Web Robot,至于是否在軟件中實施了這些方法,還依賴于 Robot的開發(fā)者,并非可以保證對任何Robot都靈驗。如果你迫切需要保護(hù)自己內(nèi)容,則應(yīng)考慮采用諸如增加密碼等其他保護(hù)方法。
 
  使用Robots Exclusion Protocol協(xié)議
 
  當(dāng)Robot訪問一個 Web 站點時,比如http://www.sti.net.cn/,它先去檢查文件robots.txt"target="_blank">http://www.sti.net.cn/robots.txt。如果這個文件存在,它便會按照這樣的記錄格式去分析:
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/
 
  以確定它是否應(yīng)該檢索站點的文件。這些記錄是專門給Web Robot看的,一般的瀏覽者大概永遠(yuǎn)不會看到這個文件,所以千萬不要異想天開地在里面加入形似 類的HTML語句或是“How do you do? where areyou from?”之類假情假意的問候語。
 
  在一個站點上只能有一個 "/robots.txt" 文件,而且文件名的每個字母要求全部是小寫。在Robot的記錄格式中每一個單獨的"Disallow"行表示你不希望Robot訪問的URL, 每個URL必須單獨占一行,不能出現(xiàn)"Disallow: /cgi-bin/ /tmp/"這樣的病句。同時在一個記錄中不能出現(xiàn)空行,這是因為空行是多個記錄分割的標(biāo)志。User-agent行指出的是Robot或其他代理的名稱。在User-agent行,'*' 表示一個特殊的含義---所有的robot。
 
  下面是幾個robot.txt的例子:
  在整個服務(wù)器上拒絕所有的robots:
  User-agent: *
  Disallow: /
  允許所有的robots訪問整個站點:
  User-agent: *
  Disallow:
  或者產(chǎn)生一個空的 "/robots.txt" 文件。
  服務(wù)器的部分內(nèi)容允許所有的robot訪問
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /private/
  拒絕某一個專門的robot:
  User-agent: BadBot
  Disallow: /
  只允許某一個robot光顧:
  User-agent: WebCrawler
  Disallow:
  User-agent: *
  Disallow: /
  最后我們給出 http://www.w3.org/站點上的robots.txt:
  # For use by search.w3.org
  User-agent: W3Crobot/1
  Disallow:
  User-agent: *
  Disallow: /Member/ # This is restricted to W3C Members only
  Disallow: /member/ # This is restricted to W3C Members only
  Disallow: /team/ # This is restricted to W3C Team only
  Disallow: /TandS/Member # This is restricted to W3C Members only
  Disallow: /TandS/Team # This is restricted to W3C Team only
  Disallow: /Project
  Disallow: /Systems
  Disallow: /Web
  Disallow: /Team
  使用Robots META tag方式
  Robots META tag 允許HTML網(wǎng)頁作者指出某一頁是否可以被索引,或是否可以用來查找更多的鏈接文件。目前只有部分robot實施了這一功能。
  Robots META tag的格式為:
  象其他的META tag一樣,它應(yīng)該放在HTML文件的HEAD區(qū):
  ...
  Robots META tag指令使用逗號隔開,可以使用的指令包括 [NO]INDEX 和[NO]FOLLOW。INDEX指令指出一個索引性robot是否可以對本頁進(jìn)行索引;FOLLOW 指令指出robot是否可以跟蹤本頁的鏈接。缺省的情況是INDEX和FOLLOW。例如:一個好的Web 站點管理員應(yīng)該將robot的管理考慮在內(nèi),使robot為自己的主頁服務(wù), 同時又不損害自己網(wǎng)頁的安全。
四川新華電腦學(xué)院專業(yè)職業(yè)規(guī)劃師為你提供更多幫助【在線咨詢】

地址: 成都市新津區(qū)新科大道107號?郵編:611430?電話:028-65577666

蜀ICP備11014515號-1?www.ryhffj.com

主辦單位:安徽新華教育集團(tuán)有限公司

成都新華電腦職業(yè)技能培訓(xùn)學(xué)校 版權(quán)所有 Copyright ? 2009-2015 scxh.cn. All Rights Reserved.

聲明:任何企業(yè)或個人不得以任何商業(yè)目的復(fù)制或傳遞本網(wǎng)站所載述的商標(biāo)、文字、影像及圖形圖象,分享轉(zhuǎn)載需注明來源本網(wǎng)站

本網(wǎng)站部分圖片來源于網(wǎng)絡(luò),若您的權(quán)利被侵害,請及時聯(lián)系我們

国产精品免费成人_91禁国产网站_国产精品一区二区性色av_国产日韩精品一区二区
国语自产精品视频在线看| 久久91精品国产91久久久| 国产亚洲一区二区三区在线播放| 久久99精品国产一区二区三区 | 亚洲黄色网址在线观看| 久久九九免费视频| 精品国产一区二区三区四区在线观看| 久久久噜久噜久久综合| 日韩网站免费观看| 国产精品热视频| 欧美美最猛性xxxxxx| 久久91亚洲精品中文字幕奶水| 久久综合亚洲社区| 国产精品第3页| 久久99热这里只有精品国产| 久久精品国产免费观看| 亚洲国产婷婷香蕉久久久久久99| 精品久久久久久一区二区里番| 精品久久久久久一区二区里番 | 91九色在线观看| 亚洲乱码中文字幕久久孕妇黑人| 亚洲最大的av网站| 日韩wuma| 狠狠干视频网站| 国产精品在线看| 久久久免费观看视频| 色噜噜狠狠狠综合曰曰曰88av| 国产精品爽爽爽爽爽爽在线观看 | 国产伦精品一区二区三区视频黑人 | 欧美成人免费一级人片100| 国产精品免费视频一区二区| 欧美激情亚洲综合一区| 日韩视频 中文字幕| 国产色综合天天综合网| 99热在线播放| 精品国内产的精品视频在线观看| 不卡av电影院| 色婷婷精品国产一区二区三区| 日韩av日韩在线观看| 欧美国产综合视频| 97久久国产精品| 国产精品视频男人的天堂| 一本一生久久a久久精品综合蜜| 日韩精品另类天天更新| 国产欧美自拍视频| 视频在线观看99| 一区二区三区日韩视频| 日韩精彩视频| 91麻豆国产语对白在线观看| 不卡av在线播放| 欧美午夜欧美| 国产成人在线一区| 中文字幕精品一区日韩| 欧美日产一区二区三区在线观看| 成人亚洲欧美一区二区三区| 国产精品污www一区二区三区| 亚洲一区亚洲二区| 精品少妇人妻av一区二区| 久久久久久久久久久网站| 亚洲国产高清国产精品| 国产欧美日韩一区| 国产精品久久久对白| 青青青国产精品一区二区| 91高潮精品免费porn| 欧美激情一区二区三区久久久| 黄色一级大片在线观看| 色婷婷av一区二区三区久久| 视频一区亚洲| www.中文字幕在线| 精品国产一区二区三区免费 | 又粗又黑又大的吊av| 欧美日韩一区二区视频在线| 国产成人综合亚洲| 亚洲精品久久区二区三区蜜桃臀| 国产视频一区二区不卡| 国产精品久久久久久久久粉嫩av | 中文字幕久精品免| 精品无码久久久久久久动漫| 日韩一区二区久久久| 日韩av电影在线观看| 97国产精品免费视频| 亚洲综合国产精品| www.日本少妇| 亚洲www视频| av不卡在线免费观看| 久久久久久成人| 成人91免费视频| 亚洲国产日韩综合一区 | 国产精品无码专区在线观看| 欧美亚洲免费在线| 久久精品99久久久香蕉| 欧美人成在线观看| 国产精品-区区久久久狼| 欧美第一黄网| 国产精品福利在线| 国产精品中文字幕在线| 中文字幕一区二区三区在线乱码 | 国产成人啪精品视频免费网 | 久久全球大尺度高清视频| 性欧美长视频免费观看不卡| 久久婷婷五月综合色国产香蕉 | 午夜精品美女久久久久av福利| 91久久久久久久久| 日韩中文字幕组| 久久久久久久久久久一区| 欧美一性一乱一交一视频| 国产精品久久久久久av福利软件 | 亚洲最大福利网| 91国内在线视频| 日本在线观看天堂男亚洲| 高清视频一区| 日本网站免费在线观看| 国产精品欧美激情在线播放| 精品无人乱码一区二区三区的优势| 麻豆一区二区在线观看| 91麻豆精品秘密入口| 日本黄网站免费| 国产精品视频一区国模私拍| 国产欧美日韩综合精品二区| 日韩尤物视频| 久久深夜福利免费观看| 国产一区二区三区黄| 丁香五月网久久综合| 国产精品免费一区二区三区在线观看| 国产乱人伦精品一区二区三区| 日韩一区二区三区高清| 国产精品爽爽爽| 91免费在线观看网站| 欧美高清性xxxxhd| 亚洲欧美日韩不卡| 日韩在线免费视频| 国产精品一区二区欧美黑人喷潮水| 日本一区二区三区视频在线播放| 国产精品偷伦视频免费观看国产| 国产精品一香蕉国产线看观看| 欧美一级视频一区二区| 欧美成人在线网站| 国产a级片免费观看| 麻豆久久久9性大片| 色一情一乱一乱一区91| 精品久久久久久一区| 色婷婷久久av| 91精品在线观看视频| 免费看欧美一级片| 日本一级淫片演员| 一道精品一区二区三区| 国产精品极品尤物在线观看| 久久草.com| 91久久久久久久久久久久久| 国产日韩欧美在线视频观看| 日韩精品福利视频| 亚洲AV无码成人精品一区| 欧美成人精品一区二区| 播播国产欧美激情| 国产成人精品免费视频大全最热| 高清不卡一区二区三区| 麻豆一区二区三区在线观看| 日本精品视频在线观看| 亚洲乱码一区二区三区| 欧美精品久久一区二区| 欧美精品免费在线| 国产精品免费在线| 国产精品视频一二三四区| 久久久久久久国产| 国产精品678| 国产精品专区h在线观看| 免费久久99精品国产自| 欧美精品一区三区在线观看| 日韩久久一级片| 日本久久精品视频| 日日噜噜噜夜夜爽爽| 午夜精品一区二区三区视频免费看| 欧美人交a欧美精品| 精品卡一卡二| 欧美精品在线极品| 久久电影一区二区| 国产精品久久久av| 国产精品嫩草在线观看| 国产精品视频免费在线观看| 久久精品视频在线| 色婷婷av一区二区三区在线观看| 国产精品.com| 69久久夜色精品国产69乱青草| 国产情人节一区| 国产美女久久精品| 成人av一级片| 7777精品久久久久久| 久久久av水蜜桃| 久久久久久久久久久成人| 久久综合九色综合88i| 91精品国产99| 国产mv久久久| 国产精品网站免费| 操91在线视频| 在线丝袜欧美日韩制服| 久久99久久99精品免观看粉嫩| 精品国产一区三区| 亚洲人成77777| 日本毛片在线免费观看| 欧美日韩免费高清|