設為首頁收藏本站

Hippies

 找回密碼
 立即註冊

掃一掃,訪問微社區

搜索
熱搜: 活動 交友 discuz
查看: 2192|回復: 0
打印 上一主題 下一主題

網站必備-robots.txt搜尋小蜘蛛請止步

[複製鏈接]

該用戶從未簽到

5

主題

10

帖子

51

積分

版主

Rank: 7Rank: 7Rank: 7

積分
51
跳轉到指定樓層
樓主
發表於 2014-9-16 11:30:17 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式 简体中文繁體中文
網站必備-robots.txt搜尋小蜘蛛請止步

當今天設計好網頁後,都希望搜尋引擎的小蜘蛛來造訪,
當小蜘蛛來訪時不管三七二十一,
就把站中的資料通通抓回去,並寫到搜尋引擎的資料庫中,
若有些較機密的資料被搜走那就不好了,
所以這時就可以設定規則,告知小蜘蛛那些是不可外帶的,
如此一來就不用擔心資料外洩等問題。






robots.txt語法設定:
User-agent: {搜尋引擎小蜘蛛名稱}
Disallow: {不允許搜索的檔案位置}



範例1.
User-agent用*代表所有的搜尋小蜘蛛
Disallow: /tmp/ 表示tmp底下的所有資料禁止外帶
User-agent: *
Disallow: /tmp/



範例2.
Disallow: /tmp/abc.html 表示tmp/abc.html網頁禁止外帶
User-agent: *
Disallow: /tmp/abc.html



範例3.
Disallow: / 表示該站的所有資料都不允許外帶
User-agent: *
Disallow: /



範例4.
表示只有Google跟MSN的小蜘蛛,對於該站所有資料都不允許外帶
User-agent: Googlebot
User-agent: Slurp
Disallow: /




設定完畢後,再將它存成robots.txt,並上傳到網頁的根目錄下,
一般User-agent都設*居多,除非有特別需求,那些資料不允許某些的搜尋小蜘蛛收集,
這是一個很簡單也很重要的設定喔!                                                                





最近訪問 頭像模式 列表模式
您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

小黑屋|手機版|Archiver|Hippies 手作皮革工作坊  

GMT+8, 2024-12-22 23:16 , Processed in 0.102848 second(s), 18 queries , Apc On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回復 返回頂部 返回列表