廣東福建浙江江蘇上海北京山東遼寧江西河南四川湖北湖南廣西安徽黑龍江天津重慶吉林河北貴州甘肅山西云南新疆寧夏海南陜西西藏青海內(nèi)蒙古

新聞中心

robots.txt是搜索引擎訪問網(wǎng)站的時侯要查看的第1個文件
發(fā)布時間:2021-06-03 09:01:05

rotbots.txt文件的制作


1.robots.txt文件的作用

robots.txt文件是一個文本文件,這個文件用來告訴搜索引擎蜘蛛網(wǎng)站的哪些部分應(yīng)該被抓取,哪些部分不用抓取。比如說,如果有很多網(wǎng)站源文件,抓取可能會增加服務(wù)器的負(fù)載,且會耗費搜索引擎爬蟲的時間來索引網(wǎng)站文件。站長可以使用文本編輯器創(chuàng)建一個名為robots.txt的文件,比如NotePad++或記事本等工具。

注意:robots.txt實際上是搜索引擎訪問網(wǎng)站的時侯要查看的第1個文件,當(dāng)一個搜索蜘蛛訪問一個網(wǎng)站時,它會首先檢查該站點根目錄下是否存在robots.txt文件,如果存在就會按照該文件中的內(nèi)容來確定訪問的范圍。




2.robots.txt文件制作與上傳

打開Windows的記事本工具,在記事本中添加如下代碼,然后將其保存為robots.xt文件。

在記事本中編寫robots.txt文件效果

保存好robots.txt文件后,將其上傳到網(wǎng)站的根目錄下,就可以控制搜索引擎蜘蛛的爬行軌跡了。

鑒于robots.txt中包含了很多指令,互聯(lián)網(wǎng)上也有很多在線的工具用來生成這個文件,比如Chinaz的站長工具,網(wǎng)址為http://tool.chinaz.com/robots/,因此上面的示例可以用這個工具輕松實現(xiàn)。

使用站長工具編寫robots.txt文件

在編寫完成后,單擊下面的“生成”按鈕,將會在頁面底部的文本框控件中生成robots.txt文件內(nèi)容,將其復(fù)制到文本文件中并保存,即可創(chuàng)建robots.xt文件。

上一篇:死鏈文件制作及提交,站點地圖 Sitemap的優(yōu)化       下一篇: .htaccess的其他SEO用途

提供全國各地網(wǎng)站建設(shè)服務(wù)

上海北京深圳廣州天津南京大連杭州沈陽成都東莞濟南佛山無錫長沙武漢寧波長春蘇州青島珠海大慶福州廈門常州鄭州煙臺西安合肥南寧重慶東營昆明威海中山南昌紹興太原惠州溫州徐州揚州淄博鎮(zhèn)江鞍山保定銀川南通洛陽嘉興臺州桂林貴陽蘭州盤錦漳州黃石唐山濰坊湘潭肇慶吉林江門?株洲泉州泰州包頭柳州德州韶關(guān)寶雞金華鹽城新鄉(xiāng)十堰廊坊玉溪濟寧滄州蕪湖湖州梧州泰安安陽遼陽舟山梅州常德三明連云港哈爾濱秦皇島馬鞍山石家莊呼和浩特

 
備案系統(tǒng)認(rèn)證 舉報不良網(wǎng)站 我們的支付方式 AAA級信用
廣州萬戶網(wǎng)絡(luò)信息科技有限公司 旗下網(wǎng)站建設(shè)品牌:萬戶網(wǎng) ibuycatalyticconverters.com 版權(quán)所有 ©2000-2019 All Rights Reserved
網(wǎng)站備案編號:粵ICP備15049595號 地址:廣州市番禺區(qū)大石街北聯(lián)圍仔工業(yè)路2號E座305
電話:020-85421558   傳真:020-88140140   郵編:510515