主頁 > 知識庫 > 怎么利用robots文件做好網(wǎng)站優(yōu)化讓蜘蛛更好的抓取網(wǎng)站?

怎么利用robots文件做好網(wǎng)站優(yōu)化讓蜘蛛更好的抓取網(wǎng)站?

熱門標簽:智能電話機器人模式 電銷機器人最早是哪家 樂山400電話申請 大連市地圖標注 電銷機器人牌子 廣東高頻外呼防封系統(tǒng) 長春移動外呼系統(tǒng)收費 安陽ai電話機器人價位 400電話申請到易號網(wǎng)

  robots文件存在于網(wǎng)站根目錄,是用來告訴百度蜘蛛那些應該抓取,那些不應該抓取。正確使用robots文件有助于做好seo優(yōu)化,robots文件的核心詞匯就是allow和disallow用法。百度官網(wǎng)是認可這個文件的,在百度站長平臺上也有robots這個欄目,點擊進入,就可以看到你網(wǎng)站robots文件是否編寫正確了。

  百度robots文件使用說明

  1、robots.txt可以告訴百度您網(wǎng)站的哪些頁面可以被抓取,哪些頁面不可以被抓取。

  2、您可以通過Robots工具來創(chuàng)建、校驗、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度生效的情況。

  3、Robots工具暫不支持https站點。

  4、Robots工具目前支持48k的文件內(nèi)容檢測,請保證您的robots.txt文件不要過大,目錄最長不超過250個字符。

  

  上圖我給的一個例子中,disallow語句有問題,原因是把英文的冒號寫成了中文的冒號。

  當然直接輸入網(wǎng)站根目錄加上robtots.txt文件也可以

  

  User-agent:*   是用來置頂那些搜索引擎蜘蛛可以抓取的,一般默認設置

  Disallow:/category/*/page/ 分類目錄下面翻頁后的鏈接,比如,進入校賺網(wǎng)分類目錄 "推廣運營經(jīng)驗"目錄后,在翻頁一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

  Disallow:/?s=* Disallow:/*/?s=*  搜索結(jié)果頁面和分類目錄搜索結(jié)果頁面,這里沒必要再次抓取。

  Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   這三個目錄是系統(tǒng)目錄,一般都是屏蔽蜘蛛抓取

  Disallow:/*/trackback  trackback的鏈接

  Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  訂閱鏈接

  Disallow:/?p=*   文章短鏈接,會自動301跳轉(zhuǎn)到長連接

  例如,朱海濤博客之前就被收錄過短連接

  Disallow:/*/comment-page-*   Disallow:/*?replytocom* 這兩個我在之前文章有過說明,來自于評論鏈接,很容易造成重復收錄。

  在robots.txt文件的最后還可以制定sitemap文件 Sitemap:http://***.com/sitemap.txt

  sitemap地址指令,主流是txt和xml格式。在這里分享一段張戈所寫txt格式的simemap文件。

  將上述代碼保存到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可

  這里給大家共享下我的robots.txt文件

復制內(nèi)容到剪貼板
  1.   User-agent: *   
  2.   
  3.   Disallow:/wp-admin/   
  4.   
  5.   Disallow: /*/comment-page-*  
  6.  
  7.   Disallow: /*?replytocom*  
  8.  
  9.   Disallow: /wp-content/  
  10.  
  11.   Disallow: /wp-includes/  
  12.  
  13.   Disallow: /category/*/page/   
  14.   
  15.   Disallow: /*/trackback  
  16.  
  17.   Disallow: /feed  
  18.  
  19.   Disallow: /*/feed   
  20.   
  21.   Disallow: /comments/feed   
  22.   
  23.   Disallow: /?s=*   
  24.   
  25.   Disallow: /*/?s=*\  
  26.  
  27.   Disallow: /attachment/  
  28.  
  29.   Disallow: /tag/*/page/   
  30.   
  31.   Sitemap: http://www.stcash.com/sitemap.xml  

標簽:滁州 江門 儋州 深圳 三明 克拉瑪依 銀川 鶴壁

巨人網(wǎng)絡通訊聲明:本文標題《怎么利用robots文件做好網(wǎng)站優(yōu)化讓蜘蛛更好的抓取網(wǎng)站?》,本文關鍵詞  怎么,利用,robots,文件,做好,;如發(fā)現(xiàn)本文內(nèi)容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《怎么利用robots文件做好網(wǎng)站優(yōu)化讓蜘蛛更好的抓取網(wǎng)站?》相關的同類信息!
  • 本頁收集關于怎么利用robots文件做好網(wǎng)站優(yōu)化讓蜘蛛更好的抓取網(wǎng)站?的相關信息資訊供網(wǎng)民參考!
  • 推薦文章