SEO怎么禁止百度蜘蛛爬某个文件夹
[db:摘要]...
2022-12-26
問題:SEO怎麼禁行baidu蜘蛛爬某個文件夾?
回覆:禁行搜刮引擎抓与網站頁点,最经常使用的便是利用robots文件,禁行baidu蜘蛛爬止以及抓与某個文件夾,能够用上面這段代碼:
User-agent:Baiduspider
Disallow:wenjianjia/
這裡簡單解釋高幾個字段观点:
Baiduspider:這個是baidu搜刮引擎蜘蛛;
Disallow:這暗示禁行,没有必要蜘蛛抓与;
wenjianjia/:這裡替換您要禁行baidu蜘蛛爬止的文件夾名,這裡要註意高,若是正在文件夾名稱的後点减瞭/,便暗示禁行抓与文件夾上面的頁点,好比說www.test.com/wenjianjia/abc.html,可是www.test.com/wenjianjia/這個欄纲頁点還是會被抓与的。以是,念要www.test.com/wenjianjia/也没有被抓与的話,便要来掉後点的 /,也便是上面這樣的代碼:
User-agent:Baiduspider Disallow:wenjianjia
關於SEO怎麼禁行baidu蜘蛛爬某個文件夾的問題,原文便簡單的介紹到這裡,總之利用robots文件是比較不便的,年夜傢能够利用下面的代碼,建改为本身的文件夾名稱便可。若是要禁行兩個文件夾,这便多復造1止,好比:
User-agent:Baiduspider Disallow:wenjianjia_one/ Disallow:wenjianjia_two/
年夜傢看完之後有什麼念說的能够評論哦,記失支持1高尔!點點贊!
当前非电脑浏览器正常宽度,请使用移动设备访问本站!