SEO優化

駁“ESPCMS目錄的長度(深度)對SEO的影響”論

SEO優化 2014-08-18

在長時間服務ESPCMS用戶的過程中,經常有部分用戶向我抱怨:ESPCMS的目錄有四個文件夾,目錄太深,不影響SEO。我也有時候問他們:為什麼會認為有影響?他們對此的回答多為:太長了用戶體驗性不好、會影響權限、其次是影響蜘蛛抓取,對此論調,我也會搜索網站相關文章,也不乏有些類似的文章做依據,(注:ESPCMS的最長目錄樣式為:http://demo.ecisp.cn/html/cn/news/gongsixinwen/18.html),但介於本人從事多年的軟件開發,也從事過搜索引擎相關的係統開發工作,對蜘蛛原理也算了解,本文階於通過技術層麵來分析:為什麼這些論調是錯誤的。

在反駁相關問題之前,我們先來了解一下網絡蜘蛛及網站權重的基本知識。

一、網絡蜘蛛

網絡蜘蛛又稱網絡爬蟲,傳統的爬蟲從一個或若幹初始網頁的URL開始,獲得初始網頁上的URL,在抓取網頁的過程中,不斷從當前頁麵上抽取新的URL放入隊列,直到滿足係統的一定停止條件,而後來對抓取頁麵進行不同的分析和處理,以提高智能化的搜索結果排名。如果把整個互聯網當成一個網站,那麼網絡蜘蛛就可以用這個原理把互聯網上所有的網頁都抓取下來。

由於不可能抓取所有的網頁,有些網絡蜘蛛對一些不太重要的網站,設置了訪問的層數。例如,在圖1中,A為起始網頁,屬於0層,B、C、D、E、F屬於第1層,G、H屬於第2層,I、J屬於第3層。如果網絡蜘蛛設置的訪問層數為2的話,網頁I、J是不會被訪問到的。這也讓有些網站上一部分網頁能夠在搜索引擎上搜索到,另外一部分不能被搜索到。但按如圖2中,假如J的層級在A層級中出現,則J被視為和A一樣的同一級,也會被抓取。所以,對於網站設計者來說,扁平化的網站結構設計有助於搜索引擎抓取其更多的網頁。

圖1



圖2

 

網絡蜘蛛進入一個網站,一般會訪問一個特殊的文本文件Robots.txt,這個文件一般放在網站服務器的根目錄下,網站管理員可以通過robots.txt來定義哪些目錄網絡蜘蛛不能訪問,或者哪些目錄對於某些特定的網絡蜘蛛不能訪問。例如有些網站的可執行文件目錄和臨時文件目錄不希望被搜索引擎搜索到,那麼網站管理員就可以把這些目錄定義為拒絕訪問目錄。Robots.txt語法很簡單,例如如果對目錄沒有任何限製,可以用以下兩行來描述: User-agent: * Disallow:

當然,Robots.txt隻是一個協議,如果網絡蜘蛛的設計者不遵循這個協議,網站管理員也無法阻止網絡蜘蛛對於某些頁麵的訪問,但一般的網絡蜘蛛都會遵循這些協議,而且網站管理員還可以通過其它方式來拒絕網絡蜘蛛對某些網頁的抓取。

網絡蜘蛛在下載網頁的時候,會去識別網頁的HTML代碼,在其代碼的部分,會有META標識。通過這些標識,可以告訴網絡蜘蛛本網頁是否需要被抓取,還可以告訴網絡蜘蛛本網頁中的鏈接是否需要被繼續跟蹤。例如: 表示本網頁不需要被抓取,但是網頁內的鏈接需要被跟蹤。

一般的網站都希望搜索引擎能更全麵的抓取自己網站的網頁,因為這樣可以讓更多的訪問者能通過搜索引擎找到此網站。為了讓本網站的網頁更全麵被抓取到,網站管理員可以建立一個網站地圖,即Site Map。許多網絡蜘蛛會把sitemap.htm文件作為一個網站網頁爬取的入口,網站管理員可以把網站內部所有網頁的鏈接放在這個文件裏麵,那麼網絡蜘蛛可以很方便的把整個網站抓取下來,避免遺漏某些網頁,也會減小對網站服務器的負擔。

 

二、企業網站權重

在了解了網絡蜘蛛原基本原理之後,我們現在了解一下網站權重的基本知識,網站權重是指:搜索引擎給網站賦予一定的權威值,對網站權威的評估評價,一個網站權重越高,在搜索引擎所占的份量越大,在搜索引擎排名就越好。網站權重雖然很多SEOER都在議論,不過可能這個標準在部分搜索引擎中根本就不存在,概括的說:就是網站與網站在搜索引擎眼中的分級製“待遇”的不同表現。誤區:例如人們經常討論的百度權重其實並不是百度官方給出的概念,而是一些第三方站長網站推出的針對網站關鍵詞排名預計給網站帶來流量,劃分等級0-10第三方網站歡迎度評估數據。影響網站權重的因素較多,主要有以下幾種:

網站架構

網站架構不僅要迎合搜索引擎,更要符合用戶體驗的要求。優質的網站架構應是扁平式,即:主頁>欄目頁>內容頁,同時站點還應包含TAG標簽,留言評論、文章搜索等。

域名類型

一般而言,gov和edu類型的域名權重自身就比較高,因為這樣的站點屬於政府高校一般不會成為垃圾站點,不會是草根個人小站。其次,com、net、org的域名權重相對較高,一些有國家和地區特點的域名後綴建議不要選。從用戶習慣來看,com已成為首選。最後域名的注冊年齡越久,搜索引擎給予的信任越高。

導入鏈接

所謂的導入鏈接即外鏈。外鏈的質量和數量應認真做好。通常,我們要堅持每天穩定的增加外鏈,在數量和質量上,優先考慮質量。所以平時我們應注意多收集一些能做外鏈的優質博客、論壇,以備不時之需。

網站內容

雖說“天下文章一大抄,看你會抄不會抄”,但我們仍建議站長能練就一副好筆杆。若能堅持給網站創造出優質的原創內容,事實上就是給搜索引擎注入了新鮮的血液。實在是不能原創的時候,一定要偽原創下。切忌原封不動的複製粘貼,尤其是機器采集後進行所謂的自動偽原創,更有甚者前後兩段抄堆疊關鍵詞或者所謂的偽原創,其實段落語句不通,用戶體驗差,網站跳出率高,同樣也不會有好的權重。

收錄數量

堅持更新站點,合理布置鏈接誘餌,增加站點頁麵的收錄數量。雖說收錄數量與權重之間不是絕對關係,但你見過同類型同行業的網站收錄數量僅有幾十的權重高於幾萬的情況嗎?

關鍵詞排名

尤其是核心關鍵詞的排名。首先要明白搜索引擎為什麼會給你的關鍵詞一個較高的排名,因為權重高了。其次,認真做好相關關鍵詞和長尾關鍵詞的排名,這有利於提升網站的整體權重。

更新頻率

堅持有規律的更新網站,除了會獲得及時的網頁快照外,還能增加搜索引擎的信任度,一個更新頻繁的網站比那些僵屍網站的權重肯定會高很多。同時,應注意更新時間和更新數量,避免之前積累的權重慢慢流失了。

內容頁

內頁是否和首頁以及網站主題有較為緊密的聯係,內頁之間的銜接、關鍵字的布局,以及內頁是否具有專業性,權威度如何。

網站的誠信度

Google除PR值以外,還有一個誠信指數。即通過對一些高質量網站的分析,給出一個“誠信”網站應該有的一些指標,並用這些指標來分析一個網站的誠信度。

網站服務器

服務器穩定是關鍵,如果說搜索引擎抓取頁麵時網站空間無法訪問,特別是新站,網站服務器不穩定可能導致搜索引擎不收錄網站。其次是網站頁麵的打開速度,這些服務器因素對權重都有影響。

最後聲明下,權重跟排名不能劃為等號;就像PR≠排名,當然這隻是SEO細節中的一個重要組成部分。權重的高低是影響關鍵詞排名其中的一項重要因素而已。

 

三、ESPCMS的路徑原理及影響

談了這麼多關於搜索技術的基本原理,現在我們根據這些原理來闡述一下,ESPCMS域名路徑長短到底是否有影響,首先我們先了解一下ESPCMS的靜態路徑規則:

ESPCMS的路徑規則為的:域名/靜態總目錄/語言目錄/主分類/子分類/內容名.html,其實靜態總目錄是可以去掉或者修改的。如果為單語言的情況下麵,語言目錄也是可以去掉的,但如果為多語言,則此目錄必須保留,以避免相同語言相同目錄及內容的覆蓋。

在上麵介紹中,我們說過網絡蜘蛛抓取,是根據頁麵訪問層級來進行抓取的,而不是目錄層級,下圖3所示:

圖3

假如現在內容J中有URL為:http://www.ecisp.cn/html/cn/templates/current/418.html,如果此內容的鏈接出現在J和出現在A層,那麼可以分別理解為0層和3 層,這種意義是不一樣。如果出現在A層中,那麼網絡蜘蛛在第一次抓取中就比較容易尋獲取此URL,並進行抓取保存,而如果出現在J層中,那麼當網絡蜘蛛隻設定了二層後,就抓取不到了。這種層級關係的理解,不是域名文件夾的層級關係,而是瀏覽深度指向的層級。

所以ESPCMS生成靜態URL文件夾的多少,實際對SEO是沒有影響的,但如果您的網站是英文網站,請注意,文件夾的生成文件名,是有一定的影響的。比如產品文件夾的名稱設定成products和設定成cb,那是有很大的關係的,所以切記一條:文件夾盡量取英文名或者英文代表關鍵字。

那有人又會說了:既然您網絡蜘蛛沒有影響,那權重呢?總會有一定的影響吧?先前說過了,網頁權重影響主要是內容質量、關鍵字、域名、點擊數量、收錄數量、服務器速度等因素,URL的長短實際很少,如果不信,您要中以搜索一下百度或者穀歌,他們收錄中,同樣有非常長的URL網頁。

談了這麼多原理性之後,不知您還是否跟其它SEOER一樣,同樣認為URL長度影響質量呢?如果您還堅持您的觀點,可以多了解一下搜索技術方麵的文章,而不是SEO營銷方麵的文章,SEOER更不該誤人子弟,正確理解SEO的重要性,還是對您網站內容的質量、內鏈著手吧!

返回頂部

通過QQ聯係我們

通過微信與我們聯係

聯係電話

在線留言

在線手冊