今天,我們一起學習《網站結構優化》。
首先,當我們拿到一個網站時,肯定會考慮,我們這個網站是否需要進行結構優化呢?如果需要進行結構優化,那優化的標準是什么呢?
一、 良好的網站結構,應該具備以下特點:
1) 用戶體驗良好
2) 搜索引擎體驗良好
3) 網站收錄量正常
4) 權重分配合理
5) 錨文字增強關鍵詞的相關性
二、 讓搜索引擎的蜘蛛或機器人喜歡上我們的網站結構:
1. 網頁中不能大量出現FLASH,因為搜索引擎是無法讀取FLASH文件中文字內容和鏈接的,某一小部分使用FLASH,增強視覺效果是很正常的。
2. 跟蹤用戶訪問使用Cookies,而不要使用會話ID。因為蜘蛛每次訪問時看到的都會是一個不同的會話ID和URL,這對搜索引擎的蜘蛛來說,將會是一個天大的陷阱。
3. 盡量不要使用各種跳轉,如:301、302、JS、FLASH、META REFRESH等等。
4. 不要使用框架結構
5. 不要使用動態URL,動態URL不利于搜索引擎的爬行,應該盡量避免。如果做不了URL靜態化,也是可以的,只是盡量避免即可。
6. 為了提高網站對搜索引擎的友好度建議使網頁能夠更好的蜘蛛爬行,就盡量不要采用js,當然在seo中,js有一個好處就是站長不希望被收錄的頁面或者友情鏈接可以采用js。
7. 深層次的網頁,有的網頁沒有入口,而且距離網站的首頁又很遠,這種頁面就相對較難被蜘蛛爬行到,當然對于那些權重高的網站可能會另當別論了。網站的頁面要被收錄,首先要需要基本的權重,首頁的權重一般是最高的,然后首頁的權重是可以傳遞到內頁的,當內部頁面的權重上升到可以被收錄的門檻,頁面就會被收錄,按照這種理論,頁面之間的權重傳遞是會遞減的,因此,內頁和首頁的點擊距離越近,越容易得到更多的首頁權重傳遞。良好的網站結構可以讓網站更多的頁面被收錄。
8. 強制使用cookies,對于搜索引擎來說是相當于直接禁用了cookies的,而有些網站為了實現某些功能會采取強制cookies,比如說跟蹤用戶訪問路徑,記住用戶信息,甚至是盜取用戶隱私等,如果用戶在訪問這類站點時沒有啟用cookies,所顯示的頁面就會不正常,所以對于蜘蛛來講同樣的網頁無法正常訪問。
9. robots.txt書寫錯誤和各種各樣的作弊手法,比如說隱藏文字,隱藏鏈接等,采用偽裝網頁在判斷來訪者是蜘蛛還是普通瀏覽器者而顯示不同的網頁,使用默認錯誤的404頁面等,同樣會給蜘蛛帶來爬行障礙。
三、 網站的物理結構與邏輯結構
1. 物理結構:指的是網站真實的目錄及文件所在位置所決定的結構
2. 物理結構:www.qicaoit.com/65.html天生比:www.qicaoit.com/yxzs/65.html的排名能力要強一些。這兩個的區別的,第一個屬于文件在網站根目錄里,第二個屬于文件在網站根目錄下的文件夾“yxzs”里面。
3. 邏輯結構也稱為鏈接結構,對搜索引擎來說更重要的是鏈接結構,而不是物理結構。這個不少人都有一個誤解,認為物理結構比較深的頁面不容易被搜索引擎收錄,比如說:https://www.laov.name/post/admin/admin1/12.html
你這樣在三級目錄下的一個內容頁面,是不是不容易被收錄呢?那不一定。如果這個頁面在首頁上有一個鏈接,那么它對搜索引擎來說它就是一個僅次于首頁的鏈接結構意義上的二級目錄。能不能收錄在于你網站的權重以及在你網站上下的位置,離首頁有幾次點擊距離,而不僅僅在于它的目錄層次。
四、導航要清晰:使用普通的HTML文字鏈接導航(不用圖片、JS生成的導航、FLASH做導航)、點擊距離及扁平化 (應該在鏈接結構上使網站盡量平化 )、錨文字包含關鍵詞(分類名稱使用關鍵詞會比較好)、使用面包屑導航、避免頁角堆積等等。
五、 推薦使用子目錄,而不是子域名:
1. 子域名(或稱為二級域名)通常搜索引擎當做一個基本獨立的站點看待如:https://www.qicaoit.com和https://bbs.qicaoit.com是兩個互相獨立的網站)
2. 目錄純粹是網站的一部分。(www.qicaoit.com/yxzs/是www.qicaoit.com的一部分)(注:www.domain.com是domain.com的一個子域名,只是約定俗成,一般以www.domain.com)為主URL
只比權重的話,子域名比目錄的權重和排名能力天生就稍微高一點,但是從SEO角度看,建議盡可能使用目錄,而不是子域名。是因為:推廣子域名和主域名兩個完全不同的網站,工作量大,尤其是外部鏈接建設,網站PR值、權重都會被這兩個獨立的網站分散。另外,子域名會使子網站變多、變小;目錄會使網站越做越大,網站越大,信任度就越大。所以,從長運來看,用子目錄要比子域名要好。但是想要短期內將不同類型的產品的關鍵詞排上去,可以考慮用不同的一級域名,多建幾個站,來做排名。
六、robots.txt是搜索引擎訪問網站的時候要查看的第一個文件。Robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。如果存在robots.txt文件,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有的頁面。建議就算允許抓取所有內容,也建一個空的robots.txt文件。
七、 確保URL的唯一性:
1、例:https://www.qicaoit.com、 https://www.qicaoit.com、 https://qicaoit.com、 https://www.qicaoit.com/index.htmlhttps://qicaoit.com/index.html 這些其實都是同一個URL,但搜索引擎認為這是幾個不同的網址、/
2、搜索引擎分不清哪一個是真正的首頁,會導致:1》分散頁面權重,不利于排名;2》外部鏈接也可能指向不同URL,分散權重;3》搜索引擎與站長想要的網址不是同一個;4》影響收錄;5》復制內容過多,搜索引擎可能認為有作弊嫌疑
八、 網站地圖:
1、HTML網站地圖(sitemap):用戶可以在網站上看到的、列出網站上所有的主要頁面鏈接的網頁:對于導航是JS腳本或FLASH的網站,網站地圖可以方便搜索引擎;小網站可將所有頁面列出來;大網站可列出一、二、三級頁數面。
2、、XML網站地圖(Sitemap):由XML標簽組成,用utf8統碼;實際上就是列出網站需要被收錄的頁面URL
3、最簡單的可以是一個純文本文件,文件只列出頁面的URL,一行一個
九、 九、URL靜態化,這個方面得由網站程序員,結合網站程序、服務器環境來具體實施,如果實現不了,也沒太大關系。動態URL也是可以收錄的。