圖書簡介
《SEO網站行銷推廣全程實例》詳細介紹了SEO最佳化的實際套用技術,深度剖析了搜尋引擎的工作原理、關鍵字研究、代碼最佳化、網站構架最佳化、連結建設及策略更正。此外,書中還介紹了作弊與懲罰、排名等因素,以及常用SEO工具的使用。《SEO網站行銷推廣全程實例》不僅內容豐富完整,更重要的是《SEO網站行銷推廣全程實例》是筆者以多年SEO實踐經驗根據網站最佳化實施的流程及步驟制定的。有些人認為SEO只意味著發垃圾和欺騙性的手段,這是不正確的。SEO可以為用戶設計一個清晰易用的網站,也可以讓計算機通過跟蹤連結發現新的頁面。關注SEO可以發現用戶尋找產品或網頁時輸入的關鍵字,然後就可以在頁面上自然融入這些詞。
圖書目錄
《seo網站行銷推廣全程實例》
第1章seo簡介
1.1網際網路行銷
1.2搜尋引擎行銷sem
1.3關鍵字競價排名
1.4什麼是seo
1.5seo的利與弊
1.6seo的套用領域
1.7seo工作內容
1.8seo的職業道德義務
1.9小結
第2章搜尋引擎
2.1搜尋引擎的發展
2.2搜尋引擎的分類
2.3搜尋引擎的工作流程、原理及作用
2.4搜尋引擎對網頁的收錄
2.5知名的搜尋引擎
2.6小結
第3章關鍵字
3.1什麼是關鍵字
.3.2關鍵字的選擇
3.3關鍵字工具
3.4關鍵字密度
3.5預估搜尋流量的價值
3.6金字塔形關鍵字分布
3.7長尾關鍵字
3.8小結
第4章url網頁地址最佳化
4.1url簡介
4.2url最佳化方式
4.3網頁地址命名
4.4分隔設定
4.5網頁地址長度
4.6url組成部分最佳化
4.7網頁地址重定向
4.8頁面靜態化
4.9小結
第5章網頁代碼最佳化
5.1頁面代碼精簡
5.2html標籤最佳化
5.3標頭最佳化
5.4權重標籤的使用
5.5圖片最佳化
5.6沙盒效應
5.7小結
第6章網頁組成結構
6.1網頁結構簡介
6.2網頁組成
6.3重要區域分布規律
6.4網頁結構類型
6.5頁面常用技術
6.6flash
6.7實例製作剖析
6.8小結
第7章網站結構最佳化
7.1網站物理結構和邏輯結構
7.2網站結構對seo的影響
7.3網站結構最佳化的基本方法
7.4邏輯結構最佳化的基本方法
7.5確定網站主要關鍵字
7.6建三級關鍵字表
7.7做長尾關鍵字資料庫
7.8搜尋引擎對重要頁面的抓取
7.9網站地圖
7.10小結
第8章連結策略
8.1站內連結
8.2內部連結
8.3外部連結
8.4增加外部連結
8.5小結
第9章關於最佳化誤區與作弊
9.1搜尋最佳化作弊方法
9.2隱藏文本信息
9.3網站鏡像
9.4門頁
9.5重定向
9.6連結作弊
9.7如何舉報作弊網站
9.8小結
第10章seo輔助工具
10.1關鍵字查詢
10.2google管理員工具
10.3sitemap生成工具
10.4freemonitorforgoogle
10.5整合搜尋最佳化
10.6小結
第11章經典案例分析
11.1123寵物網
11.2女性網站的最佳化分析
11.3天津租車網
11.4芒果網最佳化分析
11.5深圳信息網
11.6彩虹圖書網
11.7小結
數據中心間的同步
之前介紹過,DeepBot索引某個網頁時會由特定的數據中心完成,而不會出現多個數據中心同時讀取該網頁,分別獲得網頁最近版本的情況,這樣,在索引過程完成後,便需要一個數據同步過程,將網頁的最新版本在多個數據中心得到更新。
這就是之前著名的GoogleDance。不過,在BigDaddy更新後,數據中心間的同步不再集中在特定的時間段,而是以一種連續的、時效性更強的方式進行。儘管不同數據中心間仍存在一定的差異,但差異已經不大,而且,維持的時間也很短。
提高搜尋引擎索引收錄網頁的效率,根據上面的介紹,可以看出,要想讓你的網頁儘可能快、儘可能多地被搜尋引擎收錄,至少應從如下幾方面進行最佳化。
(1)提高網站反相連結的數量與質量,源自權威網站的連結可以讓你的網站/網頁在第一時間內被搜尋引擎“看到”。當然,這也是老生常談了。從上面的介紹可以看出,要提高網頁被搜尋引擎收錄的效率,首先要讓搜尋引擎找到你的網頁,連結是搜尋引擎找到網頁的唯一途徑,“唯一”一詞存在些許爭議,見下面的SiteMaps部分從這個角度看,向搜尋引擎提交網站之類的作法沒有必要且沒有意義,相對而言,要想讓你的網站被收錄,獲得外部網站的連結才是根本,同時,高質量的連結也是讓網頁步出補充結果的關鍵因素。
(2)網頁設計要秉持“搜尋引擎友好”的原則。從搜尋引擎spider的視角設計與最佳化網頁出發,確保網站的內部連結對搜尋引擎“可見”,相對於獲得外部網站連結的難度,合理規劃的內部連結是提高搜尋引擎索引與收錄效率更經濟、有效的途徑,除非網站根本未被搜尋引擎收錄。
(3)如果你的網站使用動態URL,或者導航選單使用JavaScript,則在網頁收錄方面遇到障礙時,應首先從這裡著手。
(4)使用SiteMaps。事實上,許多人認為Google取消了FreshBot的一個主要原因便是SiteMaps(xml)協定的廣泛套用,認為這樣只須讀取網站提供的SiteMaps便可得到網頁的更新信息,而不須FreshBot耗時費力地掃描。這種說法還是有一定道理的,雖然目前不能確定Google究竟直接使用SiteMaps作為DeepBot的索引列表還是用做FreshBot的掃描路標,但SiteMaps能夠提高網站索引收錄的效率則是不爭的事實。如SEO探索曾做過如下的測試。
兩個網頁,獲得的連結情況相同,一個加入SiteMaps而另一未加入,出現在SiteMaps中的網頁很快被收錄,而另一個頁面則在過了很長時間後才被收錄。
某個孤島頁面,沒有任何指向其的連結,但將其加入SiteMaps一段時間後,同樣被Google索引,只不過,出現在補充結果中。