百度名片
重複內容通常是指域內或多個域之間存在的、與其他內容完全匹配或大致類似的內容。大多數情況下,重複內容本身不具有欺騙性。
問題
這裡有五個所面臨的問題,以及如何解決這些問題,防止他們在未來再次發生:
(1)重複的內容從動態的過濾器頁面
動態過濾器的網頁是一個最常見的技術問題,人們面臨的網站擁有者往往會發現成千上萬的人被搜尋引擎收錄。
一個動態的過濾器頁面的例子:
解決這個問題:
經測試一些替代的修正,我們發現,使用meta robots規則是迄今為止最有效的方法來消除這種問題。這過程中,我們遵循從索引的網頁:
地圖的中刪除。
套用元機器人規則(使用 noindex, follow)。
開始做百度谷歌網站管理員工具中的刪除請求。
一旦你已經做了一些刪除請求的,百度谷歌注意到,並採取了更快收錄其他頁面。
(2)搜尋頁面的重複內容
發現百度和谷歌的收錄了搜尋頁面,是一個非常普遍的問題。
解決方法:
解決這個問題實際上是非常簡單的。你只需要在robots.txt檔案禁止目錄,如果你不允許目錄搜尋目錄,然後刪除它在百度和谷歌網站管理員工具。
(3)重複評論網頁的內容
評論頁面很有意思,因為這些問題可能有所不同,這取決於你如何組織你的網站和你使用的外掛程式。我們面臨著重複內容的問題,當我們在產品頁面上顯示內容,但有一個單獨的頁面相同的內容,但我知道,這是情況並非總是如此。
因此,我們面臨的情況下,我們去掉了多餘的頁面
為了消除這些網頁上,我們只需要在robots.txt檔案禁止/?,然後提交了該資料夾的刪除請求。
評論網頁只會導致重複內容的問題。
(4)重複的內容分頁
分頁版本的網頁是否應該方便搜尋引擎的討論已經持續數年,但谷歌宣布推出的 rel=next/prev/all,這些頁面其實是分頁的。
所以,我的回答是消除重複內容的問題所造成的分頁實現這些標籤,也可以簡化使用我們的SEO負擔。
(5)重複的內容從非搜尋友好的URL
網站默認情況下,採用非搜尋友好的URL,並且他們似乎經常出現在一個較新的版本。如下面的例子中,通常被搜尋引擎收錄,並導致重複內容的問題,同時,它們所造成的重寫規則的問題,這就更要注意網址URL規範化。
我會建議您的robots.txt檔案中不允許這些網頁,對無用的URL做301重定向然後做一個百度和谷歌網站管理員工具中的資料夾的刪除請求。
禁止方法
1、用Nofollow標籤禁止,這種方法很實用,但是有點麻煩。
2、用Robots.txt禁止無用連結,但是這有個缺點,就是這些頁面雖然不被搜尋引擎索引,但是權重還會從其他網頁上傳遞進來,但是不會傳遞出去。於是就形成了一個權重黑洞,只進不出,不過這種方法被很多站長們利用,包括福建seo
3、Meta Noindex和 Follow。搜尋引擎不會收錄這些頁面,但是會爬取這些頁面上的連結,還是會降低蜘蛛的爬去效率。