一.前語
本文比較適用與中大型網站的SEO人員,小網站也能夠參閱。
意圖在于討論一種發掘網站的內容潛力,把網站中用戶可能會關懷的內容出現給用戶,滿意其需求,獲取相應的SEO流量。
許多大型網站都在用的一種方法,可是很少有人出來詳詳細細的解說。
這樣的SEO流量是怎么取得的,下面舉一個通俗易懂的比方。
假定我在百度上查找“iOS 英雄無敵3”,意圖是找一個能在iOS下運行的英雄無敵3這個游戲。
事實上這個游戲并不存在。因而壓根不存在一個頁面能夠讓我找到我想要的內容(如果有也是標題黨)
所以我進入了tgbus的這個關于iOS 英雄無敵3的頁面。
我在這個頁面上找到了iOS上的英雄無敵2這個游戲以及其他相似英雄無敵3的iOS游戲,以及一些奇奇怪怪的新聞(ok,這個頁面做得并不是很簡略閱覽)
Finall,我在tgbus上下載了英雄無敵2的iOS版別試試。
OK,我們再換個實際生活中比方:
一個姑娘去買衣服,所以看上一條粉紅色的連衣裙,可是沒她要的尺碼。
這時分營業員會怎么做,沒錯,引薦一些相似色彩or樣式的連衣裙,而且有碼。
(TGBUS好像引薦出了一條牛仔褲。)
SO,我們應該怎么去找出用戶想要的連衣裙和我們庫房中有的連衣裙,而且在最恰當的時分給用戶最好的成果,還能獲取到SEO流量,這并不是一件很簡略的作業。
Wait,這不是就一個引薦引擎么?這么雜亂的玩意交給工程師做就行了。事實上大都時分,這僅僅SEO們一廂情愿的東西,工程師才不會來鳥你什么引薦引擎,我們先從一個可執行的視點,自給自足來把這個SEO方法施行下去。
二.內容剖析,關鍵詞剖析,數據接口規劃
一個SEO知道自己網站有多少內容很重要,常常遇到和人說:“你網站這個XX頁面有問題” “啊?這是什么頁面啊,我從來沒見過。”
一般一個網站垂直去分,有主頁,內容頁,列表頁。
內容頁中,又可能分圖片頁,談論頁,文章分頁等等
列表頁中,又可能分頻道頁,產品列表頁,索引頁,專題頁等等。
一般一套頁面臨應一套乃至多套php模板。
需求弄清楚這些模板是否在一個架構內,是否公用數據庫,頁面上使用了哪些字段,最好能夠找到對應模板的開發人,如果有條件申請到源代碼檢查權限,能夠自己看一下。一個內容聚合的需求可完成度很大程度上取決于上面這些內容,先弄清楚把配料都弄齊全了,再開端做菜,不然巧婦難為無米之炊。
橫向去分可能是更多往business方向考慮,比方有我們有賣線路的,賣門票的,賣酒店的,攻略,用戶圖片,論壇帖子等等各個頻道,各個頻道可能是由不同的部分在擔任。哪些是網站暢銷的,需求熱推(至少你做個SEO的東西得有商業價值,在電商公司非常重要),包含各個頻道是否有人還在運營,一個終年無人打理的頻道,明顯不是一個好的內容源。一般來說,首要的產品線,和UGC的內容一般是網站內容供給主力。如果我們想發掘用戶需求,也能夠優先考慮它們。
這個過程需求花許多時刻,雜亂一些網站乃至要1個月才干弄清楚網站到底有多少類型的頁面。在弄清楚上面的問題之后,
接下來,就需求只需知道各類內容有多少數量。
比方多少個SKU,多少文章,多少帖子,多少tags,多少分類等等
這是許多人在做相似作業時考慮不周全的,憑感覺去做。最后做出來一大堆重復內容的頁面,重復頁面臨SEO有多壞的影響就不必再提了。
這個核算內容數量的方法(從好到壞排序)。
1.讀數據庫
2.經過一些”奇妙”的方法去數
3.用東西抓
4.靠經歷猜(根本不靠譜)
讀數據庫是最簡略,也是最準確的方法了,一個select完事
如果沒有數據庫權限,就要去想方法知道。比方文章有多少條,那能夠核算分頁數量*每頁文章數量來核算
如果是自增id,那來湊自增id來數;
如果是固定格局數據,比方來北京的圖片,北京的氣候,區域數量*類型來核算,等等;
經過東西抓是許多查找引擎優化的愿望,無數人問過這樣的問題,有沒有什么東西能夠核算出我網站有多少網頁啊。
抱歉,還真沒有,因為種種網站原因,沒有任何一個東西能夠核算出一個中大型網站到底有多少網頁(誰有那這個東西比google,百度爬蟲還NB),太多的爬蟲圈套,阻止深化抓取的東西了。當然,這樣的抓取東西并不是一無可取,關于小型網站,或許特定頻道,乃至特定區塊的抓取,仍是有一定作用的。比方Httrack,Xeun,當然還有我比較喜歡用的火車頭。python,shell等腳本語言一直是全能的。
上面根本就是內容剖析的大致狀況了,弄清楚內容的品種,數量和運營狀況,對SEO是有許多優點的。
三.關鍵詞發掘,清洗與過濾
關鍵詞的發掘說難不難,說簡略也不簡略。
根本每個人都會問,怎么發掘關鍵詞制造詞庫。先說說一些常用的方法。
1.baidu/google API
2.收集愛站,chinaz,伯樂等數據
3.收集百度下拉框(其他查找引擎同理)
4.收集百度相關查找(其他查找引擎同理)
5.站內查找和天然流量關鍵詞
6.現成字典/詞庫
講點詳細完成的一些注意點,都是在實踐過程中總結出來的東西。方法說了,根本10個人里邊有1個人去實踐一些就不錯了
1.百度和google的api是要申請的,想方法搞一個,如果沒有,只能用百度網頁級別的收集,百度競價后臺常常改,所以不是很穩定,這邊友誼引薦一個東西http://www.lingdonge.com/(暫時存案中可能打不開),作者很nb,搞俠客站群軟件的。百度API的python的SOAP通訊有BUG,連不上(可能我水平太低了T_T),PHP會SOAP通訊的話能夠自己寫腳正本跑,Google的沒玩過,應該差不多;
2.API是有準確查找量的數據,所以是詞庫榜首數據來歷;
3.百度下拉框反收集做的比較少,收集地址為http://suggestion.baidu.com/su?wd=xxxxxxxxx+一堆參數的,詳細調整一下,一個小腳本能夠搞定,可是數據深度有限,一般收集2輪后就不必再采了,根本采不出新數據了;
4.相關查找能夠用火車頭或許飛達魯金花之類的,因為是收集SERP,反收集這塊要想方法繞過;
5.站內查找和天然流量關鍵詞去GA搞一下就行,批量導出不說了。很簡略,不是用的GA可能會悲劇一些;
6.拼音輸入法詞庫;
7.一些特別的查找引擎,淘寶,youku之類,他們也積攢了很多的數據信息。
四.分詞/檢索/排序/批改
五.頻道的運營,保護,拓寬
六.數據監控
|