说实在的,时至今日流行的SEO手段和方法,大家知道的都差不大多,至少也算是个半斤八两吧。而个人认为真正可称得上核心因素能与人拉得开差距的,是SEO决策数据层面的信息不对称,通俗易懂的说就是LOL中开着全图外挂的对手和顶着战争迷雾的玩家的区别!
比如我前段时间刚抓取并分析了某行业130万个unique query,通过归纳汇总压缩为几千个pattern,毫不客气的说,论把握行业用户需求的理解,我比一般水平的PM要精准得多。这个时候该做什么页面就已经跃然纸上了,同时能发现这个竞争白热化行业中被人忽视的几类niche词。
再比如我这里单机每天至少能查询100万个query的百度排名或者200万条URL的百度收录(相对比的是5118一天500万的query查询),对行业内真正竞争对手的实际流量覆盖率不客气地讲,恐怕比他们自己都要清楚得多。
再再比如很多人喜欢高谈阔论的网站结构优化,我是通过自己的爬虫系统Seodugspider(xenu太陈旧了,我索性重构并优化了一遍)把整个频道抓一遍来检查的,然后出个需求把一个日抓取800的频道提高到了日抓取30000。
我感觉我目前的数据量依旧只能勉强称得上是小数据,当然和那些整天嘴炮自己大数据实力如何如何,但监控个排名连万级都突破不了的乙方公司相比还是要强那么一点的。
这半年多蒙头苦干的都是这些产出数据的脏活累活,我这种业余码农自然遇了不少坑,接下来我希望能有时间将一些过程经验梳理总结后分享给各位有缘人!
亲爱的:若该文章解决了您的问题,可否收藏+评论+分享呢?
文章评论 本文章有个评论