如何让搜索引擎禁止收录页面以及robots.txt的写法汇总

【推荐】SEO们别当着百度说你是误入妓院

29
2009
05

核桃对于谷歌PR的一点理解

比如一个新站有100个页面
这个新站没有PR,没有高PR的外链
其实就这100个页面的相互链接
只要结构策划得好
等到谷歌都正常收录的时候
首页PR可以达到从0~2
前提是这100个页面要有价值
不是全COPY的内容

26
2009
05

一个成熟的SEOER建站之前会做的事情

·大多数时候都是:站点未开,外链先行

·程序没写就已经对要进行布局的模块及关键词有一个大方向的思考

·内部优化一定是重中之重,内部优化最开始体现在模板SEO上

·模板SEO的重点体现在关键词及HTML代码的分布上

·至少已经有定位了三到五个可能放在首页进行布局的关键词

·至少已经构思过三到五个首页或者专题页标题的写法

19
2009
05

互联网搜索引擎发展简述

  世界上第一个用于监测互联网发展规模的“机器人”程序是Matthew Gray开发的World wide Web Wanderer。刚开始它只用来统计互联网上的服务器数量,后来则发展为能够检索网站域名。

  与Wanderer相对应,Martin Koster于1993年10月创建了ALIWEB,它是Archie的HTTP版本。ALIWEB不使用“机器人”程序,而是靠网站主动提交信息来建立自己的链接索引,类似于现在我们熟知的Yahoo。

  随着互联网的迅速发展,使得检索所有新出现的网页变得越来越困难,因此,在Matthew Gray的Wanderer基础上,一些编程者将传统的“蜘蛛”程序工作原理作了些改进。其设想是,既然所有网页都可能有连向其他网站的链接,那么从跟踪一个网站的链接开始,就有可能检索整个互联网。到1993年底,一些基于此原理的搜索引擎开始纷纷涌现,其中以JumpStation、The World Wide Web Worm(Goto的前身,也就是今天Overture),和Repository-Based Software Engineering (RBSE) spider最负盛名。

07
2009
05

如何找词建站并获得排名及流量(核桃QQ群聊天记录)

~核桃 17:06:09
全手工的
不用讲思路啊

~核桃 17:06:23
从一开始就是为SEO而做的站

关墨 17:06:48  
对了核桃,你那些内容页,是一次性都做好再开通网站吗?

ZWRO 17:07:16  
对啊
是做好提交还是慢慢做慢慢提交

~核桃 17:07:23  
我的手工页面垃圾站都是内容全部做好再上线的

Neil 17:07:48  
我一个单页面站,百度和GOOGLE终于收录了

ZWRO 17:07:58  
而且是不是要权重高的站带呢?

~核桃 17:08:22  

有些时候是为了增加PV到后期会加一个文章系统
这个文章系统也会用来主推一些目标关键词
其实最主要的是要学会看统计
统计最有用的东西是关键词