近期发现很多在谷歌排名前列的关键字没有我的网站(http://www.whsjsoft.com)。比如汽修软件,这原本坐稳了第一名的关键字,只剩下两个博客。再比如:首佳汽修软件,这个关键字几乎是没有竞争对手的,因为只有我们提供这样的内容。这个关键字有很多个友情链接指向主页,排第一无可厚非的,但是现在也不见了排名?只有一个解释-网站被降权了!
Google黑板报文章:我的谷歌排名哪里去了?,文中重要摘要及我们的处理办法如下:
1、谷歌对某一网站惩罚的最常见的原因就是网站的网络作弊。在谷歌网站管理员指南 中,谷歌指出了如何设计网站,网站的内容应包含哪些,网站管理员必须了解哪些技术,并给出了网站的质量指南。任何违反网站质量指南的网站都被称为作弊网 站,并可能受到惩罚。在质量指南中,下列行为被认为是作弊:隐藏文本或隐藏链接;隐藏真实内容或欺骗性重定向;向谷歌发送自动查询;使用无关用语加载网 页;创建包含大量重复内容的多个网页、子域或域;针对搜索引擎制作的”桥页”,联属计划;制作会安装病毒、特洛伊木马或其他有害软件的网页。这些行为的共 性是,他们都是为搜索引擎而作,而不是为访问网站的用户而作。
被降权首先想到的是网站有没有作弊?是否符合谷歌网站管理员指南 中指导的建站要求?最近我们站都没有作过改动,主动作弊这种情况完全可以排除。因为在谷歌中排名一直很好,没有再作弊的必要。另外,关于重复内容,因为百度对我站(http://www.whsjsoft.com)的新闻内容页一直不收录,新闻页面是由带有两个参数的ASP页面生成的内容;后来为增加百度的收录特地加入网站导航页面,并将新闻内容转成静态的页面;但是谷歌等搜索引擎是可以收录的,所以等于是重复了一次内容。我们可以做的是:可针对谷歌设置robots.txt内容如下:
User-agent: googlebot
Disallow: /sitemap/index/
Disallow: /sitemap/index5/
Disallow: /sitemap/index4/
Disallow: /sitemap/index2/
Disallow: /sitemap/index1/
关于重复内容,还有一点也是很可疑的影响网站质量及可读性的;就是网站版权部分区域原先是每一个页面都是相同的,都从一个foot脚本中导入的。相同的版权说明的内容,在一定程度上也会造成网站内容的重复。现在将它改成栏目的导航功能,这一点重复就无关紧要了。
PR的传递和页面的重要程度的处理,也会影响网站排名,几乎每一个页都有相同的友情链接的内容,等于把页面本身的PR分散的传递到其它网站上,这似乎没有必要。
2、网络作弊的另一种行为是无效链接的利用。一些网站通过买卖链接,或利用其他网站的自助链接功能得到链接,或者干脆使用垃圾链接软件来得到完全无效的链接。这些短视行为影响了谷歌排名算法的正常运行。谷歌不得不调整算法对这些作弊的网站降权。在要求重新收录或找回排名前,用户必须移去违反网络管理员指南的内容,或检查自己的网站安全性能以保证没有被黑。对违反当地法律的内容也必须移去。被降权的网站必须撤掉不合理的链接。
昨日我作全站的死链接检查工作,发现好几个无效的对外链接,几百个可能是垃圾网站的引用通告,及几十个可通链接垃圾网站的留言。这些可能是我的网站排名会降低,并被降权的罪魁祸首!禁止接收引用通告,禁示游客发表留言,是治根又治本的办法。所以我们必须做的是把这些垃圾链接全部清除到一干二净,还必须做的是:汽车维修管理博客将禁止引用通告及游客留言功能
3、检测网站死链接,提高网站质量,另一种更精确的方法是利用谷歌的网站管理员工具注册并查询你的网站的信息。在谷歌网站管理员工具中会定期报告谷歌蜘蛛人在我们网站上抓取过程中发现的无效链接。有些死链接可以分析原网页代码找到错误把它修复。虽然有些死链接可能无法解释,无法修复;但是我们可以在robots.txt中增加禁止索引的规则。比如:
Disallow: /blog/commentedit.asp
Disallow: /blog/go.asp
Disallow: /Bs_UserReg.asp
Disallow: /javascript:VoteForm.submit()
这些不知来源的死链接,我们还是可以控制不抓取的。
4、网站的安全性。这不光是网站自身的安全性,还有对你的客户的安全性,我们的网站对访客是不是负责任的?
前些天网站被恶意的值入病毒代码、指向恶意网站。这都是很严重的安全性问题。还好花费了一个小时就把恶意代码清除了,但是如果这个时候谷歌的蜘蛛人正好在抓取,那后果就是惩罚、降权处理。
5、其它建议如谷歌网站管理员中文博客:给网站管理员的建议:创建可利用的、可抓取的网站
做好了这些工作,希望谷歌能解除惩罚,并恢复我的排名。
真是无奇不有啊,还有人查:如何降低网站排名?