网站优化过程中通常会遇到各种问题,当站长在优化中发现网站被惩罚了,我们需要做什么呢?
robots.txt文件是时常导致网站被搜索引擎的惩罚的原因,时常的修改robots文件,或导致网站被搜索引擎惩罚。网站被全部删除时,一定要检查robots.txt文件。不仅要人工查看代码,还要用Google站长工具验证是否存在错误,造成禁止搜索引擎抓取某些目录和页面。
除了301转向,JS转向则会很容易被搜索引擎判断为作弊,导致网站被惩罚,如果网站上存在大量转向,尽快删除即可。
检查使用同一服务器的网站上是否存在垃圾、作弊、被惩罚的网站,如果同一服务器上的网站大部分都是垃圾、作弊、被惩罚的网站,那么自己的网站就很危险了。
网站服务器不稳定导致网站经常打开速度过慢,甚至无法打开,搜索引擎蜘蛛来网站不能正常抓取内容,很容易对网站进行惩罚。