网站误封robots该如何解决

网站误封robots该如何解决?修改网站Robots文件,再使用百度站长平台抓取诊断工具检测,然后修改网站抓取频率,最后使用百度反馈中心向百度搜索进行反馈,接下来就只有等待了。

robots文件是网站优化运营中,站长最容易忽视的一个细节,例如robots文件错误覆盖或误封禁,给网站带去不必要的流量损失,那么robots文件错误覆盖或误封禁了要如何解决呢?下面大兵给大家分享解决方法。

网站误封robots该如何解决

案例说明:

许多站长在开发网站程序新功能时,选择在线开发,为了避免搜索引擎抓取网站程序新功能的开发版本,于是乎使用robots文件封禁了全站,等待网站程序新功能开发完成后,直接使用新程序版本覆盖了原程序,包括robots文件,几天后发现网站流量大幅度下降,网站索引量降至0,网站关键词也大量掉线。
robots文件该怎么设置,可点击《Robots.txt文件要如何正确设置》这篇文章。
误封robots网站截图
封禁了robots,2天后发现流量大幅下降

处理方式:

1、修改网站Robots文件,然后到百度站长平台更新robots;
2、使用百度站长平台抓取诊断工具检测,可能刚刚开始检测会显示抓取失败,没关系,多试几次就可以抓取成功了;
3、使用百度站长平台抓取频次工具,修改网站抓取频率;
4、在百度站长平台的反馈中心向百度搜索进行反馈,说明这次操作是误操作才导致的发生了这种情况;
5、在百度站长平台的资源提交页面,设置网站数据实时推送;
6、更新网站sitemap地图文件,并且提交给百度,设置24小时更新一次;
以上步骤都处理完成以后,接下来就只有等待了,正常情况几天后网站数据就会慢慢恢复了,1个星期左右网站数据就可以恢复正常。
解除robots封禁,网站数据开始慢慢回升

案例总结:

下面给大家总结下,避免大家以后也出现此类的问题。
1、不要为了图方便省事,选择在线开发网站;
2、网站开发或升级要有流程记录,例如在开发网站做了哪些处理,哪些不需要给搜索引擎抓取,哪些需要给搜索引擎抓取,这些一定要非常清楚;
3、要经常查看百度后台数据,关注网站流量及数据变化,及时发现问题,及时进行处理。

本篇文章发布于大兵SEO博客,为大兵原创内容,如若转载,请注明出处:https://www.zhuzhouren.cn/seojishu/10075.html,否则,禁止转载,谢谢配合!

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-01-18 23:26
下一篇 2022-01-30 17:40

其他人还看过以下内容

发表回复

登录后才能评论
联系我

平时工作忙:合作还是咨询SEO服务,请简明扼表明来意!谢谢!

在线咨询:点击这里给我发消息

邮件:dabingseo@qq.com
工作时间:周一至周六,10:30-24:30,节假日休息

个人微信
个人微信
分享本页
返回顶部