悦然建站分享:robots文件相关问题解答
robots文件可以用来控制搜索引擎蜘蛛抓取什么内容,这样我们就可以让蜘蛛不去抓取一个私密内容,避免一些安全风险。但是也是一些网站因为robots文件填写不正确,导致网站没法被抓取,这对网站的收录、排名都是有极大的影响。 下以是百度官方搜索资源平台问答中关于robots文件的相关回答,【悦然企业网站建设】把它整理出来了,希望对大家有所帮助。 为什么我网站上的robots文件已经更新一个月了,新禁止的文件还在抓取状态? 在百度搜索资源平台使用Robots工具进行更新,并及时关注文件生效时间,若3三天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。 另外开发者自查rob…