<nav id="yqaem"><blockquote id="yqaem"></blockquote></nav>
  • <table id="yqaem"></table>
  • <tt id="yqaem"><blockquote id="yqaem"></blockquote></tt>
    资讯中心

    资讯中心

    如何避免蜘蛛重复抓取一个页面

    问题:如何避免蜘蛛重复抓取一个页面?

    回答:蜘蛛重复抓取页面是正常的,蜘蛛抓取页面的依据是看页面内容是否发生了变化,如果每次抓取页面都有变化,那么抓取就会更加频繁。如果多次抓取后发现页面都没有变化,就会减少抓取。所以不要刻意让蜘蛛不重复抓取某个正常的页面。

    蜘蛛多次重复的抓取页面,就说明这个页面的更新频繁。这是个好的现象,我们可以去对这个页面进行分析,看看到底是哪个内容模块经常有更新。而其他的页面则可以参考,也加大这些页面的更新频率,这样整个网站的抓取频次就会增多。

    当然,想要整体增加蜘蛛抓取频次的话,内容的数量和内容的持续更新也需要注意。通常,内容越多的网站,蜘蛛的抓取频次就越高。

    另外有些动态页面,或者是某些数据库文件,大家要注意。这些页面更新会很频繁,如果给蜘蛛提供了链接入口,那么蜘蛛就会经常来抓取这些页面,这个细节问题大家也要注意下,对于这些没有必要被收录的页面,要隐藏好链接入口。

    还有就是sitemap这个网站地图文件,搜索引擎之所以会频繁抓取,其实也是跟文件的更新有关系。如果我们的网站地图是动态的,那么网站一旦更新内容,网站地图就会产生变化,搜索引擎蜘蛛每次过来都能发现新的链接,因此它就会频繁来抓取。

    关于如何避免蜘蛛重复抓取一个页面的问题,笔者就简单的说这么多。总之来说,如果蜘蛛重复抓取的是正常的需要优化的页面,那就不要去管它。如果是那些不需要优化的动态页面,就要想办法隐藏链接入口,再在robots文件上限制抓取。最后再提醒下,蜘蛛抓取页面跟页面的内容更新有关系,大家可以根据这个原理去对网站收录进行优化。


    评论(0 条评论)
    游客

    欢迎咨询技术,多一份参考总有益处

    点击QQ咨询
    添加我,免费做你的网络顾问
    返回顶部
    gogo大胆欧美人体艺杧图片_免费a级毛片无码av_人妻无码专区一区二区三区_免费国产乱理伦片在线观看