zblog自定义Robots规则生成的SEO优化插件ytecn_robots

白芸资源网公益广告

zblog自定义Robots规则生成的SEO优化插件ytecn_robots

robots.txt文件是网站进行SEO优化中很重要且所有搜索引擎都支持的文件,Robots可以告诉各搜索引擎网站中哪些页面或者目录允许被抓取,哪些页面或目录不允许被抓取,可以避免一些隐密、不重要或者重复的文件、目录被搜索隐藏收录。通常Robots.txt文件都是由站长手动编辑后上传到网站根目录,而博客吧今天介绍的这款zblog插件则可以省去这些麻烦,可以直接在后台设置生成。

插件介绍:

ytecn_robots插件可以根据用户的设置生成相应的robots规则,并自动在网站根目录生成对应的robots.txt文件。

插件支持当下主流国内外搜索引擎,截至博客吧编辑本文为止,支持如百度、有道、SOSO、搜狗、神马、谷歌、Bing等共22款搜索引擎,基本能满足大部分站长用户的需求。

另外插件支持设置增加Sitemap、增加限制目录,都可以在网站后台操作,非常方便。

使用方法:

1、下载插件:Z-Blog应用中心(或者后台搜索“ytecn_robots”)

2、安装启用插件后,在后台插件管理中,点击该插件的管理图标进入插件配置页面

zblog自定义Robots规则生成的SEO优化插件ytecn_robots

在该页面根据自己的需求选择或配置限制目录,点击“生成”按钮后就会根据设置在网站根目录生成一个Robots.txt文件,生成的规则可以点击“Robots查看”中查看

zblog自定义Robots规则生成的SEO优化插件ytecn_robots

PS:截至文本发表,该插件还是免费下载使用。

    © 版权声明
    THE END
    本站一切内容不代表本站立场
    赞赏 分享