zblog自定义Robots规则生成的SEO优化插件ytecn_robots
robots.txt文件是网站进行SEO优化中很重要且所有搜索引擎都支持的文件,Robots可以告诉各搜索引擎网站中哪些页面或者目录允许被抓取,哪些页面或目录不允许被抓取,可以避免一些隐密、不重要或者重复的文件、目录被搜索隐藏收录。通常Robots.txt文件都是由站长手动编辑后上传到网站根目录,而博客吧今天介绍的这款zblog插件则可以省去这些麻烦,可以直接在后台设置生成。
插件介绍:
ytecn_robots插件可以根据用户的设置生成相应的robots规则,并自动在网站根目录生成对应的robots.txt文件。
插件支持当下主流国内外搜索引擎,截至博客吧编辑本文为止,支持如百度、有道、SOSO、搜狗、神马、谷歌、Bing等共22款搜索引擎,基本能满足大部分站长用户的需求。
另外插件支持设置增加Sitemap、增加限制目录,都可以在网站后台操作,非常方便。
使用方法:
1、下载插件:Z-Blog应用中心(或者后台搜索“ytecn_robots”)
2、安装启用插件后,在后台插件管理中,点击该插件的管理图标进入插件配置页面
在该页面根据自己的需求选择或配置限制目录,点击“生成”按钮后就会根据设置在网站根目录生成一个Robots.txt文件,生成的规则可以点击“Robots查看”中查看
PS:截至文本发表,该插件还是免费下载使用。
© 版权声明
转载请注明来自白芸资源网以及原文地址。
本站不敢保证内容的可靠性,内容仅供小范围学习与参考,禁止用于商业、盈利或其它非法用途以及大范围传播,您需在学习与参考完毕后从您的个人存储空间彻底删除,因您滥用而造成的损失本站不承担法律责任。
本站部分内容可能源于互联网,版权争议与本站无关,如有侵权可联系站长处理,敬请谅解!
请您合法使用本站资源。
THE END