济南seo|济南SEO优化|dedecms织梦的robots.txt内容 - 小马博客
专注提供网站SEO优化和网站优化及关键词排名以及网站建设服务,欢迎来聊...

dedecms织梦的robots.txt内容

济南SEO优化 小马过河 163℃ 0评论

网络上很多DEDECMS的robots.txt的书写方法和教程!

那么也有一大部分的人想要一份现成的robots.txt!

废话不多说,网友们只要复制下面的代码就可以了。

第一步:新建robots.txt文件( 此处命名必须为robots.txt,小写 )
第二步:复制如下代码到robots.txt文件,( 代码/dede/是后台默认的路径,如果有改动的话robots里也记得改哦!)以下文件路径都是不要蜘蛛访问的!如果你有其他隐私文件夹的话 自己在下面添加一行一样的代码写上文件夹名称蜘蛛就抓不到了!

User-agent: *
Disallow: /data/
Disallow: /dede/
Disallow: /images/
Disallow: /include/
Disallow: /plus/
Disallow: /special/
Disallow: /templets/
Disallow: /uploads/
Sitemap: http://www.ystsm.cn/sitemap.xml

注意事项
路径后面一定要带“/”
Sitemap: http://www.ystsm.cn/sitemap.xml 这个网站域名换成你自己的哦!
Sitemap: http://www.ystsm.cn/sitemap.xml 去百度下载个生成网站地图的软件生成sitemap.xml传到根目录,不然蜘蛛抓不到你的网站地图,会影响你网站收录!

转载请注明:济南seo » dedecms织梦的robots.txt内容

喜欢 (0)or分享 (0)
发表我的评论
取消评论
表情