http://seo.jnwwhl.com

济南网站推广外包:dedecms织梦的robots.txt内容对排名优化的作用

当前位置: 济南seo公司 / 济南SEO优化 / seo推广 / 正文

济南网站推广外包:

网络上很多DEDECMS的robots.txt的书写方法和教程!

那么也有一大部分的人想要一份现成的robots.txt!

废话不多说,网友们只要复制下面的代码就可以了。

。。。

网络上很多DEDECMS的robots.txt的书写方法和教程!

那么也有一大部分的人想要一份现成的robots.txt!

废话不多说,网友们只要复制下面的代码就可以了。

第一步:新建robots.txt文件( 此处命名必须为robots.txt,小写 )
第二步:复制如下代码到robots.txt文件,( 代码/dede/是后台默认的路径,如果有改动的话robots里也记得改哦!)以下文件路径都是不要蜘蛛访问的!如果你有其他隐私文件夹的话 自己在下面添加一行一样的代码写上文件夹名称蜘蛛就抓不到了!

User-agent: *
Disallow: /data/
Disallow: /dede/
Disallow: /images/
Disallow: /include/
Disallow: /plus/
Disallow: /special/
Disallow: /templets/
Disallow: /uploads/
Sitemap: http://www.ystsm.cn/sitemap.xml

注意事项
路径后面一定要带“/”
Sitemap: http://www.ystsm.cn/sitemap.xml 这个网站域名换成你自己的哦!
Sitemap: http://www.ystsm.cn/sitemap.xml 去百度下载个生成网站地图的软件生成sitemap.xml传到根目录,不然蜘蛛抓不到你的网站地图,会影响你网站收录!


欢迎咨询济南网站推广外包问题,合作请联系济南网站优化公司!

上一篇:打开 IIS 7.0 网页时收到“HTTP 错误 500.19”错误

下一篇:html网页编码gb2312转utf-8方法 – Dreamweaver转换编

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。