第一,网站url设置必须简短故意义.此类设置常常用于cms搭建的网站,我们常常看到的有织梦的cms,当我们在创建一个栏目的时候,默认的因此该栏目的天生韶光以及名称作为栏目和文章的url地址,这个地址非常长,并且对付搜索引擎及其不友好,其他站点也是一个道理,以是在进行内容更新之前我们首先要做到栏目和文章路径的url优化,要修正的地方在dedecms的后台,系统——系统基本参数.

栏目管理里文章命名规则{typedir}/{Y}/{M}{D}/{aid}.html改为{typedir}/{aid}.html删除中间的日期或者把中间部分改为栏目的简拼或者全拼的办法,列表列表命名规则{typedir}/list_{tid}_{page}.html改为{typedir}/list_{page}.html删除中间天生的tid缩小文章页的路径.

第二,网站的404页面设置.404页面紧张为一些失落效的无法打开的网站链接准备的,很多网站由于改版或者数据库的更新导致url涌现无法打开的情形发生。
404页面的浸染是什么?一旦涌现网页无法打开,这个时候我们就要通过404页面进行友好的提示用户返回到我们网站的首页,这样勾引用户连续访问其他的页面,增加了我们网站体验度和用户浏览韶光,大家可以根据自己喜好选择页面布局办法,但是把稳底部的返回顾页是必须要保留的.

typedir/listtidpagehtml网站扶植完成你还须要做到这些才行 HTML
(图片来自网络侵删)

第三,网站的301永久重定向.我们知道新上线的站点一样平常同带www的域名和不带www的域名,但是这两个域名对用户打开看到的首页没有什么差异,但是百度会认为两个域名,权重会分散,以是作为seoer我们要做的就行对应url进行永久的重定向,方法是把不带www的地址跳转到带WWW的域名,以防权重分散.

第四,网站Robots协议设置.Robots协议全称是“网络爬虫打消标准”(Robots Exclusion Protocol),网站通过Robots协议见告搜索引擎哪些页面可以抓取,哪些页面不能抓取.当一个搜索蜘蛛访问一个站点时,它会首先检讨该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围.详细的设置方法,笔者在这里举例解释:其他更多的知识可以通过百度搜索理解.

小编提醒:千万不要忽略了这些设置,有不少人便是以为这些设置没什么浸染,然后...网站出的问题,好几个月都没有办理。