第一,学会如何分析一个网站的关键词
研究和选择关键词其实研究和选择关键词是一个不小的学问,尤其对于一些商业性关键词来说。首先应该站在客户的角度去考虑,选择流量比较大的关键词,再搭配长尾关键词,这里有必要提一点的就是“分词写作技巧”,相关知识大家可以去搜索,如果你的标题和描述运用“分词写作技巧”写的好,并且权重不错,你的排名可以占据几十个相关的关键词的排名。
第二,选择利于网站优化的程序系统
选择利于SEO的建站系统选择一个优化好的建站系统会省下很多SEO工作,因为基础已经打好,就不用再花费时间修改很多东西,好的系统可以让你建设出一个具有很好网站结构的网站让你的后续网站优化工作事半功倍,因此如何选择建站系统是一个很重要的问题。
第三,图片属性切记不要忘记加了
图片ALT属性名称准确准确的文件名给图片一个精准的描述,ALT属性最好保持7个字或更少。此外,通过百度图片还可以用来获得网站的点击量,如果你的文件名和图片很好,通过准确的ALT属性,你可以获得更多在百度图片展示的机会。
第四,网站优化URL标准化不容忽视
标准化一般情况下,以下几个URL都是指向同一个页面为了将PR和权重集中到一起,即搜索引擎挑选最好的URL网址作为真正网址的过程。
第五,去除冗余链接
不使用冗余链接有些人可能认为,为了增加特定网页的价值,可以多次从另一个页面链接到同一页面,但是搜索引擎将只计算该链接一次,因此没有必要重复的链接,因为这是一个愚蠢的做法,容易让用户混淆。
第六,创建404页面
创建自定义404页面创建自定义404错误页面是增强用户体验的很好方法,而且有利于SEO,大家最好都要创建自定义404页面,如果你没有创建自定义404页面,当用户到达错误页面的时候,他们可能认为该网站已关闭,并转移到你的竞争对手的网站,所以貌似一个不起眼的细节,会造成不小的损失。而且搜索引擎对于404页面是比较厌恶的,如果单独做一个404页面可以起到减少蜘蛛的跳出率!
第七,创建一个robots.txt文件
创建一个robots.txt文件当您创建您的robots.txt文件,必须放置在一个站点的根目录下,而且文件名必须全部小写,robots.txt来告诉给搜索引擎知,哪些地方可以爬行抓取,哪些地方不要爬行抓取。引导蜘蛛抓取有价值的页面,另外可以防止一些网站机密文件及信息的泄漏!
第八,网站建设采用DIV+CSS模式
网站建设采用DIV+CSS模式可以减少网站的代码量相对表格模式有利于提高网站的打开速度并且DIV+CSS模式有利于搜索引擎的爬行抓取。
第九,网站地图
生成一个XML站点地图只需要几分钟的时间生成一个XML站点地图 ,网站地图应该要包括网站的主要网页的内容链接或者栏目链接,制作XML Sitemap并通过网站管理员工具提交给主要的搜索引擎。搜索引擎蜘蛛会通过你所提交的网站地图对你的网站进行抓取,有利于提高网站的收录。