|
一、主动提交内容
做seo的朋友应该都知道,百度推出了一个百度站长平台,里面有很多很实用的seo工具,百度给我们提供了主动提交工具和自动提交工具。
有了这两个工具,可以让我们第一时间把内容提交给搜索引擎了,当你提交过后,只要网站不是太差,蜘蛛都会第一时间过来爬取
1、主动提交
主动提交的话,是需要一点点小技术,需要开发程序才能实现实时推送的功能,让然周振兴有找人开发过这个小程序,如果有需要可以找我要。
用法很简单,当你的文章更新了,就用程序提交网址就可以了,具体的如果你感兴趣,
2、自动提交
而自动提交没没那么复杂了,只要在网页的底部,加上js代码就可以了,当用户浏览这篇文章的时候,就能推送到搜索引擎那边去了,是不是很方便。
现在网站做seo优化,一定要用这个功能。
这个功能还有一个好处,当我们原创写了一篇文章后,就提交给搜索,后面如果有人抄袭你的文章也是没用了,按照先来后到顺序,哈哈。
二、网站地图提交
网站地图确实太重要了,可以让蜘蛛更好的理解整个网站的结构,有利于爬取。
我们通常的做法是,把网站地图链接放在网页顶部,很容易就抓取到了
还有,你可以把网站地图的链接放在robots文件中,蜘蛛访问网站第一件事情就去访问robots文件,主要读取robots文件,就能发现这个网站地图链接,很方便。
如果你还不知道怎么做网站地图的话,这里推荐个插件
软件名字:SitemapX
一般我们常用的cms程序都会带相应的网站地图功能
记住,这个地图一定要有哦。
三、内容不要放置太深
当内容放置太深的时候,蜘蛛很难怕爬取到。
目录深到底有多深呢?
比如www.xxx.com/x1/x2/x3/1.html
这个内容的目录相对较深了,也是很多网站常见的布局手法,这样放置有利于文档的检索,但确实有点不利于蜘蛛的爬取,怎么说呢,有利有弊把。
那么该如何解决这个问题呢?
方法是:把这些不容易被蜘蛛抓取到的链接,放在一些曝光度高的页面,加上它们的链接,就可以顺利爬取了。比如在首页放个链接,频道页相应位置放一个链接等。
对了,还有一种情况是列表页的问题
一般我们列表页都是防止10篇文章,然后其他是按照分页形式,1-2-3-4-5-6这样去翻页了,其实在这里翻页的目录也是有点深了,如果你经常观察蜘蛛的爬取行为就知道,有时候很难爬那么深。
那么如何解决呢?
1、减少目录深度
2、增加调用篇数(根据网站的情况增加至20篇)
经过这些技巧处理后,蜘蛛就能容易抓取到这些内容了
四、调用随机文章激活页面新鲜度
经常观察网址日志会发现,当蜘蛛访问页面成功的时候,返回码是200,然后过了一会又来访问了网页,这个时候的返回码是304,位什么前后不一样了呢?
200代表访问成功
304代表无无任何修改网页
如果蜘蛛频繁来反问,返回码一只是304,那么估计蜘蛛减减的也会缩短光顾的频率,如果时间长了对收录也不好。
解决方法:
将每个页面加入随机调用文章,每一次访问都能保持网页有所变动,进一步的为没一个页面增加新鲜度。
事实也证明长期不更新的页面就是收录率低下。
五、网站内容推荐,增加曝光度
内容推荐也是一个不错的方法,通过网站日志挖掘出蜘蛛没有光顾的内容,然后提取出来,在想要的频道,或者内容页做一些重要的推荐,有了链接入口,蜘蛛就可以顺着入口爬过去,这样大大的增加了收录的几率。
主要分享着5点,不过如果你只是看了不去做,那估计也不会有进步,网站收录也还是个问题。
但是,要收录的前提是你的页面是可抓取的,而且页面质量够可以,比如页面与页面之间的相似度问题等。
后面在开篇文章重点讲解一下什么样的内容才是蜘蛛喜欢的内容。 |
|