什么样的网站适合被 搜索引擎抓取

首页  网站建设  网站优化  云服务器  百度云主机   营销软件  经验分享  地方网站建设
首页 / 经验分享 / 正文

什么样的网站适合被 搜索引擎抓取

作者:伟航网络  人气: 1423次  发布时间: 2018/1/14 15:49:21

网站首先要被搜索引 擎抓取才会被收录,进而才会有获得排名的机会,所以网站一定要做的适合被搜索引擎抓取。

简单明了的网站结构

搜索蜘蛛(爬虫)抓 取相当于对web这个有向图进行遍历 ,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。

(1)树型结构最优的结 构即“首页—频道—详情页”;

(2)扁平首页到详情页 的层次尽量少,既对抓取友好又可以很好的传递权重。

(3)网状保证每个页面 都至少有一个文本链接指向,可以使网站尽可能全面的被抓取收录,内链建设同样对排序能够产生积极作用。

(4)导航为每个页面加 一个导航方便用户知晓所在路径。

(5)子域与目录的选择 相信有大批的站长对此有疑问,在我们看来,当内容较少并且内容相关度较高时建议以目录形式来实现,有利于权重的继承与收敛;当内容量较多并且与主站相关度略差时建议再以子域的形式来实现。

简洁美观的 url规则

(1)唯一性网站中同一 内容页只与唯一一个url相对应,过多形式的 url将分散该页面的权重 ,并且目标url在系统中有被滤重的 风险;

(2)简洁性动态参数尽 量少,保证url尽量短;

(3)美观性使得用户及 机器能够通过url即可判断出页面内容 的主旨;我们推荐如下形式的url:url尽量短且易读使得用 户能够快速理解,例如使用拼音作为目录名称;同一内容在系统中只产生唯一的url与之对应,去掉无意 义的参数;如果无法保证url的唯一性,尽量使不 同形式的url301到目标url;防止用户输错的备 用域名301至主域名。

其它注意事项

(1)不要忽略倒霉的 robots文件,默认情况下部 分系统robots是封禁搜索引擎抓取 的,当网站建立后及时查看并书写合适的robots文件,网站日常维护 过程中也要注意定期检查;

(2)建立网站 sitemap文件、死链文件,并 及时通过百度站长平台进行提交;

(3)部分电商网站存在 地域跳转问题,有货无货建议统一做成一个页面,在页面中标识有无货即可,不要此地区无货即返回一个无效页面,由于spider出口的有限性将造成 正常页面无法收录。

(4)合理利用站长平台 提供的robots、sitemap、索引量、抓取压力 、死链提交、网站改版等工具。

文章出自:http://www./news/59.html

相关文章
关注伟航网络工作室
微信公众号获取最新活动
联系我们

地址:山东省德州市 宁津县宝莲华小区

联系电话: 18405343385

E-mail:kf@

业务QQ:

专注网站优化服务, 助力中小企业提升业绩!

微信客服
微信联系企业网站优
化公司
CopyRight © 2018 伟航网络 All Rights Reserved.  地图 xml 网站管理
友情链接:    五分娱乐彩票   时分彩票开户   1216彩票代理   1216彩票登陆   23彩票平台