加入收藏 | 设为首页 | 会员中心 | 我要投稿 汉中站长网 (https://www.0916zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 建站资源 > 优化 > 正文

浅谈URL优化和重要性

发布时间:2022-01-14 10:14:50 所属栏目:优化 来源:互联网
导读:本人从事SEO多年,优化的案例从几千到几十万IP的都有,正规灰色都有,正规站从未主动发过外链。也很不理解为什么非要去做外链。就非企业站点来说,单锚本文提升单词效果不大,可能是因为优化的站点原因。我接手的都是比较中大型的网站,不会刻意的去堆砌某
  本人从事SEO多年,优化的案例从几千到几十万IP的都有,正规灰色都有,正规站从未主动发过外链。也很不理解为什么非要去做外链。就非企业站点来说,单锚本文提升单词效果不大,可能是因为优化的站点原因。我接手的都是比较中大型的网站,不会刻意的去堆砌某个关键字的排名,更不用说去专门做某词的锚文本进行投票了。那么应该如何优化大型站点呢。我觉得最重要的因素就是架构/结构。今天跟大家分享首要的架构:url优化。
 
  
  1.URL一致性:URL 一致性是一个非常重要的指标,推荐大家一本书《走进搜索引擎》里面有介绍spider是一种机器程序,而非人脑,虽然也有学习的过程,但是国内网站千千万,每个网站有不同的url规范,你如果url命名规则杂乱无章spider又怎能高效的辨别你的内容规范? 这里举个个人觉得做的比较好的case:“下载吧”。读者可以去翻阅下载吧的网站。他的主体结构为:首页=>列表页=>内容页 。这里因地制宜,只是举例可能并不适合你的站点。
  
  2.偏权重:偏权重可能是我自己创造的一个首发词,大神们勿喷。通过我多年的分析发现,每个站点的流量是有集中点的。这个从爱站的工具里面大家可以看出来,这里拿我一个客户和朋友的网站给大家做做案例。
  
  
  3.爬行原理:蜘蛛爬行原理有 深度优先和宽度优先这里分开说一下:
 
  (1)深度优先:深度优先适用于一些大站,蜘蛛很渴望得到他的内容,比如新浪网易他们的目录很长,也能收录。假如我们给蜘蛛一个线程只能爬取一个页面,爬行轨迹:首页-封面页-频道页-内容页,那么你网站的结构是:首页=> xxx/a=> xxx/a/b=> xxx/a/b/c/1.html=>。蜘蛛会沿着你的深度爬行进去,但是无论多大的站,你的深度也必须有限,否则蜘蛛不可能无穷尽的挖掘进去,爬累了自然就会离开。并且内容也没带回去。
 
  (2)宽度优先:这个是我非常推崇的,而且我所有新站都是这种效果。我自己建了5天的站蜘蛛爬行800次。效果说明在扁平化的今天,宽度优先是可以让蜘蛛非常高效的爬行和返回的。url结构 xxx/a/ xxx/b/ xxx/c/ 这类的叫宽度优化,爬行轨迹 :首页-频道页A-频道页B-频道页C/首页-频道页A-内容页A1-内容页A2-内容页A*
 
  综上所述。其实可以看出:宽度优先的效率明显高于深度优先。而且蜘蛛的任务类别也单一,非常容易识别。同一线程爬取的几乎是同一类型页面,页面样式,外观相同。蜘蛛不必花时间过于的去分析你的页面内结构,层次清晰。
 
  4.爬虫黑洞:这个问题不是什么新问题了。百度也有做专门的阐述,因为一些url处理不当产生的动态参数后缀,或是刻意圈住蜘蛛所做的无限循环,这种的效果明显是弊大于利。对URL 的规划上一定要想办法尽可能的处理掉无限动态参数后缀,并且也要合理的给蜘蛛出口,这才是真正有利于SEO 的做法,关于处理爬虫黑洞的办法这里我不做多讲解。《巧用robots避免蜘蛛黑洞》。

(编辑:汉中站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!