网站搜索引擎优化致新站长网站做搜索引擎优

2019-05-14 23:34:34 来源: 邯郸信息港

1 : 致新站长:站做搜索引擎优化前的准备

作为1名站长,苦闷的事就是站的推行工作了,简而言之,推行好了就有了访客,有访客也就有了流量,有了流量自然也就有了客源,将客源转化为自己的客户,这就是推行的目的,推行在于精而不在于多,有个别站主为推行而不择手段,甚么方法都用上了,但效果着实不使人满意,其中因由这里就不多说了,我侧重讲下1个新站做优化前的准备。

1、站整体布局

站整体布局对全部站来说是不言而喻的,1定要规范站的整体布局,尽量采取扁平(树型)结构。页面必须要简洁、清淅明了、切不可杂乱无章,让人看了眼花缭乱。站在建设之前要有1个整体的计划,作为用户的浏览方式而言从左到右,然后在从上到下,若作为行业门户行如A5或作者的首推整体架构布局按1:2:1从左至右3栏架构,如此布局附适用户浏览习惯及体验,结构清淅明了,若为企业营销型可设为2:3架构或从上往下1:3:2架构为佳。做的站切不可给用户看的不1样,然后给阅读器看的又不1样。搜索引擎抓取顺序跟人的阅读习惯1样,从左往右,从上至下。且每一个页面都要做好面包屑导航,必须每一个页面都能返回到首页,以提高用户体验。

2、站代码的规范化检测

站HTML代码的规范对以后站的改版,代码的保护及站打开的速度有诸多好处,从优化角度来讲可以提升站在搜索引擎上的排名。站中不要有多余积累的代码,出错的代码,像js这类代码能省则省,能合并为1个文件的尽可能合并为1个文件,html代码中要注意h1,h2,h3标签,切不可乱用,H1标签每一个页面只能用1次,站的主题用H1标签表明便可,图片须加上ALT标签,让阅读器能辨认图片具休是什么,页面中要少用FLASH,能不用则不用,由于FLASH的内容搜索引擎是没法辨认的。另外一个问就要说到URL路径了,页文件路径的路径尽可能与当前页所表述的内容相近,url不要过于太长,url路径不要超过3层,由于URL太长层数太多就不利于搜索引擎蜘蛛爬行了,在URL中且尽量少使用特殊符号,否则会把蜘蛛堕入死循环中,同时用户也难也记忆当前URL;

3、站内容的填充

站建成后不可缺少的是内容,之前百度在搜索指南上提出内容不可复制其它站的,更不可搜集,百度对已存在的内容、如上转载、抄袭及复制内容不感兴趣,要遵照内容原创才是王道。在业内有句俗话,内容为王,外链为皇,说明内容要具有可读性,1篇好文章是以用户浏览为目的,作为搜索引擎而言,对这类文章是非常喜欢,其缘由是搜索引擎必须要保证自己所索引内容要有新鲜度,展现给用户是用户需要的,其实不是络上也经存在并且很多站均转载过的,那样就失去了搜索引擎建立索引的意义,所以给予原创内容的排名权重极高,同时对空容的写作要注意必须是当前页标题所探讨的相干问题,切不可挂羊头卖狗肉,更不可由于优化而乱砌关键词,内容创作时关键词必须要公道地穿插于内容中,不要太过僵硬,同时要注意内链的公道搭配方能如意于搜索引区喜好,搜索引擎喜欢了排名自但是更靠前了。

站长们撑握新站在推行前的准备工作,何愁搜索引擎不喜欢,用户体验不佳呢!

转载请注明原文出处:

2 : 浅析站被搜索引擎降权后的表现及处理方案

站被降权的后主要表现:

1、 Site:域名,首页不在第1位;

2、 Domain:域名,首页不在第1位;

3、 关键词排名大幅度下降,乃至没有排名。

4、 首页快照不更新,或快照回档。

站降权缘由分析及处理方案:

1. 关键词堆砌,过分的优化,严重影响了用户体验,表现在:标题、keywords、description等标签堆砌关键词,文章内容强迫嵌入过量的关键词,文章无实质内容,站关键词密度过大等。

处理方案:

(1) 标签优化:关键词不要重复,关键词不能过量,首页1般4个关键词已足够。

(2) 文章内容:以用户为中心,提供文章的可读性,给用户真正需要的信息。

(3) 关键词密度:文章中自然穿插关键词,密度控制在2% 6% 之间。

2. 外链突然增加,同时,突然增加的外链基本上都是垃圾外链,我有1个站在前1周用了软件发外链,导致外链突然增加很多,并且都是垃圾外链,现在百度搜:domain: www.***.com 首页已不在了,同时,关键词排名1落千丈,这些就是明显的站被降权。

处理方案:

不要使用软件发链接,这是血的教训,不要偷懒,手工发外链,保证外链的质量和稳定的数量。

3. 内容过量的搜集或抄袭,如今抄袭已到了疯狂的地步,络上原创愈来愈少了,在这个方面,我个人觉得宁可每天原创1篇,也不要每天抄袭100篇,过量的抄袭,站总有1天会被降权的,很多人觉得百度喜欢论坛,是的,我想,论坛的文章很多都是原创也是百度喜欢论坛的缘由之1吧。

处理方案:

从今天开始,原创吧,你的站需要原创,互联需要原创,用户需要原创!

站被降权有也有很多其他缘由:服务器不稳定,站内容与站主题不相干,站大范围改版,站出现背法现象等等,处理方案大多是:原创更新;增加高质量外链;以用户为中心去优化站标签、站内容;正规手段发外链等等,我想方法也许大家都知道1些,但真正去做的很少,SEO贵在:正规、坚持 4个字,简单的事情重复做!愿大家的站都能按正规方法,坚持去做,不断提高。

3 : 站优化中怎样尽可能减少无效URL的爬行和索引

简单说,帖子指出1个严重而且现实的SEO问题:很多站,特别是B2C,产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从SEO角度看的,这些URL其实不能产生SEO作用,反倒有负面作用,所以这些URL不收录为好,缘由包括:

大量过滤条件页面内容重复或极其类似(大量复制内容将使站整体质量降落)

大量过滤条件页面没有对应产品,页面无内容(如选择100元以下42寸LED电视之类的)

绝大部分过滤条件页面没有排名能力(排名能力比分类页面低很多)却浪费1定权重

这些过滤条件页面也不是产品页面收录的必要通道(产品页面应当有其它内链帮助爬行和收录)

爬行大量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会降落(过滤条件页面组合起来是巨量的)

简单说,帖子指出1个严重而且现实的SEO问题:很多站,特别是B2C,产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从SEO角度看的,这些URL其实不能产生SEO作用,反倒有负面作用,所以这些URL不收录为好,缘由包括:

大量过滤条件页面内容重复或极为类似(大量复制内容将使站整体质量降落)

大量过滤条件页面没有对应产品,页面无内容(如选择100元以下42寸LED电视之类的)

绝大部份过滤条件页面没有排名能力(排名能力比分类页面低很多)却浪费1定权重

这些过滤条件页面也不是产品页面收录的必要通道(产品页面应当有其它内链帮助爬行和收录)

爬行大量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会降落(过滤条件页面组合起来是巨量的)

那么怎样尽可能使这些URL不被爬行和索引、收录呢?不过惋惜,我目前想不出完善的解决方法。提出两个方法,我觉得都没法完善解决。

第1个方法,是将不想收录的URL保持为动态URL,乃至故意越动态越好,以禁止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题。虽然参数多到1定程度确切不利于收录,但4、5个参数通常还可以收录。我们没法确认需要多少参数才能制止收录,所以不能当作1个可靠的方法。而且这些URL接收内链,又没有甚么排名能力,还是会浪费1定权重。

第2个方法,robots制止收录。一样,URL接收了内链也就接收了权重,robots文件制止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有甚么导出链接),页面成为权重只进不出的黑洞。

连向这些URL的链接配合nofollow也不完善,和robots制止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重一样浪费了。百度据称支持nofollow,但权重怎样处理未知。

将这些URL链接放在Flash、JS里也没有用,搜索引擎已可以爬行Flash、JS里的链接,而且估计以后愈来愈善于爬。很多SEO疏忽了的1点是,JS中的链接不但能被爬,也能传递权重,和正常连接1样。

也能够将过滤条件链接做成AJAX情势,用户点击后不会访问1个新的URL,还是在原来URL上,URL后面加了#,不会被当作不同URL。和JS问题1样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。

还1个方法是在页面head部份加noindex+follow标签,意即本页面不要索引,但跟踪页面上的链接。这样可以解决复制内容问题,也解决了权重黑洞问题(权重是可以随着导出链接传到其它页面的),不能解决的是浪费蜘蛛爬行时间问题,这些页面还是要被蜘蛛爬行抓取的(然后才能看到页面html里的noindex+follow标签),对某些站来说,过滤页面数量巨大,爬行了这些页面,蜘蛛就没足够时间爬有用页面了。

再1个可以推敲的方法是隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这是1个比较理想的解决方法,唯1的问题是,可能被当作做弊。搜索引擎常跟SEO讲的判断是不是做弊的原则是:如果没有搜索引擎,你会不会这么做?或说,某种方法是否是只是为了搜索引擎而采取?明显,用cloaking隐藏不想被爬行的URL是为搜索引擎做的,不是为用户做的。虽然这类情况下的cloaking目的是美好的,没有歹意的,但风险是存在的,胆大的可试用。

还1个方法是使用canonical标签,问题是百度是否是支持未知,而且canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵照,等于没用。另外,canonical标签的本意是指定规范化址,过滤条件页面是不是适用有些存疑,毕竟,这些页面上的内容常常是不同的。

目前比较好的方法之1是iframe+robots制止。将过滤部分代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots制止爬行。iframe中的内容还是会有1些权重流失,但由于iframe里的链接不是从当前页面分流权重,而只是从调用的那个文件分流,所以权重流失是比较少的。除排版、阅读器兼容性之类的头疼问题,iframe方法的1个潜伏问题是被认为做弊的风险。现在搜索引擎1般不认为iframe是做弊,很多广告就是放在iframe中,但隐藏1堆链接和隐藏广告有些奥妙的辨别。回到搜索引擎判断做弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google以后可能改变处理iframe的方式,他们还是希望在同1个页面上看到普通用户能看到的所有内容。

总之,对这个现实、严重的问题,我目前没有自己觉得完善的答案。固然,不能完善解决不是就不能活了,不同站SEO重点不同,具体问题具体分析,采取上述方法中的1种或几种应当可以解决主要问题。

而的问题还不是上述这些,而是有时候你想让这些过滤页面被爬行和收录,这才是杯具的开始。以后再讨论。

1是将不想收录的URL保持为动态URL,乃至故意越动态越好,以制止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上愈来愈不是问题。虽然参数多到1定程度确切不利于收录,但4、5个参数通常还可以收录。我们没法确认需要多少参数才能制止收录,所以不能当作1个可靠的方法。而且这些URL接收内链,又没有甚么排名能力,还是会浪费1定权重。

第2个方法,robots制止收录。一样,URL接收了内链也就接收了权重,robots文件制止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有什么导出链接),页面成为权重只进不出的黑洞。

连向这些URL的链接配合nofollow也不完善,和robots制止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重一样浪费了。百度据称支持nofollow,但权重怎样处理未知。

将这些URL链接放在Flash、JS里也没有用,搜索引擎已可以爬行Flash、JS里的链接,而且估计以后愈来愈善于爬。很多SEO忽视了的1点是,JS中的链接不但能被爬,也能传递权重,和正常连接1样。

也能够将过滤条件链接做成AJAX情势,用户点击后不会访问1个新的URL,还是在原来URL上,URL后面加了#,不会被当作不同URL。和JS问题1样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。

还1个方法是在页面head部份加noindex+follow标签,意即本页面不要索引,但跟踪页面上的链接。这样可以解决复制内容问题,也解决了权重黑洞问题(权重是可以随着导出链接传到其它页面的),不能解决的是浪费蜘蛛爬行时间问题,这些页面还是要被蜘蛛爬行抓取的(然后才能看到页面html里的noindex+follow标签),对某些站来讲,过滤页面数量巨大,爬行了这些页面,蜘蛛就没足够时间爬有用页面了。

再1个可以推敲的方法是隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这是1个比较理想的解决方法,唯1的问题是,可能被当作做弊。搜索引擎常跟SEO讲的判断是否是做弊的原则是:如果没有搜索引擎,你会不会这么做?或说,某种方法是否是只是为了搜索引擎而采取?明显,用cloaking隐藏不想被爬行的URL是为搜索引擎做的,不是为用户做的。虽然这类情况下的cloaking目的是美好的,没有歹意的,但风险是存在的,胆大的可试用。

还1个方法是使用canonical标签,问题是百度是否是支持未知,而且canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵照,等于没用。另外,canonical标签的本意是指定规范化址,过滤条件页面是不是适用有些存疑,毕竟,这些页面上的内容常常是不同的。

目前比较好的方法之1是iframe+robots制止。将过滤部份代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部份内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots制止爬行。iframe中的内容还是会有1些权重流失,但由于iframe里的链接不是从当前页面分流权重,而只是从调用的那个文件分流,所以权重流失是比较少的。除排版、阅读器兼容性之类的头疼问题,iframe方法的1个潜伏问题是被认为做弊的风险。现在搜索引擎1般不认为iframe是做弊,很多广告就是放在iframe中,但隐藏1堆链接和隐藏广告有些奥妙的区分。回到搜索引擎判断做弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google以后可能改变处理iframe的方式,他们还是希望在同1个页面上看到普通用户能看到的所有内容。

总之,对这个现实、严重的问题,我目前没有自己觉得完善的答案。固然,不能完善解决不是就不能活了,不同站SEO重点不同,具体问题具体分析,采取上述方法中的1种或几种应当可以解决主要问题。

而的问题还不是上述这些,而是有时候你想让这些过滤页面被爬行和收录,这才是杯具的开始。以后再讨论。

4 : 站优化 搜索引擎收录页的4个阶段

作为SEO从业者,不但要被搜索引擎抓取,还要被收录,重要的是在收录后有良好的排名,本文将简单分析下搜索引擎收录页的4个阶段。每个站、每一个页的排名都是不1样的,看看你的站处于哪个阶段呢?

页收录第1阶段:大小通吃

搜索引擎的页抓取都是采取「大小通吃」的策略,也就是把页中能发现的链接逐1加入到待抓取URL中,机械性的将新抓取的页中的URL提取出来,这类方式虽然比较古老,但效果很好,这就是为什么很多站长反应蜘蛛来访问了,但没有收录的缘由,这仅仅是第1阶段。

页收录第2阶段:页评级

而第2阶段则是对页的重要性进行评级,PageRank是1种的链接分析算法,可以用来衡量页的重要性,很自然的,站长可以用PageRank的思路来对URL进行排序,这就是各位热中的「发外链」,据1位朋友了解,在中国「发外链」这个市场每一年有上亿元的范围。

爬虫的目的就是去下载页,但PageRank是个全局性算法,也就是当所有页有下载完成后,其计算结果才是可靠的。对中小站来说,服务器如果质量不好,如果在抓取进程中,只看到部份内容,在抓取阶段是没法取得可靠的PageRank得分。

页收录第3阶段:OCIP策略

OCIP策略更像是PageRank算法的改进。在算法开始之前,每一个页都给予相同的「现金」,每当下载某个页面A后,A将自己的「现金」平均分给页面中包括的链接页面,把自己的「现金」清空。这就是为何导出的链接越少,权重会越高的缘由之1。

而对待抓取的页,会根据手头具有的现金多少排序,优先下载现金充裕的页,OCIP大致与PageRank思路1致,区分在于:PageRank每次要迭代计算,而OCIP则不需要,所以计算速度远远快于PageRank,合适实时计算使用。这可能就是为什么很多页会出现「秒收」的情况了。

页收录第4阶段:大站优先策略

大站优先的思路很直接,以站为单位来衡量页的重要性,对待抓取的URL队列中的页,根据所述站归类,如果哪一个站等待下载的页面多,则优先下载这些链接。其本质思想是「偏向于优先下载大型站URL」。由于大型站常常包括更多的页面。鉴于大型站常常是名站,其页质量1般较高,所以这个思路虽然简单,但有1定根据。

实验表明这个算法虽然简单粗鲁,但却能收录高质量页,很有效果。这也是为何许多站的内容被转载后,大站却能排到你前面的重要缘由之1。

治疗盆腔炎吃什么药
治盆腔炎用什么方法
治疗盆腔炎方法
本文标签: