此外,若两个站点均为相同IP地址下的宿主,则认为其中一个是另外一个站点的成员站点网站推广
(即:若和均为相同IP地址下的宿主,则认为是...的成员站点)H算法的一个极其重要的特征在于:若没有找到搜索引擎认为数量足够的“专家文件”(要求至少需有两票),则该算法失效,即返回结果为零

换言之,对于高度明确化的查询条件(查询词语),H算法的结果很可能为“”
这是该算法的一个独特特性
如此一来,造成了SEO一族中的大部分人都深信G的确在用“商业词”过滤名单来过滤掉商业网站
事实上,在H算法无法奏效时,将显示“旧”G的搜索结果
这些查询条件的集合就是SEO一族所收集并称之为的“商业词名单”
这一效果无意中却提供了一个强有力的证据,表明G确是采用了H算法
年月号,G基于新算法的更新之后,某分析家就指出:在进行查询时,若对某一查询条件加上一些“不包含”的无意义字符,如“–”,则G将会显示以往(算法变化前)的搜索结果,而绕过所谓的“商业词”过滤名单
例如,若查找“–”,则G将试图返回所有关于“”,同时内容中又不包含“”的页面
又由于包含“”这种字眼的网页几乎没有,所以按道理来讲,G返回的查询结果应该和“”的查询结果是相同的
然而结果却出人意料:G所显示的查询结果和采用新算法之前的搜索结果的排名是相同的
事实上,S.这个网站就是捕捉G的搜索结果在排名上的不同,并以此得出一个所谓的“商业词”过滤名单
在所谓的“商业词”背后到底是什么
我们相信,“商业词”过滤式效果只是H算法的一个衍生症状
每当用户进行类似“–”的查询时,G都会对整个查询词语进行H运算,当无法找到足够的包含这种查询词语的“专家文件”时,该算法将返回一个零值(即零效果)
这就意味着我们通过这种多少有些滑稽的特殊排除词语绕过了H算法,这时候G的其它算法就该出头发挥作用了,而它们所提供的查询结果明显地和算法更新前的查询结果是一样的!后来S.的声名鹊起让G发现了这个
后来G为了防止此类漏洞,索性把查询分成两步走,先把排除条件词语放一边,将查询条件送至H进行运算,如此一来,由于H不再同时对排除条件进行解析,所以可保证其正常发挥效用,并提供相应的搜索结果,然后再将此结果传递给G算法,G根据最初查询中的排除条件从H提供的结果中将符合排除条件的网页剔除,然后再将结果显示给用户
这也就是为什么我们现在用上面的法子再也无法看到“旧G”的搜索结果的原因了
G新算法意义何在H算法与G的页面等级算法及页面相关性算法的结合看起来是超佳组合,几乎无懈可击
其联姻对于链接流行度C()…PR()对数函数
经过分析,我们认为它有一个趋近于的基数
即PR为的网页的值比PR为要多倍之多(PR=PRX),同样,一个PR值为的网站比一个PR值为的网站的值要高出多倍(PR=PRXXXX)
G新算法的优势优点页面因子极易被人利用和控制,例如最早被用作排名因子的METATAGS,就由于很多网站无度的关键词充斥泛滥而不得不被搜索引擎喊停
此外,在开始的时候,由于顾忌到真实来访者的感受,对网站内容一般作手脚的并不多,但后来亦难免诱惑,过度优化,甚至页面上放上许多“隐形”的内容已是屡见不鲜的伎俩
页面因子确实无形中赋予网站管理员太多“恶意”控制权
而在G的新算法中,各排名因素所占比重分别如下:总“排名”得分由三部分组成:相关性得分(页面因素),页面等级得分(非页面因素)和行业得分(非页面因素):相关性得分(RS)=%,页面等级值(PR)=%,行业得分(LS)=%其中:RS(相关性得分:页面相关度)--是所有SEO努力的转换结果;PR(页面等级得分:外部链接度)--是所有建立链接的努力的转换结果;LS(行业得分:专家文件链接度)--是得自专家文件的链接的转换结果;从上述结果不难看出,页面优化的得分只占到%,G显然已将重心转至非页面因子上,而把排名控制权越来越多地从网站管理员手中夺回来
假若一个水平一般般的优化专家可以拿到RS中的分,而一个水平很高的优化专家最高也不过能拿到,分,大家可以看到:这两个水平悬殊的优化专家之间的差别仅仅只有分而已!H算法是否以实时方式运行G所拥有的服务器体系架构就是网络上分布的一万台奔腾级服务器
而一旦了解了H算法后,我们很难相信这样的奔腾服务器能够具备如此的处理能力:试想一下,首先要从成千上万的主题性文件中找到“专家文件”,然后计算目标网页自这些专家文件的链接的得分,然后再将数值返回G算法的其它排名系统,并做进一步处理—而所有这些要在大约.秒内--这个让G举世闻名的搜索速度内完成
确实使人难以置信