审计现有网站,如何用黑帽SEO快速排名及怎么做黑帽SEO最快?
审计现有网站是黑帽SEO专家面临的最重要任务之一。黑帽SEO仍然是相对新颖的领域,搜索引擎爬行器的许多局限性也不直观。此外,令人遗憾的是,许多Web开发人员并不精通黑帽SEO。更糟糕的是,有些开发人员甚至一味拒绝学习,或者学到的是对黑帽SEO不利的知识。因为CMS平台的开发者也有这样的问题,所以进行网站审计可能发现许多的问题。
1.审计的要素
正如第6章将要讨论的,网站需要为其余黑帽SEO工作打下坚实的基础,才能获得成功。黑帽SEO网站审计通常是实施黑帽SEO战略的第一步。
下面几节指出了在进行网站审计时需要寻求的要点。
黑帽SEO快速排名可用性
尽管可用性不是直接的黑帽SEO问题,但它却是很好的起点。可用性影响许多因素,包括转化率和人们链接到某个网站的倾向性。
可访问性/可爬行性
使网站对搜索蜘蛛友好。
搜索引擎健康检查
下面是一些简单的健康检查:
·在搜索引擎中搜索site:heimao黑帽SEO.net检查有多少个页面出现在索引中。将此数字与你所认为在网站上独特页面的数量相比。
·试着搜索你的品牌名称,确定你在这些搜索词上的排名(如果找不到,你很可能正在受到惩罚)。
·检查Google缓存,确定页面缓存版本和页面实际版本相同。
·检查确定主流搜索引擎“工具”已经验证了该域(Google和必应目前提供的网站所有者验证,“窥探”搜索引擎对网站的看法)。
关键词健康检查
关键词的定位是否正确?网站架构的逻辑流程是否和用户搜索相关关键词的方法一致?是否有多个页面针对相同的关键词(也就是关键词自我竞争)?
重复内容检查
你首先要做的是确保非WWW版本的网页(也就是,https://heimaoseo.net)301重定向到网页的www版本(也就是,https://www.heimaoseo.net),反之亦然(这常常称作规范化重定向(canonicalredirect))。同时确保没有复制http:页面的https:页面。你还应该检查网站的其余内容。
进行上述工作的最简单方式是从网站的每个主要内容页面上选取独特的字符串,在Google中搜索它们。一定要将这个字符串放在双引号内(例如,“从网站上选择的一个短语,用来检查重复的内容”),这样Google将搜索完整的字符串。
如果网站非常大,上述任务就难以承受,确保检查最重要的网页,并且在网站新内容投入使用之前进行审核。
还可以使用inurl:和intitle:检查重复的内容。例如,如果页面的URL包含与众不同的组成部分(例如,”1968-mustang-blue”或者“1097495”),可以用inurl:命令搜索这些字符,看是否返回多个页面。
另一项重复内容检查工作是确保每部分内容仅能用一个URL访问。这在较大的商业网站上可能是最常出现的问题。由于同样的内容可以用多个URL,以多种方式访问,迫使搜索引擎(和访问者)必须选择哪一个才是规范化的版本、链接到哪一个版本和应该忽视哪些版本。当网站自相残杀的时候是没有赢家的——还是和平共处,如果你必须以不同方式交付内容,可以依赖cookie,这样才不会使蜘蛛感到困惑。
URL检查
确保URL清晰、简短并具有描述性。描述性意味着富含关键词而又不是简单地堆积。你不应该在URL上附加参数(如果必须带参数,保持最少的数量),应该使用用户(和蜘蛛)容易理解的URL。
标题标记审核
确保每个页面的标题标记是独特且具有描述性的。如果你打算在标题中包含公司品牌名称,考虑将它放在标题标记的最后而不是开始,因为在URL的前面放置关键词有利于排名。还要确保标题标记少于70个字符。
内容审核
网站的主页是否有足够的内容?这些页面是否使用了标题标记?这项工作也可以做些细微的调整:确保内容很少的页面在网站所有页面数中的比例不高。
元标记审核
检查网站页面上的robots元标记。如果找到这个标记,你可能已经找到问题所在。无意中放置的NoIndex或者NoFollow标记可能打乱你的搜索排名计划。
还要确保每个页面都有独特的元描述。如果因为某种原因不可能做到,可以考虑完全删除元描述。尽管元描述标记通常不是排名的重要因素,但是它们可能用于重复内容的计算,搜索引擎频繁地将它们作为SERP中你的网页的描述;因此,它们会影响点击率。
网站地图文件和robots.txt文件验证
使用Google网站管理员工具的“测试robots.txt”验证工具检查robots.txt文件。
还要验证网站地图文件指出了所有(规范的)页面。
重定向检查
使用LiveHTTPHeaders等服务器标头检查程序检查网站上使用的所有重定向都返回301HTTP状态码。这样检查所有重定向可以确保一切正常,这包含对正确实施规范化重定向的检查。
遗憾的是,考虑到首选301重定向的原因不直观,即使你已经预先给Web开发人员发出了明确的指示,也应该验证这项工作已经完成。错误在所难免,有时候CMS或者宿主公司会让301的使用变得很困难。
内部链接检查
搜索具有过多链接的网页。尽管在较重要和被很多网站链接的页面上增加链接也没有问题,但是Google建议每个页面最多100个链接。
确保网站在内部链接上很好地使用了锚文本。这是通知用户和搜索引擎网站页面相关内容的免费机会。但是不要滥用锚文本。例如,如果你在全局导航中有一个指向首页的链接(应该都有),可以将它命名为“首页”而不是采用含有最多信息量的关键词。在这种场合使用关键词的特殊做法会被搜索引擎看做垃圾,也不会带来良好的用户体验。而且,指向首页的内部链接锚文本对排名也没有任何作用。在所有检查中都要使用可用性过滤器!
注意
这里对PageRank的保留做个简短的说明:许多人把这种方法推向极致,构建的网站拒绝链接到其他高质量网站,因为他们害怕失去访问者和链接权重。不要理会这种想法!你应该链接到高质量的网站,这对用户有好处,而且可能给你带来排名上的好处(通过以你链接的网站为基础建立信任和相关性)。你要做的就是考虑你的用户,交付他们想要的内容,这会给你带来异乎寻常的好处。
避免不必要的子域
引擎可能不会把对域的全部信任和链接权重应用到子域上。这主要是因为子域可能在不同群体的控制之下,因此在搜索引擎的眼中需要单独评估。在大部分情况下,子域的内容可能简单地放在一个子文件夹中。
地理位置
如果域针对某个特定的国家,确保遵循6.12节概述的国家地理定位指南。如果你在芝加哥拥有一家比萨店,因而主要关注“芝加哥比萨”的排名,就要确保在网站的每个页面上都有你的地址。你还应该在Google本地中检查搜索结果,看看是否有问题。此外,你可以在GooglePlaces(Google地方信息)上注册。
外部链接
检查网站的入站链接。使用OpenSiteExplorer或Majestic黑帽SEO(等反向链接工具收集链接的有关数据。查找锚文本中不好的模式,例如,87%的链接包含网站的重要关键词。除非这个关键词恰好是公司的名称,否则这样做就是问题的征兆。
另一方面,确保网站的重要关键词出现合理的次数。在入站锚文本中缺乏关键词也不是好现象。你需要找到一个平衡点。
还要查看指向除了首页之外的其他页面的链接。这些链接通常称作深链接(deeplink),有助于驱动网站关键部分的排名。你应该查看这些链接本身。访问链接页面,查看这些链接是否是付费的。它们可能明确地标记为赞助商链接,它们的位置也可能明显地指出它们不是自然的推荐。过多的这类链接也是明确的问题征兆。
最后,检查网站的链接情况,与主要竞争对手的链接情况作比较。确保网站有足够的外部链接,同时这些链接有足够高的质量。
页面加载时间
页面加载时间是否过长?太长的加载时间可能减慢爬行和索引的速度。但是,只有在时间确实太长——超过5秒或者更长时,这才会成为一个考虑因素。
图片alt标记
所有图片是否都有相关的、含有丰富关键词的图片alt属性文本和文件名?搜索引擎无法轻易分辨图片的内容,为它们提供某些线索的最佳途径是alt属性和图片的文件名。这些文本也能重申页面本身的总体语境。
代码质量
尽管W3C验证不是搜索引擎要求的,检查代码本身仍是一个好主意。质量低劣的编码可能有不好的影响。可以使用黑帽SEOBrowser等工具查看搜索引擎对页面的看法。
2黑帽SEO快速排名关键词审核的重要性
架构审计的另一个重要组成部分是关键词审核。这一工作基本包含如下步骤。
第1步:关键词研究
在任何黑帽SEO过程中,尽早完成这一步都很关键。因为关键词驱动与网页相关的黑帽SEO工作,所以你应该知道以什么为目标。你可以阅读第5章中的详细内容。
第2步:网站架构
跟踪网站架构可能非常困难。在这一阶段,你需要注意关键词研究和现有网站(尽可能少做改动)。你可以从网站地图的角度去思考。
你需要一个层次结构,将访问者带到你的赚钱页面(moneypage,也就是,最可能发生转化的页面)。显然,好的网站层次结构能够使赚钱页面的上级页面获得相关关键词(可能是短尾词)上的高排名。
大部分产品都明显地适合某种层次结构,但是任何自然具备多个层次结构的产品都可能极其难以处理。在我们看来,最难以处理的层次结构是涉及位置的结构。仅在伦敦,就有大伦敦行政区、大都会行政区、地铁站和邮政编码。伦敦内部甚至还有一个城中城(“伦敦城”)。
在理想的世界中,你最终会拥有一个对用户来说很自然的层次结构,并且映射到最接近的关键词上。不管什么时候,人们对同一产品都有多种搜索方式,因此建立层次结构是很有挑战性的。
第3步:黑帽SEO快速排名关键词映射
拥有关键词列表和对总体架构的了解之后,就可以开始将主要的相关关键词映射到URL(而不是反过来)。在进行这一工作时,你很容易找出与某个关键词无关的网页(你可以省略这些网页的创建),更重要的是找到那些没有相关页面的关键词。
值得指出的是,在第2步和第3步之间,你将删除所有浪费的页面。
如果这个阶段发生问题,回到第2步。你的网站架构应该自然地将你引导到容易使用并且包含关键词的映射上。
第4步:黑帽SEO快速排名网站审核
一旦掌握了关键词映射,网站审核的其余部分就简单多了。现在,当你查看标题标记和正文标题时,你可以参考关键词映射,不仅查看正文标题是否在一个<h1>标记中,还要查看它是否包含了正确的关键词。
3.关键词自我竞争
关键词自我竞争是指多个页面上使用一个词或者短语,这通常是在网站信息架构时提出的要求出现。这往往出于无意,但是可能造成几个甚至几十个页面的标题和正文标题标记中出现相同的目标关键词。
搜索引擎将爬行网站上的页面,并且看到4个(或者40个)不同的页面似乎都与某个特定关键词相关(在图4-5的例子中,关键词是“滑雪板”)。为了清晰起见,Google不会将这样的现象解读为你的网站与滑雪板相关度更高,或者应该比竞争对手排名更高。相反,这会迫使Google在页面的许多版本中选择一个感觉最适合该查询的页面。这样,你会失去许多可能提高排名的特性,这些特性如下所示:
内部锚文本
因为将许多不同的页面指向同一个主题,就无法将内部锚文本的价值集中在一个目标上。
外部链接
如果4个网站链接到关于滑雪板的页面,3个网站链接到另一个滑雪板页面,6个网站链接到第三个滑雪板页面,外部链接价值就分散到三个页面上,而不是集中到某个页面。
内容质量
编写3个或者4个关于相同主题的页面之后,内容的价值将受到很大的影响。应该尽可能地用单一页面来吸引链接和引用,而不是生成十几个平淡的重复页面。
转化率
如果一个页面的转化率好于其他页面,让多个低转化率版本去吸引相同的流量就是一种浪费。如果你希望进行转化率的跟踪,可以使用多重交付测试系统(A/B或者多变量测试)。
那么,这个问题如何解决呢?
这个例子的不同之处在于每个页面不是针对单一的搜索词“滑雪板”,而是关注于独特而有价值的变种,并且都链接回这个搜索词的原始规范化来源。Google现在能够轻松地识别这些查询中相关度最高的页面。这不仅对搜索引擎有价值;还代表着更好的用户体验和整体信息架构。
如果你已经碰到关键字自我竞争的情况,该怎么办?大量使用301,消除相互竞争的页面,或者找到区分它们的方法。从识别架构中具有这个问题的页面开始,确定让它们指向的最佳页面,然后从每个问题页面使用301,重定向到你希望保留的页面。这不仅确保访问者到达正确的页面,而且随着时间推移建立起来的链接价值和相关度,将把搜索引擎导向相关度最高并且最可能获得高排名的页面。
4.案例:修复内部链接问题
企业级网站的规模在1万~1000万个页面之间。对于许多这类网站来说,内部链接权重分布不准确是一个严重的问题。
想象一下,每个小页面代表了企业级网站中的5000~10万个页面。有些区域(如博客、文章、工具、热门新闻报道)等可能接受过多的内部链接份额。其他区域(通常是以业务为中心和销售为中心的内容)可能没有得到重视,如何解决这个问题呢?
解决方案很简单(至少从原理上看是如此):将获得过多链接的页面上的资源分布到缺乏链接的页面上。这一点似乎很简单,但是执行起来却十分复杂。在具有几十万甚至上百万个页面的网站架构中,识别具有丰富链接和缺乏链接的页面几乎不可能,更不要说添加代码来更公平地分布链接权重了。
遗憾的是,从编程的角度看,答案是劳动密集型的。企业级网站所有者必须开发跟踪入站链接和排名的系统,并建立具有丰富链接的页面和缺乏链接的页面之间的桥梁(或者,为了和图4-8保持一致,称为喷壶),传递链接权重。
替代方法之一是简单地构建非常扁平的网站架构,该网站架构依赖相关性和语义分析。这种策略与搜索引擎的指导方针相符(但是并不完美),也确实不需要太多的工作量。
有趣的是,在过去两三年,域名权威性所得到的权重有了很大的增加,似乎是搜索引擎拒绝拙劣的内部链接结构(为PageRank流程设计网站并不总能很好地服务于用户),奖励具有高权威性、信任度和高质量入站链接的一项尝试。
5.服务器和主机问题
幸好,只有少数的服务器或者Web主机问题会影响搜索引擎优化。但是,如果忽视它们,就可能造成严重的问题,所以这个问题仍然值得研究。下面是可能对搜索引擎排名造成负面影响的问题。
服务器超时
如果搜索引擎发出一个页面请求,在一定时限内没有得到页面(即服务器超时响应),页面可能完全不能进入索引,也就肯定会得到非常低的排名(因为没有发现可以索引的文本内容)。
响应缓慢
虽然没有服务器超时的破坏性大,这仍然是一个潜在问题。不仅爬行器等待页面加载的可能性会降低,而且访问者和潜在的链接者也可能因为在访问网站时遇到问题而访问并链接到其他资源。
共享IP地址
基本的关注点包括速度、共享IP地址上存在垃圾制造者或者不被信任的邻居的可能性,在获得对该IP地址的链接带来的全部好处的同时,也要考虑潜在的问题。
被封锁的IP地址
在搜索引擎爬行Web时,它们常常发现整个IP地址段都充满了网络垃圾。有时搜索引擎不会阻止每个单独的网站,而是进一步采取措施封锁IP地址或者一个IP段。如果你对此感到担心,可以在必应上用ip:address搜索你的IP地址。
机器人检测和处理
有些系统管理员过分地采取保护措施,限制单个访问者在指定时间范围内对文件的访问次数。这对于搜索引擎流量来说是灾难性的,因为这将限制了蜘蛛的爬行能力。
带宽和传输限制
许多服务器限制通过网站的总流量。当网站上的内容变得非常流行时,主机将禁止访问,这可能是灾难性的。不仅潜在的链接者无法看到你的作品,而且搜索引擎也无法爬行。
服务器地理位置
这不一定会成为问题,但是最好要有所了解,搜索引擎在确定网站内容与本地搜索结果的相关度时使用Web服务器的位置。因为本地搜索是许多网站推广活动的重要组成部分,估计有40%的查询有某些本地搜索的意图,所以将内容托管在相关度最高的国家(不一定需要进一步细分)是非常明智的。
原创作品来自烟雨唯一联系QQ 81047380,QID:yanyuseo 微信号:yanyuseo 未经允许,不得转载。:烟雨黑帽SEO » 黑帽SEO案例详解:如何用黑帽SEO快速排名及怎么做黑帽SEO最快?