石家庄网站建设 > 博客教程 > 网络营销知识 >

石家庄企业站网站建设哪里好

发布时间:2020-10-19

本指南使用Screaming Frog,URL Profiler,Google Analytics(GA)和Excel中的示例和屏幕截图提供了有关如何进行内容审核的说明,这些示例和截图似乎是执行内容审核的最广泛使用和最通用的工具。
{展开更多背景}
 
目录
 
什么是SEO内容审核?
内容审核的目的是什么?
“修剪”的方式和方式
如何进行内容审核
库存和审核阶段
第1步:抓取所有可索引的网址
爬行的障碍和新技术
爬行非常大的网站
搜寻动态的移动网站
爬行和渲染JavaScript
步骤2:收集其他指标
分析数据时不需要的东西
分析和建议阶段
第3步:将其全部放入仪表板
步骤4:使用内容审核仪表板
报告阶段
步骤5:撰写报告
内容审核资源和进一步阅读
什么是内容审核?
针对SEO的内容审核包括域中所有可索引内容的完整清单,然后使用来自各种来源的性能指标进行分析,以确定哪些内容保持原样,哪些内容要改进以及哪些内容要删除。或巩固。
 
内容审核的目的是什么?
内容审核可以有许多目的和预期的结果。就SEO而言,它们通常用于确定以下内容:
 
如何逃避与内容相关的搜索引擎排名过滤器或惩罚
需要文案/编辑以提高质量的内容
需要更新和更新的内容
由于主题重叠而应合并的内容
应从网站上删除的内容
确定内容编辑或删除优先级的最佳方法
内容差距机会
哪些内容为哪些关键字排名
哪些内容应该为哪些关键字排名
域上最强大的页面以及如何利用它们
未发现的内容营销机会
购买/出售网站或加入新客户时的尽职调查
虽然这些期望的结果和见解中的每一个都是内容审核的宝贵结果,但我将其中一个的总体“目的”定义为:
 
SEO内容审核的目的是提高域的感知信任度和质量,同时优化爬网预算以及整个站点的PageRank(PR)流量和其他排名信号。
通常但并非总是如此,实现这些目标的很大一部分涉及从搜索引擎索引中删除低质量的内容。有人告诉我,我讨厌这个词,但是我更喜欢用“修剪”类比来描述这个概念。
 
“修剪”的方式和方式
 
 
 
 
 
 
 
{展开更多有关修剪的信息}
 
如何进行内容审核
就像SEO中的所有内容一样,从技术和页面更改到网站迁移,如果内容审核未正确执行,事情可能会变得非常糟糕。最常见的示例是删除具有外部链接的URL,因为没有将链接指标作为审核的一部分进行分析。另一个常见的错误是将从搜索引擎索引中删除与从网站中删除相混淆。
 
内容审核始于盘点所有可用于搜索引擎索引的内容。然后针对各种指标分析此内容,并给出三个“操作”确定之一。然后扩展每个动作的“细节”。
 
要做的“动作”和如何做的“细节”(有时是为什么)之间的选项组合的多样性,与策略,地点和策略本身一样多种多样。以下是一些假设的示例:
 
 
现在,您已基本了解如何执行内容审核。可以在下面找到更具体的说明。
 
该过程可以大致分为三个不同的阶段:
 
库存和审计
分析与建议
摘要和报告
库存和审核阶段
从抓取网站开始,对所有内容和相关指标进行清点。
 
内容审核和技术审核之间的区别之一:
 
技术性SEO审核爬网与所有可爬网内容有关(除其他外)。
 
针对SEO的内容审核爬网与所有可索引内容有关。
 
{展开更多有关可检索和可索引内容的信息}
 
但是,所有这些都在迅速变化。作为Google索引中唯一标识符的URL可能已消失。是的,我们仍然会有URL,但并非所有内容都需要URL。到目前为止,“内容”一词和URL几乎可以互换。但是某些URL包含整个应用程序的内容。我们很快必须弄清楚如何在那个世界中进行内容审核,但是只有在Google弄清楚如何在那个世界中组织网络信息之后,我们才需要解决这个问题。从外观上看,我们还有一两年的时间。
 
在此之前,以下过程应能处理大多数情况。
 
第1步:抓取所有可索引的网址
在大多数网站上,一个很好的起点是完整的《尖叫青蛙》爬网。但是,这种方式可能会丢失一些可索引的内容。不建议您将搜寻器作为所有可索引URL的来源。
 
除了搜寻器之外,还从Google Analytics(分析),Google网站管理员工具,XML Sitemaps以及可能的情况下从内部数据库收集URL,例如在电子商务网站上导出所有产品和类别URL。然后可以分别以“列表模式”对它们进行爬网,然后将其添加到URL的主列表中并进行重复数据删除以生成更全面的可索引URL列表。
 
通过GA,XML网站地图和其他非抓取来源找到的某些网址实际上可能无法“建立索引”。这些应排除在外。在这里起作用的一种策略是合并和删除所有URL“列表”的重复数据,然后以列表模式执行爬网。抓取后,删除所有带有robots meta或X-Robots noindex标记的URL,以及所有返回错误代码的URL,以及那些被robots.txt文件阻止的URL,等等。此时,您可以安全地将这些URL添加到包含爬网中可索引URL的文件。再次删除列表中的重复数据。
 
爬行的障碍和新技术
爬行非常大的网站
首先,您不需要对网站上的每个URL进行爬网。关注可索引的内容。这不是技术SEO审核。
 
{展开更多有关爬行大型网站的信息}
 
搜寻动态的移动网站
这是指一种特定的移动设备设置,其中有两个代码库–一个用于移动设备,一个用于台式机– –但只有一个URL。因此,单个URL的内容可能会根据访问该URL的设备类型而显着变化。在这种情况下,您实际上将执行两次单独的内容审核。对于台式机版本,照常进行。以下是抓取移动版本的说明。
 
 
 
 
 
 
 
 
{展开更多有关搜寻动态网站的信息}
 
爬行和渲染JavaScript
SEO在过去几年中越来越多地处理的众多技术问题之一是基于JavaScript框架和库(如React.js,Ember.js和Angular.js)构建的网站的泛滥。
 
 
 
 
 
 
 
 
 
{展开更多有关抓取JavaScript网站的信息}
 
步骤2:收集其他指标
大多数搜寻器会为您提供URL以及各种页面上的指标和数据,例如标题,描述,元标记和字数。除此之外,您还需要了解内部和外部链接,流量,内容唯一性等,以便在内容审核项目的分析部分中提出充分依据的建议。
 
您的过程可能会有所不同,但是我们通常会尝试使用尽可能少的资源来获取所需的一切。URL Profiler是用于此目的的绝佳资源,因为它可与Screaming Frog一起使用,并且可以轻松地与我们需要的所有API集成。
 
完成Screaming Frog扫描(仅对可索引内容进行爬网)后,导出“内部全部”文件,然后将其用作URL Profiler中的种子列表(与通过GSC,GA,和其他地方)。
 
 
这是我的URL Profiler设置用于中小型网站的典型内容审核的内容。另外,在“帐户”下,我已通过API密钥连接到Moz和SEMrush。
 
URL事件探查器完成后,您应该以如下形式结束:
 
 
Screaming Frog和URL Profiler:在这两个工具以及它们所连接的API之间,您可能根本不需要其他任何东西,以便查看域上每个可索引URL的以下指标。
 
从第三方工具获取分析数据的风险
 
在大型,高流量的网站上使用上述方法时,我们已经注意到奇数数据不匹配和采样数据。我们的内部流程涉及直接从Google Analytics(分析)导出这些报告,有时会合并Analytics(分析)Canvas以从GA获取完整的未采样数据。然后,在电子表格中使用VLookups合并数据,其中URL是唯一标识符。
 
每个网址提取的指标:
 
是否索引?
如果搜寻器设置正确,则所有URL都应“可索引”。
未编入索引的URL通常是未爬网或低质量页面的标志。
内容唯一性
Copyscape,Siteliner和现在的URL Profiler都可以提供此数据。
随机搜寻带来的流量
通常90天
在所有指标上保持一致的时间范围。
收入和/或转化
您可以按“总计”或细分进行查看,以仅显示每页自然搜索的收入。
发布日期
如果您可以在获取GA数据之前将其作为自定义维度添加到Google Analytics(分析)中,它将有助于您发现陈旧的内容。
内部连结
内容审核通过确保最重要的页面具有最多的内部链接,提供了强化内部链接策略的绝佳机会。
外部链接
这些可以来自Moz,SEMRush和其他各种工具,其中大多数工具是本机集成或通过API与URL Profiler集成的。
登陆页面减少了现场停留时间
撒上一粒盐。如果访问者因为内容不错而找到了想要的东西,那不是一个坏指标。一个更好的替代方法是滚动深度,但这可能需要设置滚动跟踪“事件”。
登陆页面导致每次访问的页面数偏低
就像网站停留时间一样,有时访问者会在单个页面上找到所需内容。对于高质量内容,通常是这样。
回应码
通常,只有返回200(OK)响应代码的URL是可索引的。如果您的域就是这种情况,那么您可能不需要在最终数据中使用此指标。
规范标签
通常,只有具有自引用rel =“ canonical”标记的URL才应被视为“可索引”。如果您的域就是这种情况,那么您可能不需要在最终数据中使用此指标。
页面速度和移动友好性
同样,URL Profiler带有Google PageSpeed Insights API集成。
在开始分析数据之前,请务必利用机会清除不需要的任何数据,以极大地改善您的心理健康和机器性能。您可以考虑立即删除以下几项内容(当然,是在复制完整数据集之后)。
 
分析数据时不需要的东西
 
 
 
 
 
 
 
{展开有关删除不必要数据的更多信息}
 
希望到目前为止,您已经在减少文件的整体大小以及将格式和公式更改应用于电子表格所需的时间上做出了重大贡献。现在该开始深入研究数据了。
 
分析和建议阶段
这才是真正的乐趣开始的地方。在大型组织中,到现在为止,由初级SEO来完成所有数据收集的工作很诱人。我发现自己执行爬网非常有用,因为该过程可以提供大量信息。
 
第3步:将其全部放入仪表板
 
即使删除了不必要的数据,性能仍然可能是一个主要问题,尤其是在Google表格中工作时。我更喜欢在Excel中完成所有这些操作,并且只有在为客户准备好后才将其上传到Google表格中。如果Excel运行缓慢,请考虑按目录或其他因素拆分URL,以便使用多个较小的电子表格。
 
创建仪表盘就像在电子表格中添加两列一样容易。新的第一列“操作”应限于三个选项,如下所示。这使得过滤和排序数据更加容易。“详细信息”列可以包含自由格式的文本,以提供更详细的实施说明。
 
 
使用数据验证和下拉选择器限制操作选项。
 
步骤4:使用内容审核仪表板
您现在需要的所有数据都应该摆在您面前。对于每个内容审核,此步骤都不能变成可重复的过程。从这里开始,实际的分步过程将更加开放给您解释和您自己的经验。您可以做其中一些,而不是其他。您可能会有所不同。没关系,只要您正在努力确定对网站上的每个内容做什么(如果有的话)的目标。
 
一个好的开始是寻找与内容相关的任何问题,这些问题可能会导致应用算法过滤器或人工惩罚,从而拖累您的排名。
 
与内容相关的处罚原因
这些通常分为三大类:质量,重复和相关性。每个类别都可以进一步细分为各种问题,下面将对其进行详细介绍。
 
 
 
 
 
 
 
 
{展开以了解有关质量,重复和相关性问题的更多信息}
 
它有助于以各种方式对数据进行排序,以查看发生了什么。如果您在入门时遇到困难,请参考以下几项内容。
 
 
 
 
 
 
 
 
{展开以进一步了解寻找的内容}
 
把斧头带到肿的网站
 
对于大型网站,最好尽可能使用基于斧头的方法,最后以手术刀结束。否则,您将在项目上花费太多时间,从而影响了ROI。
 
 
这不是一个可以逐步记录的过程。但是,出于说明的目的,以下是斧头方法的几个不同示例以及何时考虑使用它们。
 
 
 
 
 
 
 
 
{扩展示例的方法}
 
从上面的许多示例中可以看出,当将相同的“操作”和“详细信息”应用于网站的整个部分时,按“页面类型”进行排序非常方便。
 
 
在对所有指标进行了所有工具设置,数据收集,数据清理和分析之后,最重要的是要采取的行动以及随之而来的详细信息。
 
URL,操作和详细信息:某人将使用这三列来实施您的建议。您的说明要简洁明了,在不查看已收集的所有精彩数据点的情况下,请勿做出决定。
 
这是内容审核电子表格示例,可用作模板或参考。它包括一些额外的选项卡,这些选项卡特定于我们在Inflow进行内容审核的方式。
 
警告!
 
正如Razvan Gavrilas在其2015年关于认知SEO的帖子中所指出的那样,如果不进行上述研究,则可能会从搜索引擎索引中删除有价值的内容。大胆,但做出明智的决定:
 
 
内容审核使SEO可以做出明智的决定,以使哪些内容保持“原样”索引,哪些内容需要改进以及哪些内容要删除。
 
报告阶段
内容审核仪表板正是我们内部需要的:一个电子表格,里面塞满了数据,可以通过许多有用的方式对其进行切片和切块,我们可以随时使用它来获取更多的见解和想法。一些客户也对此表示赞赏,但是大多数客户都将在我们的最终内容审核报告中找到更大的好处,该报告包括对我们建议的高层概述。
 
 
从B列计算动作
计算每个操作的数量以及每个URL的总自然搜索流量和/或收入非常有用。这将帮助您(和客户)确定重要指标,例如标记为要修剪的页面的总自然流量。这也将使最终报告的构建更加容易。
 
 
步骤5:撰写报告
您的分析和建议应与审计仪表板同时提供。它总结了审计的发现,建议和后续步骤,并应从执行摘要开始。
 
这是Inflow内容审核策略之一的执行摘要的真实示例:

网站建设
Website
客户案例
Customer case
关于展为
About ZHANWEI
展为致力于网站建设与网络营销,微信营销,专业领域包括网站建设、网站seo优化推广、移动互联网营销、三网合一网站建设,微信营销小程序开发,与其他网站建设及系统开发公司不同,我们的整合解决方案结合了展为网络建设经验和互联网整合营销的理念,并将策略和执行紧密结合,且不断评估并优化我们的方案,为客户提供一体化全方位的互联网品牌整合方案!

扫码咨询

Copyright © 石家庄展为网络有限公司. 冀ICP备14018173号-6 Copyright 2010-2020版权所有
展为网络
网站建设
客户案例