Semrush 的价值在于提供广泛的工具——该软件包含 40 多种用于 SEO 以及内容、广告、竞争研究、报告和社交媒体管理的工具。

这样,可以通过 Semrush 管理网站在线可见性的所有方面。收集 SEO 见解、研究竞争对手、使用内容工具创建新页面、构建链接、投放广告并在社交媒体上宣传新材料——所有这些都使用 Semrush 工具。

一些报告可以使用 Semrush 搜索栏生成,而其他报告则需要创建一个项目来设置。可以在此页面上查看项目工具列表和有关如何创建项目的说明。

如果是 Semrush 的新手,那么首先要采取的步骤之一就是了解在线可见性——网站在哪里可以找到,竞争对手在哪里,以及目标和需要改进的领域应该是什么。

专SEO(搜索引擎优化)专家喜欢 Semrush 所提供的深度和多功能性。可以使用 Semrush 对网站在 SERP 上最接近的竞争对手进行市场研究和竞争分析。该搜索引擎优化工具包有五个主要的工作流程类别:竞争力研究,关键词研究,链接建设,排名跟踪,并在页面和搜索引擎优化技术。遵循此工具包的流程将帮助涵盖网站 SEO 的所有基础。SEO 工具包中的一些顶级工具和报告包括:

现场审核(项目

Semrush 的Site Audit是一个强大的网站爬虫,可以分析网站的健康状况。它将提供问题列表,可以轻松查看网站的确切问题所在。解决这些问题将有助于提高网站的 SEO。

超过 120 项页面和技术 SEO 检查,从重复内容和断开的链接等表面问题,到对 AMP 的深入分析、HTTPS 实施、hreflang 属性的正确使用、可抓取性和可索引性

灵活的设置 - 域、子域或子文件夹抓取。能够包含/排除特定页面并审核站点的桌面或移动版本

每天或每周按需抓取和计划自动重新抓取流量中获得最多流量。

高速爬虫将在几分钟内处理所有页面,而不是几小时

令人敬畏的用户界面 - 带有海量数据的大图报告。

为什么要使用它?

配置站点审计

要设置站点审核,首先需要为域创建一个 项目。有了新项目后,在项目界面的站点审核块中选择“设置”按钮。

页面的域和限制

将进入设置向导的第一部分,域和限制页面。 从这里,可以选择“开始站点审核”,这将立即使用默认设置对站点进行审核,或者继续根据喜好自定义审核设置。但别担心,可以随时更改设置并重新运行审核,以便在初始设置后抓取站点的更具体区域。

抓取范围

要抓取特定域、子域或子文件夹,可以将其输入到“抓取范围”字段中。如果在此字段中输入域,将可以选择使用复选框来抓取域的所有子域。

Semrush工具包-A.J. WWW

检查页数限制

接下来,选择每次审核要抓取的页面数量。可以使用“自定义”选项输入自定义金额。需要明智地选择此数字,具体取决于订阅级别以及计划重新审核网站的频率。

专业用户每月最多可抓取100,000页, 每次审核最多可抓取20,000

Guru用户每月可抓取300,000页,每次审核可抓取20,000

业务用户每月最多可抓取100 万个页面,每次审核最多可抓取100,000 个页面

爬取源

设置爬网源决定了 Semrush 站点审核机器人如何爬网您的网站并查找要审核的页面。除了设置爬网源之外,还可以在设置向导的第 3 步和第 4 步中设置掩码和参数以在审计中包含/排除。

有 4 个选项可设置为审核的抓取源:网站、站点站点地图、按 URL 的站点地图和 URL 文件。

1.从网站抓取意味着将像 GoogleBot 一样抓取网站,使用广度优先搜索算法并浏览网页代码上看到的链接 - 从主页开始。

如果只想抓取网站最重要的页面,选择从 Sitemap 而不是网站抓取将使审核抓取最重要的页面,而不仅仅是从主页最容易访问的页面。

2.从站点地图抓取意味着只会从 robots.txt 文件抓取在站点地图中找到的 URL。

3.通过 URL 从站点地图抓取与从“站点地图”抓取相同,但此选项可让您专门输入站点地图 URL。

由于搜索引擎使用站点地图来了解他们应该抓取哪些页面,因此应该始终尽量使站点地图保持最新状态,并将其用作工具的抓取源以获得准确的审核。

4.从 URL 文件中爬取可让审核网站上的一组超级特定的页面。确保文件格式正确地为 .csv 或 .txt,每行一个 URL,然后将其从计算机直接上传到 Semrush。

如果想检查特定页面并节省抓取预算,这是一种有用的方法。如果仅对站点上要检查的一小组页面进行了任何更改,则可以使用此方法来运行特定审核,而不会浪费任何爬网预算。

上传文件后,向导会告诉检测到的 URL 数量,以便可以在运行审核之前仔细检查它是否正常工作。

Semrush工具包-A.J. WWW

抓取 Javascript

如果在网站上使用 JavaScript,可以实施 AJAX 抓取方案,站点审核将在 JavaScript 中找到链接并跟踪它们到网站上的内容。所要做的就是重新运行活动并将抓取源从网站更改为站点地图。

AJAX 爬取允许找到包含 JavaScript 元素的页面,并爬取这些页面上的 HTML,并通过性能检查来测量 JS 和 CSS 元素的大小。

审计 AMP

“首先抓取 AMP 页面”复选框可确保审核将抓取 AMP 页面以检查与 AMP 实施相关的最重要问题。目前,AMP 检查仅适用于企业级订阅。

配置这些设置后,现在可以运行站点审核。但是,如果想添加掩码或删除参数并设置计划,请使用下面的高级设置和配置说明。

高级设置和配置

注意:以下四个配置步骤是高级和可选的。

爬虫设置

可以在此处选择要抓取网站的用户代理。首先,通过在 SemrushBot 或 GoogleBot 的移动版或桌面版之间进行选择来设置审计的用户代理。

Semrush工具包-A.J. WWW

当更改用户代理时,将看到下面对话框中的代码也发生了变化。这是用户代理的代码,如果想自己测试用户代理,可以在 curl 中使用。

爬行延迟选项

接下来,有 3 个用于设置抓取延迟的选项:最小延迟、尊重 robots.txt 和每 2 秒 1 个 URL。

如果选中页面之间的最小延迟,机器人将以正常速度抓取您的网站。默认情况下,SemrushBot 在开始抓取另一个页面之前会等待大约一秒钟。

如果网站上有robots.txt文件并指定了抓取延迟,那么可以选择“尊重 robots.txt 抓取延迟”选项,让网站审核抓取工具遵循指​​示的延迟。

下面是抓取延迟在 robots.txt 文件中的样子:

Semrush工具包-A.J. WWW

如果抓取工具拖慢了网站的速度,并且 robots.txt 文件中没有抓取延迟指令,可以告诉 Semrush 每 2 秒抓取 1 个网址。这可能会迫使审核需要更长时间才能完成,但它会在审核期间对网站上的实际用户造成较少的潜在速度问题。

允许/禁止 URL

此选项将允许专门抓取或阻止网站的选定子文件夹。将希望在 TLD 之后包含 URL 中的所有内容。例如,如果想抓取子文件夹 http://www.example.com/shoes/mens/,需要在左侧的允许框中输入:“/shoes/mens/”。

Semrush工具包-A.J. WWW

为避免抓取特定的子文件夹,必须在禁止框中输入该子文件夹的路径。例如,要抓取男鞋类别但要避开男鞋下的登山靴子类别 (https://example.com/shoes/mens/hiking-boots/),需要输入 /shoes/mens/hiking-boots / 在禁止框中。

Semrush工具包-A.J. WWW

如果忘记在禁止框中的 URL 末尾输入 /(例如:/shoes),那么 Semrush 将跳过 /shoes/ 子文件夹中的所有页面以及所有以 /shoes 开头的 URL(例如 www .example.com/shoes-men)。

删除网址参数

URL 参数 (也称为查询字符串)是不适合分层路径结构的 URL 元素。相反,它们被添加到 URL 的末尾并向 Web 浏览器提供逻辑指令。

URL 参数总是由一个 ? 后跟参数名称(页面、utm_medium 等)和 =。

所以“?page=3”是一个简单的 URL 参数,可以指示在单个 URL 上滚动的第 3 页。

站点审核配置的第 4 步允许指定网站使用的任何 URL 参数,以便在抓取时将它们从 URL 中删除。这有助于 Semrush 避免在审核中两次抓取同一页面。如果机器人看到两个 URL;一个有参数,一个没有,它可能会抓取两个页面并因此浪费抓取预算。

Semrush工具包-A.J. WWW

例如,如果将“页面”添加到此框中,这将删除在 URL 扩展中包含“页面”的所有 URL。这将是具有 ?page=1、?page=2 等值的 URL。这样可以避免对同一页面进行两次抓取(例如,“/shoes”和“/shoes/?page=1”作为一个URL)在抓取过程中。

URL 参数的常见用途包括页面、语言和子类别。这些类型的参数对于拥有大量产品或信息目录的网站非常有用。另一种常见的 URL 参数类型是 UTM,用于跟踪营销活动的点击和流量。

可以在Google Search Console 中找到网站参数的确切列表 。在左侧菜单中,找到“抓取 - URL 参数”。窗口中的“工作原理”段落下还有一个链接,可将带到网站在 Google Search Console 中的 URL 参数列表。

如果已经设置了一个项目并想要更改设置,可以使用设置齿轮来这样做:

Semrush工具包-A.J. WWW

通过选择“Masks”和“Removed Parameters”选项,将使用上面列出的相同说明。

绕过网站限制

要审核预生产或通过基本访问身份验证隐藏的网站,步骤 5 提供了两个选项:

1.绕过 robots.txt 和 robots 元标记中的禁止

2.使用凭据爬行以绕过密码保护区域

如果想绕过 robots.txt 或元标记中的禁止命令(通常可以在网站的 标记中找到),必须将 Semrush 提供的 .txt 文件上传到网站的主文件夹。

可以像上传GSC 验证文件一样上传此文件,例如,直接上传到网站的主文件夹中。此过程验证对该网站的所有权,并允许抓取该网站。

Semrush工具包-A.J. WWW

文件上传后,可以启动站点审核并收集结果。

要使用凭据进行爬网,只需输入用来访问网站隐藏部分的用户名和密码。然后,机器人将使用登录信息访问隐藏区域并向提供审核结果。

日程

最后,选择希望多久自动审核网站。选择是:

每周(选择一周中的任何一天)

日常的

一次

可以随时在项目中方便地重新运行审核。

Semrush工具包-A.J. WWW

故障排除

在“审核域失败”对话框的情况下,需要检查站点审核爬网程序是否被服务器阻止。为确保正确抓取,请按照站点审核故障排除步骤将机器人列入白名单。

或者,可以下载抓取失败时生成的日志文件,并将日志文件提供给网站管理员,以便分析情况,并尝试找出被阻止抓取的原因。如果需要自己分析网站日志文件的方法,可以将其上传到日志文件分析器工具。

连接 Google Analytics 和 Site Audit

完成设置向导后,将能够连接 Google Analytics帐户以包含与最常浏览的页面相关的问题。

如果运行站点审核时仍有任何问题,请尝试 对站点审核进行故障排除 或联系支持团队。

现场审核概览报告

运行站点审核后,可以打开项目并在概览报告中查看结果。将看到对网站页面健康状况的估计,指出应该注意的所有问题。从这里可以跳转到分析网站的 robots.txt、可抓取性、HTTPS 实施、国际 SEO、性能(页面加载速度)和内部链接的报告。

站点健康评分

站点运行状况得分(0% 到 100% 之间的百分比)考虑了在爬网过程中发现的错误和警告数量与执行的检查数量之间的关系。

较高的网站健康评分是一件好事,就像网站上的问题密度较低一样。与警告相比,错误对站点健康评分的影响更大,但应解决这两个问题以改善站点的健康状况。

除了站点健康评分之外,还会列出站点的已抓取页面的细目,准确显示有多少页面被发现健康、损坏、有问题、重定向或阻止了抓取工具。

常见问题 - 如何在站点审核工具中计算站点运行状况?

在右侧,会注意到站点上的错误、警告和通知总数。

错误将以红色显示,是网站上最严重的问题。

警告将以橙色显示,代表中等严重性的问题。

通知为蓝色,被认为不如错误或警告严重。通知包含一些人可能认为对修复站点有用的信息,但它们不会影响整体站点健康评分。

热门问题

在错误、警告和通知下方,将看到审核中的主要问题。这些问题是根据它们的优先级和具有所述问题的页面数量显示的。单击问题旁边的按钮之一以查看“问题”选项卡中显示的列表。

Semrush工具包-A.J. WWW

专题报告

专题报告深入探讨发现常见问题的网站的特定方面。

爬行是指如何轻松地搜索引擎机器人可以抓取网站,并找到他们正在寻找的信息。

HTTPS将帮助诊断与网站从 HTTP 过渡到 HTTPS 相关的任何问题。

国际 SEO涵盖全球网站的最佳实践,并检查域对 hreflang 标签的使用是否存在常见误用和错误。

性能评估网站的页面加载速度、文件缩小以及与网站速度和性能相关的其他问题。

内部链接着眼于网站在其页面之间的链接情况。如果有任何“孤立”页面或具有高点击深度的页面,访问者通常很难找到它们。该报告将告诉这些页面是什么,以便解决问题并改进内部链接策略。

重新运行站点审计

检查所有问题并在站点上进行调整以修复它们后,可以重新运行站点审核 (1) 或将结果导出为 (2) PDF 报告,或 (3) XLS 或 CSV 文件.

Semrush工具包-A.J. WWW

当重新运行审核时,它会为提供新的站点健康评分,并在进行重大更改时更改发现的问题数量。当重新运行活动时,可以选择停止并放弃抓取,或在抓取过程中停止并保存结果。

Semrush工具包-A.J. WWW

如果在爬网过程中停止并保存结果,审核将显示未完成的爬网的新结果作为最新审核。这样,抓取预算将免于超支。

如果丢弃结果,站点审核将不会抓取或审核页面,并且抓取预算将被保存。

如果是第一次审核网站,可以从站点审核活动列表中访问这些选项:

Semrush工具包-A.J. WWW

出口

导出为 PDF 时,可以选择通过电子邮件发送报告、安排报告或使用徽标标记报告。还可以更进一步,围绕站点审计创建自定义 PDF 报告(使用“我的报告”功能),结合额外的研究报告和文本块,将报告完全个性化并将其塑造成有效的文档。

随着审核随着时间的推移自行更新,可以从此窗口跟踪站点健康状况的任何增加或减少。特别是如果对网站进行建议的更改,将能够轻松监控发生了多少改进。

Robots.txt 更新

robots.txt 文件用于指示机器人(例如搜索引擎抓取工具)抓取网站上的哪些内容。此小部件会告诉 Semrush 是否注意到 robots.txt 文件的任何更改,以及与该文件相关的可能影响网站的可抓取性的任何问题。

配置 robots.txt 是一项技术工作,应该尽可能地遵循Google 的指南。单击蓝色链接可打开过滤后的问题报告,显示文件的问题以及如何修复这些问题。单击弹出图标以打开网站的 robots.txt。

Semrush工具包-A.J. WWW

现场审核专题报告

从概览报告中,将看到七个用于更详细报告的预览小部件:可抓取性、HTTPS实施、国际搜索引擎优化、性能、内部链接、 标记和核心 Web 要素。

Semrush工具包-A.J. WWW

可抓取性

可抓取性报告为提供影响搜索引擎如何抓取网站的网站元素的概览分析。此页面上的大多数图表都是可点击的,并且会将重定向到过滤后的已抓取页面报告,其中包含发现此类问题的特定页面。

Semrush工具包-A.J. WWW

还可以查看抓取深度(从主页到达每个页面所需的点击次数)、HTTP 状态代码(针对任何损坏的页面、重定向和服务器端错误)以及站点地图与已抓取页面的比较.

建议将抓取深度控制在 3 次点击以下,以便用户和搜索引擎轻松找到您的重要内容。如果在 sitemap.xml 中指定的页面数量与已抓取页面数量不匹配,则可能表明网站由于链接无效或技术问题而导致可抓取性较差。

Semrush工具包-A.J. WWW

如果要保存此分析,可以使用界面右上角标记为“PDF”的按钮将其导出为 PDF。

HTTPS 实施

网站安全现在对 SEO 变得越来越重要,尤其是当 Google 鼓励网站所有者采用 HTTPS 时。HTTPS 实施报告将提供有关证书注册 (1)、服务器支持 (2) 和网站架构 (3) 的所有潜在问题的报告。只需单击其中一个块,即可了解问题所在以及如何解决。

Semrush工具包-A.J. WWW

国际搜索引擎优化

如果运营一个全球网站,需要确保网站以访问者的正确语言加载。为此,需要正确使用Hreflang 属性(rel="alternate" hreflang="x")。

Hreflang 是一个 HTML 属性,它告诉搜索引擎网站的正确语言和区域版本,以便为世界各地的 Internet 用户提供服务。

该属性可应用于网站的 HTML、XML 站点地图或 HTTP,以指定 Web 文档的语言和区域 URL。此时,Semrush 会检查网站的 HTML 以查找这些标签。

正确使用此标签可确保来自世界各地的访问者将以他们首选的语言和地理基调(例如,爱尔兰的英语与美国的英语)为网站提供服务。

如果之前曾尝试检查网站对 Hreflang 的使用,这可能是一个耗时的手动过程。借助 Site Audit 的这一新功能,可以在短时间内分析网站对标签的使用情况。

通过这份报告,将获得:

带有 hreflang 标签的网站页面列表

不正确的 hreflang 代码分析及其错误原因

分析可能丢失的 hreflang 标签

Semrush工具包-A.J. WWW

1.左边的圆圈图显示了网站对hreflang的实现。圆圈中间的数字代表 Site Audit 抓取的页面总数。彩色条显示有多少页面在其编码中具有 hreflang 标记。

灰色部分表示抓取的页面有多少不使用 hreflang。绿色表示有多少页面正确使用了 hreflang,红色表示有多少页面存在 hreflang 问题。

单击圆形图中的红色条可打开预过滤的爬网页面报告,显示存在问题的特定页面。

2.在右边,hreflang 问题被分解为Errors和Notices。单击显示问题数量的按钮以查看它们列在站点审核的“问题”选项卡中。

Semrush工具包-A.J. WWW

报告底部的表格列出了可能缺少 hreflang 属性的所有页面。对于每个网页,都可以看到找到了哪些 hreflang 值(在绿色框中)以及缺少哪些值(在灰色框中)。

绩效报告

此报告检查的问题包括:

大 HTML 页面大小

重定向链和循环

页面加载速度慢

未压缩的页面

未压缩的 JavaScript 和 CSS 文件

未缓存的 JavaScript 和 CSS 文件

JavaScript 和 CSS 总大小太大

JavaScript 和 CSS 文件过多

未缩小的 JavaScript 和 CSS 文件

平均文档交互时间慢

将能够快速分析网站页面的平均 HTML 加载速度以及按加载时间(0-0.5 秒、0.5-1 秒、1-3 秒和 > 3 秒)的细分。

Semrush工具包-A.J. WWW

如果分数自上次抓取以来上升或下降,则会以绿色或红色文字注明。

请注意,页面的 HTML 加载速度不会影响图像、JavaScript 或 CSS 文件的加载时间。

平均值 页面 (HTML) 加载速度显示网站速度随时间的任何改进/下降趋势,因此可以判断优化工作是否获得回报。

一般来说,建议尝试在 1 秒内加载页面。较长的页面加载时间会影响用户体验,并可能导致访问者离开网站。

JavaScript 和 CSS的数量根据它们拥有的 JS 和 CSS 文件的数量显示页面细分,并允许找到具有过多网页资源的页面。单击某一列可在已过滤的已抓取页面报告中检查特定页面的 JS 和 CSS 文件数。

JavaScript 和 CSS 大小根据页面的 JS和 CSS 大小显示页面细分,并允许识别网站上代码文件最大的页面。单击某一列可在已过滤的已抓取页面报告中找出特定页面的 JS 和 CSS 文件大小。

如果点击页面加载速度图表的任何部分,将跳转到过滤后的已抓取页面报告。从那里可以看到每个加载其 HTML 所需的时间。

Semrush工具包-A.J. WWW

连接 Google Analytics

如果将GA 帐户连接到 Site Audit,则性能报告还包括“需要超过 1 秒才能成为交互的页面”的通知。这可以帮助找到网站上应该解决的缓慢区域以进行优化。

如何提高网站速度

如果发现网站在速度和性能方面的报告不佳,这里有一些技巧可以减少加载时间并更快地提供内容:

1.缩小图像和其他媒体的大小

2.最小化HTTP 请求

3.实现浏览器缓存

4.根据网站的大小选择合适的托管服务提供商

5.启用文件压缩

6.使用CDN

7.缩小CSS 和 Javascript 文件

内部链接

与外部链接类似,内部链接也可以帮助提升网页的权威性。例如,如果从主页链接到产品页面,则该链接将传递主页的某些权限。

此报告将显示网站上难以找到的具有高点击深度的页面以及任何损坏的链接以及具有最多内部 LinkRank 的页面。

Semrush工具包-A.J. WWW

单击内部链接小部件后,将看到对网站内部链接的全面深入分析。这将分为五个主要部分:

1.Pages Crawl Depth:从主页点击多少次才能到达网站上的页面。如果访问重要页面需要超过 3 次点击,则更好的内部链接策略可以提高网站的可抓取性。

2.内部链接:这显示网站上有多少页面正在接收一定范围的内部链接。它还可以显示站点上有多少页面正在向站点的其余部分(传出)发送一系列链接。可以轻松查看是否有任何孤立页面(具有 0 个内部链接的页面)或只有一个可以提供更多链接的内部链接的页面。

3.内部链接分发:这是查看内部链接策略运行情况的快速方法。可以通过添加更多指向它们的内部链接来改进此图中的薄弱页面。

4.内部链接问题:可以看到网站上的内部链接可能遇到的任何问题。单击一个问题以打开包含更多详细信息的问题报告。

5.通过内部 LinkRank 最多的页面:提供对它们链接到的网站的其他页面影响最大的页面列表。

标记

标记是将结构化数据项添加到网站代码的方式。反过来,结构化数据可以帮助 Google 更深入地了解您的内容,并根据标记提供的信息提供丰富的片段和特殊的 SERP 功能。

报告的这一部分根据在站点上发现的无效和有效结构化数据项 Site Audit 的数量提供一个等级。它将提供带有标记的页面总数、标记类型以及网站上看到的实际结构化数据项的列表。

Semrush工具包-A.J. WWW

Site Audit 几乎可以检查Google 词汇表中的所有结构化数据标记项,测试版除外。

核心网络生命体征

Core Web Vitals 是一组衡量网站加载性能、交互性和视觉稳定性的指标。它们将在 2021 年成为 Google 确定的排名因素,因此对于网站站长来说,解决这些领域非常重要。

由 Google 的 Lighthouse 工具提供支持,它们被评估为 最大内容绘制 (LCP),它判断页面的感知加载速度, 累积布局偏移 (CLS),它测量可见页面内容中的意外布局偏移量,以及 总阻塞时间 (TBT),这是基于实验室的代理,用于量化用户与页面的第一次交互时的体验。

Semrush工具包-A.J. WWW

删除现场审核

当要删除特定工具时,必须删除整个项目。这将删除在项目中设置的所有其他活动。

因此,假设要删除站点审核活动。当删除项目时,还将删除位置跟踪活动、社交媒体跟踪器、链接构建或该项目中的任何其他工具。

项目一旦被删除就无法恢复,因此在删除项目时务必小心。仅当 100% 确定时才删除项目,因为所有数据都将永远消失。

限制

要抓取的页面数

根据帐户级别,每月只能抓取一定数量的页面

免费:每月 100 页

优点:每月 100,000 页

Guru:每月 300,000 页

业务:每月 1,000,000 页

抓取预算中的任何剩余页面不会逐月滚动,但限制会在每个月的第一天重置。

AMP 检查(以及首先抓取 AMP 页面的选项)仅在业务级别订阅中可用。

商业订阅者 在一次审核中最多可以审核 100,000 页。

位置追踪

位置跟踪(也称为排名跟踪或 SERP 跟踪)可跟踪网站针对一组自定义目标关键字的每日排名。可以将定位设置为观看任何特定地理位置和任何设备类型(手机、平板电脑或台式机)。该工具带有大量功能,例如标记、排序、过滤和导出报告,使营销人员可以轻松地在其网站的 SEO 或 PPC 性能中准确找到正在寻找的内容。

能够跟踪任何关键字和域 - 即使是不在 Semrush 主数据库中的那些

在单个项目中跟踪和比较多个地理位置或设备类型

精选片段报告以寻找精选片段机会

轻松的本地搜索引擎优化跟踪和本地竞争对手发现

与同事和客户分享结果的简单 PDF 报告

为什么要使用位置跟踪?

无论 SEO 专长是什么,都可以进行页面 SEO、撰写内容、建立链接或进行技术审核,很有可能必须衡量工作对网站排名的影响。如果网站在本地空间中运行,则尤其如此,因为 Google 的结果可能会根据地理位置发生很大变化。

此外,随着移动搜索领域的不断发展,可能会看到大量来自移动用户的潜在流量。为了了解网站在移动和本地结果中的位置,位置跟踪是必须的。

在开展活动时,可以使用位置跟踪来查看努力如何转化为排名变化,并了解哪些页面从目标关键字中获得了最多的流量。将能够识别需要改进的最薄弱的页面,并从同一个地方监控竞争对手的排名。

为了帮助跟上细分市场中的 SERP 功能,位置跟踪将为关键字识别在 SERP 上找到的所有独特的 SERP 功能。还提供一份报告,显示网站有机会追踪精选片段。

每日更新和每周电子邮件报告将使在尝试及时实现目标时轻松确定工作的优先级。如果为客户提供服务,Semrush 可以轻松生成数据导出和清理 PDF,以直接向客户报告进度。