6个做好网站seo必不可少的方法(用于seo的8种可行方法)
I33
I33
用于SEO的8种可行方法
I33
在本篇文章中,我们将介绍什么是日志文件,它们为何如此重要,要寻找的内容以及使用哪些工具。最后,我将提供8种可行的方法来分析。I33
什么是服务器日志文件?
服务器日志是由服务器自动创建和维护的日志文件(或多个文件),由它执行的活动列表组成。I33
出于SEO的目的,我们关注一个Web服务器日志,其中包含来自人类和机器人的网站页面请求的历史记录。有时也称为访问日志,原始数据如下所示:I33
I33
是的,起初数据看上去有点令人不知所措,令人困惑,所以让我们分解一下,更仔细地看一下“命中”。I33
命中范例
每个服务器在记录命中方面都有本质上的不同,但是它们通常会提供类似的信息,这些信息被组织成字段。I33
对于每次匹配,我们都会获得关键信息,例如日期和时间,请求的URI的响应代码(在本例中为404)以及请求来自的用户代理(在本例中为Googlebot) )。您可以想象,日志文件每天由成千上万的点击数组成,每当用户或漫游器到达您的网站时,就会为请求的每个页面记录许多点击数-包括图像,CSS和呈现该文件所需的任何其他文件。I33
为什么如此重要?
所以您知道什么是日志文件,但是为什么值得花时间分析它们?I33
好吧,事实是,只有一个真实的记录可以说明搜索引擎(例如Googlebot)如何处理您的网站。那就是通过查看网站的服务器日志文件。I33
站长工具,第三方爬虫和搜索操作员不会全面了解搜索引擎如何与网站互动。只有访问日志文件可以为我们提供此信息。I33
我们如何将日志文件分析用于SEO?
日志文件分析为我们提供了大量有用的见解,包括使我们能够:I33
- 准确验证可以或不能爬取的内容。
- 查看搜索引擎在其搜寻期间遇到的响应,例如302,404,软404。
- 识别爬网缺陷,这些缺陷可能具有更广泛的基于站点的含义(例如层次结构或结构)。
- 查看搜索引擎优先考虑哪些页面,并可能将其视为最重要的页面。
- 发现搜寻预算浪费的区域。
我将带您完成在日志文件分析期间可以执行的一些任务,并向您展示它们如何为您提供可操作的网站见解。I33
如何获取日志文件?
对于这种类型的分析,您需要来自您域的所有Web服务器的原始访问日志,而没有应用任何过滤或修改。理想情况下,您需要大量数据才能使分析有价值。值得多少天/周取决于站点的大小和权限以及所产生的流量。对于某些站点,一周可能就足够了,对于某些站点,您可能需要一个月或更长时间的数据。I33
您的Web开发人员应该能够为您发送这些文件。值得一问,在它们发送给您之前,日志是否包含来自多个域和协议的请求,以及这些请求是否包含在此日志中。因为否则,将阻止您正确识别请求。您将无法分辨对http://www.example.com/和://example.com/的请求之间的区别。在这种情况下,您应该要求开发人员更新日志配置,以在将来包含此信息。I33
我需要使用哪些工具?
如果您是Excel专家,那么本指南对于帮助您使用Excel格式化和分析日志文件非常有用。我们使用Screaming Frog日志文件分析器,其友好的用户界面使您可以快速,轻松地发现任何问题(尽管可以说,您获得的深度或自由度与使用Excel所获得的不一样)。我将为您介绍的所有示例都是使用Screaming Frog日志文件分析器完成的。 其他一些工具是Splunk和GamutLogViewer。I33
分析SEO日志文件的9种方法
1.找出浪费搜寻预算的地方
首先,什么是抓取预算?综合爬网率和爬网需求,我们将爬网预算定义为搜索引擎蜘蛛或机器人可以并且想要爬网的数量。I33
本质上,它是搜索引擎每次访问您的网站时将爬网的页面数,并关联到域的权重,并与通过网站的链接资源成比例。I33
对于日志文件分析而言,至关重要的是,有时爬网预算可能会浪费在无关的页面上。如果您有新内容要编制索引,但没有预算,那么搜索引擎将不会为新内容编制索引。这就是为什么要通过日志文件分析来监视爬网预算的支出原因。I33
影响抓取预算的因素
有许多低附加值的URL会对网站的爬网和索引产生负面影响。低附加值URL可以属于以下类别:I33
- 分面导航,动态URL生成和会话标识符(电子商务网站常用)
- 现场重复内容
- 被黑的页面
- 软错误页面
- 低质量和垃圾内容
浪费诸如此类页面上的服务器资源会浪费实际具有价值的页面的爬网活动,这可能会导致在站点上发现良好内容的时间大大延迟。I33
例如,查看这些日志文件,我们发现一个不正确的主题被非常频繁地访问,这个问题很明显!I33
I33
在查看每个页面获得的事件数量时,请问自己搜索引擎是否应该爬网这些URL