网站SEO优化诊断分析方法
关于SEO优化诊断分析这个问题,我们先说说对于已经上线的网站来说,除了日常的更新文章和增加外部链接,我们还需要对网站进行全面的分析诊断,进而优化网站,提升关键词排名。本文主要讲解怎么样快速的对网站进行诊断分析,加上相应的SEO操作,帮助大家把网站排名做好。
一、网站SEO规范分析
1、关键词与TDK
1.网页标题检查
网站页面标题(Title)在SEO优化中非常重要的。
网页标题标准:
1、简明扼要,表述明确,30字以内
2、匹配主关键词,避免关键词堆砌
3、正确使用符号
4、标题具有唯一性
5、凸显品牌(品牌关键词)
2.网页关键词检查
2、网页关键词与keywords标签的区别
1、网页关键词
2、关键词keywords标签
实践应用
关键词数量,3-5个关键词
围绕一到两个核心业务来定位
3.网页描述检查
网页描述description标签,在描述中合理布局title和keywords中的关键词。
1、带有自己的品牌词做品牌宣传,如果是宣传产品的企业站最好带有自己的联系方式让别人能马上找到你。
2、合理布局关键词,如上文所说可穿插、不堆砌。
3、写的广告词有吸引力诱惑力、具有专业水准等。
4.网页关键词密度分析
依据页面文本总长度,关键词出现频率等计算出关键词的密度。
通常,站长工具关键词密度在2%到8%是较为合理的密度。
太低则关键词页面相关不强,排名难以提升,太高则容易被搜索引擎判断为作弊。
2-网站URL链接
1.重复链接检查
什么是重复链接?
一个页面出现了许多文字不同,指向相同的链接,在百度的链接权重判断系统中对用户来说并不是很有价值,重复的链接不会增加链接权重。
SEO标准
一个页面上的锚文本,文字与链接一一对应
文字与链接打开的页面内容对应
2.是否触发隐藏关键词反作弊规则
隐藏关键词反作弊规则?
在页面上隐藏关键词,是常见的一种SEO作弊行为,搜索引擎已经能轻易的识别
什么是隐藏关键词?
在网页的HTML文件中放上含有关键词的文字,但这些字不能被用户所看到,只能被搜索引擎看到
Ø文字颜色和背景颜色一致
Ø小字号隐藏:设置为文字大小0px
ØJavascript隐藏关键词
ØDIV+CSS样式隐藏链接代码:display:none
3.是否触发隐藏外链、反黑链检查规则
什么隐藏外链、黑链?
也叫隐链,暗链。指页面上有隐藏的外部链接、违规违法网站(色情、赌博、六合彩、枪支弹药等)的链接,用户在正常浏览网页的时候无法看到这个链接。
SEO标准
隐藏链接是被搜索引擎严令禁止的,一旦发现,惩罚将会非常严重,轻则降低网页权重,重则清空网页的索引记录(收录没有了)。
PS:注意网站安全
4.内页相似度分析
什么是页面相似度?
当两个页面的相似度在一定的值以上时,很有可能被搜索引擎尤其是Google判断为抄袭页面或复制页面,从而不被收录,甚至降权、删除。
网站的内容同其他站点的内容进行比较
网站的内容和你站点内的其他页面进行比较
相似度高如何检查和处理?
检查:复制文字搜索/页面相似度工具
处理:减少样板文字/文字内容做成图片
5.内页站内链接数量检查
控制内部链接数量
如果页面中的内部链接数量超过限制,搜索引擎就可能会忽略该页面,或者忽略该页面中超出限制的那部分链接所指向的目标页面。
不自然的添加一些链接,造成链接堆砌,有时容易认为作弊。
SEO建议
一般一个页面的内部链接数要限制在100个以内,在30个左右。
正文内链:建议5个以内
企业站内链适当减少、资讯网站适当增加。
6.内页导出链接数量检查
导出链接数量
根据PR计算原理,由于一个网页的重要性被平均的传递到它所引用的网页,因此反过来看,一个页面内过多的导出链接将潜在引起该页PR值的流失。
导出链接作用
从内容的角度看,适当数量的与主题有关联的导出链接给搜索引擎带来良好的印象。互联网的真实本质在于链接和共享,不要太介意网站的导出链。
适当的导出链对用户有帮助的话,可以提升自身站点的用户体验。
从导出链接中更能判断你的网站主题,指向权威性网站更能体现相关性及安全性。
实践应用
增加权威性网站链接
增加高权重网站链接
添加nofollow属性
7.robots是否存在
robots是什么
robots即robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),
网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
SEO建议
robots.txt文件应该放置在网站根目录下
禁止蜘蛛抓取后台、程序运行安装目录
禁止抓取死链、低质量页面
禁止抓取备份文件
设置网站地图链接,可以导引引导蜘蛛爬取页面
3-网站页面代码
1.精简css和js文件
网页中加载大量js会导致产生多次请求,每一次请求将会占用一部分时间。
合并js和css外部调用,可以把请求次数降到最低,从而可降低页面加载的时间,大大提高网页的访问速度,提高用户体验。
常见处理方法:
Ø压缩css代码
Ø合并js和css
Ø非必要JS未放在页面尾部,放在页面最后
2.是否存在多个h1标签
H标签
H标签引导搜索引擎,网页哪些是重要的内容。
对搜索引擎来说,H标签的主要意义是告诉搜索引擎这个是一段文字的标题或说是主题,起强调作用,H标签的权重会高于Strong。因此在搜索引擎优化中H标签的运用非常重要。
每个网页只能拥有一个h1标签
h1用来修饰网页的主标题,一般是网页的标题,文章标题,
中部署主关键词。
每个网页只能拥有一个h1标签。
h1尽量靠近在html 中的body标签,越近越好,以便让搜索引擎最快的领略主题。
3.根域名是否301至www域名
顶级域名网站与www域名网站
一个网站,用户访问到的其实可能有两个版本,一个是带www的,一个是不带www的根域名,带“www”的域名做主站是互联网人习惯的网站建设形式,也是中国人习惯的认为的主页
权重集中
通常网站带www和不带www的都要做解析。但是两个都解析后,产生一个问题,即搜索引擎认为这是两个站点。
为了自己网站的权重集中以及对搜索引擎的友好,我们需要做301重定向,比较好的处理方式是把根域名301到带www的域名下。
设置操作
想要设置域名的301重定向,一般是到主机控制面板设置。
重定向域名:顶级域名
目标域名:www域名
4.图片alt标签是否完善
(1)图片ALT是什么?
图片的属性alt标签用于对图片进行命名等描述说明
(2)作用
用于增加网页关键词密度和搜索引擎对图片的识别。搜索引擎判断一张图片的内容主要就是依据图片alt标签等因素来判断的。
因此在alt中合理添加与主题有关的关键词属于搜索引擎优化中考虑的一个因素。
(3)设置
图片描述最好是用简短的语句,描述这张图片的内容,如果是链接,则描述链接的作用,并带上关键词。
(4)注意事项
每张图片都需要有alt标签。
对于每个标签都堆砌关键词是不可取的,这样就有可能会导致被搜索引擎视为垃圾网站。
5.是否存在iframe网页
iframe元素会创建包含另外一个文档的内联框架(即行内框架),尽量少使用frame和iframe框架结构,通过iframe显示的内容可能会被百度丢弃。
因为搜索引擎的蜘蛛不会识别在ifram中被调用的图片、文本、url等内容的,因为该内容不属于该页面,只是访问的时候被临时的调用。
而且百度在SEO建议中也有提到:“frame/iframe标签,会导致百度spider的抓取困难,建议不要使用”。
6.复杂度分析
网站结构
网页复杂度分析主要是对网站的结构,及URL规则等事项进行分析,来确定你网站的复杂度。一般而言,简单的网站结构,简洁美观的url规则的网站,是符合搜索引擎抓取习惯的网站。
简单明了的网站结构可以保证spider的可读性,主要表现在以下几点:
树型结构最优即“首页—频道—详情页”,导航为每个页面加一个导航方便用户知晓所在路径,做好内链形成网状结构网状保证每个页面都至少有一个文本链接指向,可以使网站尽可能全面的被抓取收录等。
简洁美观的url规则主要表现在url的唯一性:一个内容页面只与唯一一个url相对应,保证url层次尽量短、简洁性动态参数尽量少,url尽量易读使得用户能够快速理解,比如使用拼音url。
浏览器代码检测插件
使用浏览器插件,检查网站页面HTML代码规范化