Posts by kevinwang
24
4 月
seo – 解决规范化问题
使用网址检查工具可了解 Google 会将哪个网页视为规范网页。即使您明确指定了规范网页,Google 也可能会出于各种原因(例如内容质量)而选择其他网页作为规范网页。在排查问题之前,请思考对来自 Google 搜索的用户而言,Google 选择的规范网址是否比您的首选...
24
4 月
seo – 如何使用rel=”canonical”及其他方法指定规范网址
若要向 Google 搜索指定重复网页或非常相似网页的规范网址,您可以使用多种方法指明您更愿意使用哪个网址。这些方法按照其对规范化的影响程度排列如下:
重定向:强信号,表明重定向的目标应成为规范网址。
rel=”canonical” link注释:强信号,...
24
4 月
seo – 什么是网址规范化
规范化是指选择一段内容的有代表性的规范网址的过程。因此,规范网址是指 Google 从一组重复网页中选出的最具代表性的网页的网址。此过程通常称为重复信息删除,有助于 Google 在搜索结果中仅显示重复内容的一个版本。
网站包含重复内容的原因有很多:
区域...
24
4 月
seo – Google如何解读robots.txt规范
Google 的自动抓取工具支持 REP(robots 协议)。这意味着,在抓取某一网站之前,Google 抓取工具会下载并解析该网站的 robots.txt 文件,以提取关于网站中哪些部分可以被抓取的信息。REP 不适用于由用户控制的 Google 抓取工具(例如 F...
24
4 月
seo – 更新robots.txt文件
如果您使用了 Wix 或 Blogger 等网站托管服务,则可能无需(或无法)直接修改 robots.txt 文件。您的托管服务提供商可能会通过显示搜索设置页面或借用其他某种方式,让您告知搜索引擎是否应抓取您的网页。
如果您想向搜索引擎隐藏/取消隐藏您的某个网页,...
24
4 月
seo – robots协议规则写法
如果您使用了 Wix 或 Blogger 等网站托管服务,则可能无需(或无法)直接修改 robots.txt 文件。您的托管服务提供商可能会通过显示搜索设置页面或借用其他某种方式,让您告知搜索引擎是否应抓取您的网页。如果您想向搜索引擎隐藏/取消隐藏您的某个网页,请搜索以...
24
4 月
seo – Robots.txt简介与指南
robots.txt文件规定了搜索引擎抓取工具可以访问您网站上的哪些网址。 此文件主要用于避免您的网站收到过多请求;它并不是一种阻止Google抓取某个网页的机制。若想阻止Google访问某个网页,请使用 noindex 禁止将其编入索引,或使用密码保护该网页。
...
24
4 月
seo – 如何结合使用站点地图扩展
站点地图扩展是将您要在网站上使用的各类内容及其元数据告知 Google 的绝佳方式。您网页上的内容通常会加入多种扩展;例如,您可能会发布嵌入图片和视频的新闻报道。此外,您的网页还可能会进行本地化,这可能意味着您可以为本地化网页添加 hreflang ...