Geoffrey Le
Learning & Adapting - An evergreen trend in SEO
Member since 3/9/2020


Achievements

Activity

Community guides
Community videos
Questions
Total replies
Recommended
User activity chart
Most viewed community guides
Google Search Console 中网页未被编入索引的常见原因
Google Search Console 的“页面索引报告”是帮助网站管理员了解网站在 Google 搜索结果中表现的重要工具。然而,许多网站管理员会发现,有些页面明明已经创建,却始终无法被 Google 索引。这篇指南将为你列出常见未被 Google 编入索引的原因及可以运用的解决方案。
 
已发现 - 目前未编入索引(Discovered - currently not indexed)
 
Google 已发现相应网页,但尚未抓取该网页。这通常意味着,Google 想要抓取该网址,但这样预计会导致网站过载;因此,Google 重新安排了抓取时间。这就是该网页的上次抓取日期在报告中为空的原因——Google 官方解释
 
这表示,
  1. Google 发现了该页面;
  2. 但该页面可能存在一些问题,现已经在队列中,Google决定重新安排时间抓取;
 
已抓取 - 当前未编入索引(Crawled - currently not indexed)
 
Google 已抓取相应网页,但尚未将其编入索引。日后,该网页可能会被编入索引,也可能不会被编入索引;无论如何,您都无需重新提交该网址以供抓取。——Google 官方解释
 
这表示,
  1. Google 可以访问该页面;
  2. Google 花了一些时间来抓取页面;
  3. 爬取后,Google 决定不将其纳入索引;
导致上述的两种原因可能有,
  • 抓取优先级
  • 服务器性能
  • 网站架构设置
  • 网页内容价值
针对上述两种情况,网站管理者可以尝试,
  1. 内容质量问题——确保每个页面都包含唯一的内容。常见的低质量的页面有以下类型:过时的内容(如旧新闻文章),由网站内的搜索框生成的页面,通过应用过滤器生成的页面,重复内容,自动生成的内容,用户生成内容。最好通过Robots阻止此类页面。
  2. 内部链接问题——Googlebot 会跟踪您网站上的内部链接以发现其他页面并了解它们之间的联系。因此,请确保您最重要的页面经常在内部链接。 
  3. 抓取预算——这种情况会出现在大型网站中,当页面数量超过百万,网站存在技术问题,容易造成抓取预算不足或浪费,常见抓取预算的问题有:低质量的内容, 内部链接结构差,实施重定向的错误,服务器超载等。
  4. 网站内部——确保提交给Google的XML站点地图中只有规范版本。
  5. 抓取优先级——给 Google 一些时间处理,因为有些页面可能只是在等待抓取。
 
重复网页 - Google 选择的规范网页与用户指定的不同(Duplicate, Google chose different canonical than user)
 
相应网页被标记为一组网页的规范网页,但 Google 认为另一网址更适合作为规范网页。Google 已将其认为是规范网页的那个网页(而非该网页)编入索引。——Google 官方解释
 
这表示,
  1. Google 在你的网站上发现了两个或多个相同或非常相似的网页;
  2. Google 抓取时发现了该网页的Canonical标签;
  3. Google 认为另一个网页更适合规范网页(系统评估);
  4. Google 忽视了该网页的规范标签,并决定不索引它;
导致上述的原因可能有,
  • 网站出现对重复内容的指向信号(强烈)
 
重复网页 - 用户未选定规范网页(Duplicate without user-selected canonical)
 
相应网页与其他网页重复,但并未指明首选的规范网页。Google 已选择另一网页作为该网页的规范网页,因此该网页不会在 Google 搜索中显示。——Google 官方解释
 
这表示,
  1. Google 在你的网站上发现了两个或多个相同或非常相似的网页;
  2. Google 抓取时在页面上未发现canonical标签;
  3. Google 认为另一个网页更适合规范网页(系统评估);
  4. Google 决定不索引该页面;
导致上述的原因可能有,
  • 多个重复/相似内容网页没有实施规范化
 
针对上述两种情况,网站管理者可以尝试,
  1. 确保rel=”canonical”链接仅在核心页面上实施;
  2. 增强网站核心页面内部信号(站点地图/内部链接);
 
网页会自动重定向(Page with redirect)
 
这是一个会重定向到另一网页的非规范网址。所以,该网址不会被编入索引。——Google 官方解释
 
这表示,
  1. Google抓取该网页时已被重定向至新页面;
  2. Google决定不索引该页面;
导致上述的原因可能有,
  • 网站的链接结构调整
  • 页面调整(例如产品下架,旧内容移除)
 
针对上述情况,网站管理者可以尝试,
  1. 检查这部分URL是否是正确/错误设置为重定向;
  • 是 - 保留它;
  • 不是 - 分析为何这部分页面会被设置为重定向,重定向逻辑制定错误?CMS内部错误?若查不到详细原因,可在中文搜索社区进行提问
 
已编入索引,尽管遭到 robots.txt 屏蔽(Indexed, though blocked by robots.txt)
 
该网页虽尽管遭到网站的 robots.txt 文件屏蔽,但已被编入索引。Google 始终都会遵从 robots.txt 中的规则,但如果有其他网页链接到该网页,这并不一定能够阻止该网页被编入索引。Google 不会请求和抓取该网页,但我们仍然可以使用与被屏蔽的网页关联的网页中的信息,将该网页编入索引。由于存在 robots.txt 规则,Google 搜索结果中显示的任何与该网页相关的摘要可能会非常有限。——Google 官方解释
 
这表示,
  1. Google从其他网页跟随并访问了该网页;
  2. Google评估该网页满足索引标准,决定索引该网页;
  3. 该网页在SERPs中显示非常有限;
导致上述的原因可能有,
  • 内部/外部有存在指向该链接的信号
针对上述的情况,网站管理者可以尝试,
  1. 评估这部分 URL 是否真的应该被编入索引;
  • 页面需要被索引 - 删除阻止抓取 URL 的 Disallow 指令;
  • 页面不需要索引 - 不应使用 Robots.txt 来控制索引,请改用noindex 标记
 
网址已被 robots.txt 屏蔽(Blocked by robots.txt)
 
此网页被网站的 robots.txt 文件屏蔽了。——Google 官方解释
 
这表示,
  1. Google遵循了该网站的robots设置;
  2. Google无法正常访问该网页;
导致上述的原因可能有,
  • robots.txt 中的 Disallow 指令阻止了该网址
针对上述的情况,网站管理者可以尝试,
  1. 检查 robots 的 disallow 指令是有意还是错误地添加
  • 有意的 - 保留它;
  • 无意的 - 删除阻止抓取给定页面的 Disallow 指令。
 
Blocked due to access forbidden (403)( 由于禁止访问 (403) 而被屏蔽)
 
HTTP 403 表示用户代理提供凭据,但未被授予访问权限。不过,Googlebot 从未提供凭据,因此您的服务器错误地返回此错误。该网页不会被编入索引。——Google 官方解释
 
这表示,
  1. Google尝试抓取访问该网页;
  2. 由于网站服务器设置,拒绝了 Google 的访问请求;
导致上述的原因可能有,
  • 网站服务器错误设置
针对上述的情况,网站管理者可以尝试,
  1. 联系主机服务商进行协助处理;
  2. 检查.htaccess 文件;
 
上述为常见未被编入索引的情况,若没有列出的,可以参考 Google 官方文档
若官方文档中的解释无法帮你解决网站的问题,请在中文搜索社区进行提问
 
常见中文搜索结果中的垃圾内容处理
尽管Google在全球的搜索市场占有份额达到91.37%(数据来源:https://gs.statcounter.com/search-engine-market-share),但不代表它的呈现系统就是100%成熟;目前两大中文搜索市场,中国大陆所使用的还是Baidu为主,市场份额为 60.44%,而台湾Google的使用份额也有90.34%,要知道,Google在中文搜索目前并不是很完美,相比英文,中文结果的处理方式更为复杂,而Google也明确表示,它们一直在提升自己的系统,尽量让搜索结果中的内容匹配用户的搜索意图。
 
目前,中文搜索结果中会出现许多的垃圾内容,这里罗列出常见的垃圾内容以及解决方案,
1.通过Google Maps创建垃圾内容
 
 
这种情况不止出现在中文搜索中,英文和其他多语言都出现过类似的情况,Google团队也在对该情况进行处理,但难免会有一些漏洞,如果你依旧在搜索结果中发现类似的垃圾内容,可以通过以下方式向Google团队进行报告,
需要了解的是,再报告后Google团队需要一段时间进行审核处理,垃圾内容无法立即从搜索结果中移除。
 
2.通过复制、窃取内容(镜像网站)
当你的某个网页被攻击者直接复制,或者是窃取内容,从而在搜索结果中产生排名时,严重的会出现整个网站被攻击者“镜像”(一比一复制网站),你可以采取以下方式进行申诉,
同样的,通过上述方式向Google进行报告后,该网页/网站无法立即从搜索结果中移除,Google团队处理仍需一定的时间。对此,你可以再尝试DMCA申诉,
Google非常重视版权信息,并且维护每一个创作者的权益,所以通过上述的方式向Google举报垃圾内容,维护自己的权益,共同营造更好的中文搜索环境。
 
Post history
如果在Google索引中显示“网页已编入索引”则不用理会。
你好 Exia,

请再次检查你在GSC中验证的资源是否是https://www.版本的网域。

你也可以采取以下方式重新验证
希望对你有所帮助。
你好,

可以再给Google一些时间。

你的网站整体上线不到三个月,对于Google来说,新网站往往需要花上一定的时间才可以取得信任

有时候site指令并不适用搜索(因为它存在一定的局限性),一般来说,站长使用网址检查工具的实时检测是最为准确的方式。

我大致看了你的网站,整体没有太大问题,优化也是在正确的方向上,耐心等候即可。
从你提供的截图来看,表示Google尚未发现该网址,所以就没有接下来的抓取和索引的步骤,请给它一些时间去处理。

另外,网站的内容质量也是影响Googlebot抓取的频率,确保你提交给Google索引的内容是以用户为中心,能为你目标用户提供价值和帮助的,否则,低质量的内容越多,Googlebot爬取的频率就越低,索引的内容则更少,这也导致你网站在Google中的信誉度非常低。

你好,

适当使用 AI 工具并不会违反Google的指南,但你通过AI功能生成内容主要目的以操纵搜索结果排名,那么这已经是违反了Google的违反我们的网络垃圾政策

而且,Google 在应对企图利用自动化功能操控游戏搜索结果方面积累了丰富的经验,也会严肃处理制作垃圾内容的网站,这也是你所看到你的网站表现会急剧下降,

要想在 Google 搜索上取得理想成效,应致力于创作原创、优质、以用户为中心的内容,并展示出 E-E-A-T 的特性,

所以,移除旧的垃圾内容(无价值、对用户无帮助)对你的网站来说有必要,而你的网站已经给Google惩罚后(识别为垃圾网站),那么需要花更长的时间才可以重新获得Google对你的信任。

现在互联网世界内容生产成本太低,对于现在人们来说,真实并且越有价值的内容将更加重要。
希望对你有所帮助。
-1 upvotes
Recommended answer
你好 Chen,

你应该先查看“已抓取 - 尚未编入索引”都有哪些网页,看是否有必要给Googlebot抓取,

其次如果确定这上万的网页都是核心页面,那么这个规模的数量,你可以创建站点地图,将重要的内容告知Google。

目前我查看你的站点地图仅有两个URL,


Recommended answer
采用robots限制无法让Google不索引网页,robots.txt 文件主要是管理搜索引擎蜘蛛的抓取(而非索引)。
你好 Soren,

当我在Google TW进行搜索的时候,在SERPs中没有发现该垃圾内容,这很可能Google在12月的垃圾内容更新中已经移除了这部分内容,所以不用太过于担心。

可以更多尝试推广/宣传你的网站(品牌),建立更多的正面内容,以获取更多的访客。

希望对你有所帮助。
你好,

对于网页收录,需要同时满足3个步骤,
  1. Googlebot需要先发现你的网页;
  2. Googlebot需要抓取你的网页;
  3. 满足索引条件后,Google才会将你的内容编入索引;

所以,你可以通过GSC的网址检测工具查看你网站URL的状态,是到达哪一个阶段?
  • 如果只是满足1,那么它会显示,已发现 - 目前未编入索引
  • 如果满足了1和2,它会显示,已抓取 - 当前未编入索引
  • 如果满足了3个,它会显示,该网址已在搜索结果中

所以你应该先捋清自己的网页处于哪个状态,你还需要知道的是,Google每天都会抓取数十亿个页面,但不可避免地会错过一些网站/页面。 Google 不会抓取网络上的所有页面,网站上非所有页面都被Google索引是完全正常的。

根据你的网站,整体都很新,我建议你再等待Google去处理它,因为Googlebot发现,抓取再索引网页都需要花上一定的时间。

希望对你有所帮助。
1 upvote
Recommended answer
你好 Yang,

近期大部分网站都受到了12月份算法更新的影响,主要有两个更新,
受影响这部分网站都有一些共同点,
  • 新站点,上线时间在6个月内;
  • 整体网站内容质量较一般,声誉太低;
任何网站都需要花上一定的时间才可以获得Google的信任,从而在SERPs获得一定的表现,对于这些网站,站长们最好是花更多的时间做目标受众调研,并且创建高质量内容做针对性的推广。
你好,

你可以采用网址前缀资源在GSC新验证你的网址,再使用拒绝工具。

另外,你可以不用过于担心。互联网是一个巨大的地方,每个站长都可能会从不太好的地方获得链接。25 年来Google一直在处理此类链接,谷歌系统在判断链接是否是垃圾链接方面做得越来越好,这个系统非常擅长忽略垃圾链接。

希望对你有所帮助。
你好,

你需要知道,出现在SERPs中需要同时满足3个条件:
  1. 你的网站/内容可供Google抓取
  2. 你的网页已经给Google索引
  3. 你的网页/内容满足(或匹配)用户的搜索查询意图
你可以通过GSC的网址检查工具查看你的网页到达哪一阶段,当我检测时,发现该网址并没有给Google索引,所以不满足第二个条件自然也就不会出现在SERPs中,


另外,当你从/news/切换至/newsroom/时,如果没有做好相应的规范,网址的变更对网站的自然表现或多或少都会有些影响。
你好,

这是正常的情况,

你需要知道,Google使用不同的用户代理进行抓取

当网站存在大量的关联资源,像CSS、JavaScript这些加载都需要Googlebot进行额外的抓取,从而增加了“网页资源加载”的比例。

所以不用过于担心。
Recommended answer
Google 搜索中心12/22/2024
为了操纵链接和排名信号而创建低价值内容。

除了通过自动化系统检测违反政策的做法以外,Google也会根据需要执行人工审核,进而采取人工处置措施。 

违反Google网络垃圾政策的网站可能会在搜索结果中排名较低,或者完全不会显示在搜索结果中。
Recommended answer
你好 Rosa,

"https://eps-machine.net有很多外链和权重但是排名一直不好...这个网站发了不少评论的外链,分值已经到了60多了..."
>单是这个,你就已经违反了Google的网络垃圾链接政策了,所以网站没有很高的权重和排名也是正常的情况,当你给你的网站注入许多“无意义/无价值”的内容,那么Google也会识别它是“无意义/无价值”的网站

*另外,如果你把中文搜索社区当作是发布外链的一个渠道,那么你这么做也是无意义和浪费时间的,同时这也会加速你的网站被“惩罚”。

希望对你有所帮助。
你好,

目前从你提供的域名来看,这个域名为绿色健康状态,表示你已经完全处理了入侵问题。

对于排名问题,

首先是,购买旧域名并不会带来任何与排名相关的优势,当一个网站消失了几年,如果之前并没有做任何内容或者优化,那么这个网站并不会有任何“权重”继承,如果之前也有经过一定的优化和内容建设,那么在“消失”几年后,该网站重新启动,Google也会重新评估这个网站,Google系统也会知道它看起来完全不同,并且提供不同的东西(与以往不同)。

所以,在这里你需要知道,你是在重新开始。

搜索结果中的排名是不断发送变化的,你不可能永远处于同一位置,确保网站没有被入侵后,多花更多的精力在内容建设上,给你的目标用户传递有价值,有帮助的内容,况且你的网站是个新站点,重新起步也才3个月的时间,所以它整体都很新,需要花时间才能建立起一定的“声誉”让Google信任它。

希望对你有所帮助。
2 upvotes
Recommended answer
你好 Lucas,

可以再次检查提供的域名是否有误?
你好 Wang,

你的页面出现两种结构化数据实现的方式,页面中Json-LD是正确的,但是还出现另一种,
  • 微数据
你的页面有以下代码,

<body data-store-currency="$" data-store-currency-code="USD" data-container="body" data-status="not-logged" data-mage-init='{"loaderAjax": {}, "loader": { "icon": "https://www.eyecedar.com/static/version1734529824/frontend/Sende/glasses/en_US/images/loader-2.gif"}}' id="html-body" itemtype="http://schema.org/Product" itemscope="itemscope" class="catalog-product-view product-cishelle page-layout-1column" data-appmode="1">
​你可以让你们的技术同事检查一遍这个代码的用途,为什么会包含 "itemtype="http://schema.org/Product"微数据的格式,如果是实施错误,则把这段代码移除,保留JSON-LD的格式即可。

希望对你有所帮助。

2 upvotes
Recommended answer
Google 搜索中心12/13/2024
小鱼丸,

你需要知道,Google SERPs是具有波动性的,也就是SERPs中的网页排名会不断发生变化,一个网页不可能一直都处在同一位置,总会有更好的内容出现,或者是用户搜索意图/习惯会发生变化。

在我检查了你的网站后,我发现你的网站很大程度是受到了Google 8月份的核心算法更新影响,Google官方提到本次更新,

...to improve the quality of our search results by showing more content that people find genuinely useful and less content that feels like it was made just to perform well on Search.

你可以通过这篇指南对核心更新有一个深入的了解,并对自身的内容进行评估

另外,我检查了你一部分网站内容,发现还有很大的提升空间,首先站在你的目标用户角度去思考
  1. 我的目标用户群是哪些类型?
  2. 他们都在寻找什么内容?
  3. 他们都使用哪些搜索词?
再通过上述的思考后围绕内容出发,
  1. 我是否有围绕这部分搜索词去拓展内容?
  2. 这些内容是否有体现自身的专业度?并且能为他们提供价值,帮助?

所以你可以发现,通过从8月份开始下降的内容对比现在SERPs的内容,你可以看到一些内容质量,时效,搜索目的差距,不同网站有不同的优化策略,有时候你会看到一些网站容易受到算法影响,有些则不会,相同的策略在不同的网站上总会表现出不同的效果,所以重新制定你网站的内容优化策略是目前最主要的,你可以通过该指南

希望对你有所帮助。
1 upvote
Recommended answer
Google 搜索中心12/13/2024
你好,

可以提供一下域名,方便我们做进一步的排查。
1 upvote
Recommended answer
当网站具备太多低质量内容被Google识别到后,Google分配的抓取需求就会逐渐减少。

建议你重新制定你的网站运营策略,重点看我第一条回复中提及的文档,
  • https://support.google.com/webmasters/thread/311594481?msgid=311763342
1 upvote
Recommended answer
通常情况下,文章发布后大约多久Google会发现页面呢?等多久文章抓取未收录表明不会收录了?有没有大致时间范围好进行准确评估呢?
>Google官方并没有给出具体的时间标准,不同量级的网站有不同的衡量方式,例如像你上个月22日发布的文章,依旧没有Googlebot发现并抓取,这个就是属于比较长的时间了,而新发布的文章,Google也会结合网站整体进行评估,例如Google觉得你的网站都是低质量内容,那么分配给你的抓取资源就更少,所以你可以结合你的GSC中Googlebot的爬取状态进行分析。
问题1:我们网站未编入的索引超过 20 多万,同时提示:网址尚未收录到 Google。这类情况是否说明,索引一直处于抓取的队列中?如果是,请问应该如何快速处理掉排队?(目前,已经没有进行提交新的网站地图文件。但是,队列中索引的处理的依然很慢)
>这里你可以参考这篇指南,里面有详细解答前两种未索引状态的解决方案;

问题2 ,网站博客以前收录的几乎全部排除收录了,仅留有4条已收录。核心网页指标中,没有良好或者优质网址是否会导致文章抓取后不收录呢? 例如https://sequone.com/en/report/amazon-vs-temu-unveiling-the-pros-and-cons-of-two-powerhouse-apps 这篇以前曾收录过,现在显示上次抓取时间2024年11月18日,目前仍未收录,是否表明谷歌不会收录此内容?
>核心网页指标状态为“待提升”或“较差”都不会影响网页是否索引,你目前主要还是内容质量的问题,建议先以提升网站网页内容质量为主
你好,

程序化批量生成的内容

如果没有给到你目标用户一定的价值和帮助,在Google看来也是属于低质量内容

建议你结合今年的8月核心算法影响去评估,很大可能是受到了此次算法的影响

另外,你需要重新调整你网站的运营策略,毕竟大批量生成页面已不再是获取流量和排名的首选方式,
一切都需要建立在以用户为中心/首选的方向上,而不是以Google/搜索引擎优先。
通常,

robots.txt 无法访问多数是托管服务提供商设置问题,例如可能屏蔽了 Googlebot,或者防火墙配置错误。

我检查了你的 robots.txt 文件,目前Googlebot可以正常访问,所以可以根据@阿福的建议,等待Google处理即可。
Recommended answer
你好 Kevin,

我在@阿福的基础上进行一个补充,

对于网页收录,需要同时满足3个步骤,
  1. Googlebot需要先发现你的网页;
  2. Googlebot需要抓取你的网页;
  3. 满足索引条件后,Google才会将你的内容编入索引;

所以,你可以通过GSC的网址检测工具查看你网站URL的状态,是到达哪一个阶段?
  • 如果只是满足1,那么它会显示,已发现 - 目前未编入索引
  • 如果满足了1和2,它会显示,已抓取 - 当前未编入索引
  • 如果满足了3个,它会显示,该网址已在搜索结果中

所以你应该先捋清自己的网页处于哪个状态,你还需要知道的是,Google每天都会抓取数十亿个页面,但不可避免地会错过一些网站/页面。 Google 不会抓取网络上的所有页面,并且 Google 不会为其抓取的所有页面编制索引。

仔细阅读@阿福分享的文档,会对你有所帮助。
Recommended answer
你好,

你的网站似乎在3个月前才上新?所以整体网站内容都非常新,

对于新网站,是需要花上一段时间才可以在Google中建立起一定的“声誉”,也就是让Google更好地的信任你,

所以在建立起“信任”这段过程中,你的网站在SERPs的表现可能会很大(不稳定),这也是正常的情况,

结合近期Google才推出11月核心算法更新,所以很大可能也受到算法更新推出的影响,

目前11月核心算法更新仍未完全推出,建议你等算法完全推出后再做整体的数据表现评估,

你可以留意该看板的动态,查询算法是否完全推出,
  • https://status.search.google.com/summary

另外,对于新网站,创建对目标用户有价值帮助的内容是基础,会在后期获得更稳定的表现,

希望对你有所帮助。
确保该链接存在你的验证资源中,

例如该链接是www资源,而你可能正处于非www资源中,则移除请求的时候会出现该提醒,

此时你需要验证www资源并在该资源中进行移除。

可以检查并测试是否有帮助。
2 upvotes
Recommended answer
你好 Kevin,

Wordpress通常可以使用Yoast插件进行完善,

如果不使用插件,那么你需要具备一定的技术基础才对可以对网站做代码调整,

正如@Porsh所讲的,通过Json-ld实施WebSite 结构化数据。

如果不知道如何对wordpress代码进行修改,可以在WP的帮助社区进行求助,
  • https://wordpress.com/support/
Recommended answer
你好 Ivan,

或许你可以提供一下错误提醒的截图,方便我们进一步协助你。
你需要修改Chrome的用户代理,刷新后才可以看到截图的界面,


另外,你可以通过该网址查到你网站黑客入侵的细节,
  • https://sitecheck.sucuri.net/results/https/www.sunymachine.com
你好,


你的网站已经给黑客入侵,并存在一定的安全风险,这个病毒会识别用户代理,当识别为正常用户时,页面会显示正确的版本,而识别是爬虫时,则会提供另一版本,正如你用工具检查的时候会变为日文页面一样。

你可以通过以下详细的文档进行处理
Recommended answer
目前来看,SERPs呈现的结果似乎存在一些问题。

你可以重新再用Wordpress的安全插件进行安全扫描,做个全面的安全检测,Wordfence的一篇指南或许会对你有一定的帮助,
  • https://www.wordfence.com/docs/how-to-clean-a-hacked-wordpress-site-using-wordfence/

如果没问题的话,再检查一下.htaccess 文件

若以上两个步骤没有检查出问题,你可以申请一个反馈

你好,

这并不意味着该 URL 不会被编入索引,

而是意味着 Google 从未发现该 URL,或者发现该 URL 但尚未抓取它,所以Google 可能暂时会将该 URL 的 HTTP 版本编入索引,显示该错误提示。

通过@阿福的检测,发现你网站SSL实施并没有问题,所以不用太过担心该提示,当Googlebot下一次抓取的时候,该提示会消失。
你好 Sandy,

sitemap提交成功,说明GSC中已经接收到这个信息,Googlebot需要安排时间对sitemap进行抓取,对于新站点来说,具体的时间少则3天,多则数周(4~5周);而且sitemap提交成功不代表对URL进行抓取,URL抓取成功不代表其索引;


当我查看你网页在SERPs中的索引数量,目前是5个,相比于6天前数量也是在增加的,这也是一个好的趋势,Googlebot每天要处理的任务非常多,更何况是新站点,在Google中没有一定的“声誉值”,所以过程上需要花费不少的时间;

另外,你在GSC中查看页面索引状态需要查看“已提交”部分,而不是所有已知网页,这个部分才是核心,我会建议你,可以花些时间去推广你的网站,增加它的曝光度,一定程度上也会增加Googlebot发现和爬取网页的机率,
Recommended answer
我查看了你添加的function字段没有标明“tag"页面,你可以尝试在function.php添加以下字段,

function remove_noindex() {
  if ( is_singular('tag') ) { 
    echo '<meta name="robots" content="index, follow" />';
  }
}
add_action( 'wp_head', 'remove_noindex' );

另外,大量的tag的页面并不能很好的满足Google的质量标准,很大几率会违反Google的垃圾内容政策
大量的tag页面开放给Google抓取索引后,如果质量低下,反而对网站会造成负面影响,建议站在用户角度去思考,而不是搜索引擎优先。

如果上述字段无法修改WP的noindex标签,你可以在Wordpress社区寻求帮助。

如果你只是刚使用则出现该提示,那么很大可能是Google端的问题,你可以尝试:
  1. 清除Chrome缓存;
  2. 更换浏览器测试;
  3. GSC添加另一管理账号;
Hello there,

Google now has a high probability of changing the title and description of your website because it recognizes the user's search query terms and provides them with relevant and well-matched results, and when Google feels that there is something better to summarize your page title, then it will show a different title in the search results.

Also, your title doesn't meet Google's standards because it's not concise and there's repetition, keyword stacking

You need to read the following guidelines and re-optimize your homepage title.
Google 搜索中心11/5/2024
你好,

当我浏览你的文章时,似乎不是真正的”原创文章“,

你是否借用AI工具进行内容撰写?如果是,那么这些内容并非原创内容,AI只是进行对现有内容进行整合,并非可达到”原创“。

可以站在Google角度思考,互联网内容以数千亿计,如果你的内容和现有的并没有太大的区别,或者无法提供新的价值给用户,在索引资源有限的条件下,Google为何要索引这些内容?

站长们可以花时间了解以下文档,
更多地站在目标用户的角度思考,究竟用户们需要哪些内容?我是否可以提供更加独特的内容给用户。

希望对你有所帮助。
Recommended answer
你好,

服务器的性能是影响LCP分数其中的一个因素,但是也受主要资源的影响,例如图片、CSS、JS数量,大小,类型和加载方式。

你可以通过以下文档了解更多关于LCP的细节,
希望对你有所帮助。
Recommended answer
你好,

Shopify的PageSpeedInsight分数很大程度受到使用的主题和安装的APP影响,

但网站体验分数实际上对网站的自然表现影响非常小,

这不是你目前应该关注的方向,

对于新网站,可以把更多时间用在目标客户群调研,提升网站内容质量上,

如果你想了解Shopify如何提升网站速度,可以到Shopify帮助社区,或者
  • https://help.shopify.com/en/manual/online-store/web-performance/improving-web-performance
如果收录前是A语言版本,后续更新为B语言版本,那么这些网页后续的表现会出现波动,你需要观察GSC的表现报告。

建议是尽量翻译后再开放给Google抓取。
首先,你需要通过GSC表现报告获取更多数据,
时间维度可取,开始下降时间与同一周期比较
  1. 着陆页
  2. 搜索查询词
  3. 国家/区域

获取上述数据以了解更多下降的指标,也可以参考:
另外,我查看了你的网站和内容,目前你的排名和曝光的流量来源关键字不是很稳定,你更应该站在用户角度去思考,
  • 他们使用那些搜索词进行搜索?
  • 他们进行搜索是想了解哪些内容?
  • 你是否围绕他们的搜索意图进行内容优化?

通过上述步骤再去制定内容优化策略,需要通过一定的时间去检验。
1 upvote
Recommended answer
Hello Susan,

Google now has a high probability of changing the title and description of your website because it recognizes the user's search query terms and provides them with relevant and well-matched results, and when Google feels that there is something better to summarize your page title, then it will show a different title in the search results.

Secondly, when you search using your website “belffin.com”, and Google recognizes that you are looking for this website, which is more brand related, it shows you the brand name title “Belffin”, similar to a navigational search.

If you want to check the indexing status of a page in the SERPs, you can use the “site:” operator.


Hope this helps.
Recommended answer
你好 Chen,

如果你的网站刚上线,则Google需要时间去发现它,再进行抓取处理,当满足条件时,才会进入索引库,这需要花上一定的时间。

手动提交/站点地图 都是主动提交的方式,在一定程度上可以帮助Google快速发现这些网页,

但GSC中的报告不是实时更新的,各报告会存在不同程度的延迟,例如页面索引报告,它更新时间时3~5天为一个周期,

所以当你使用网址检测工具进行实时检测时,是实时最新的状态,而在页面索引报告需要3~5天的更新时间。
Recommended answer
你好,

如果你的网站具备多语言版本,你可以将这些不同语言版本告知 Google,从而帮助 Google 了解你的网站。
你好 Wang,

不用过于担心。 互联网是一个巨大的地方,每个站长都可能会从不太好的地方获得链接。

25 年来Google一直在处理此类链接,谷歌系统在判断链接是否是垃圾链接方面做得越来越好,这个系统非常擅长忽略垃圾链接。 

所以这不是你需要优先考虑的事情,在大多数情况下,Google 无需额外指导即可评估哪些链接值得信任,因此大多数网站不需要使用此工具。

希望对你有所帮助。
1 upvote
Recommended answer
DMCA 上限是1000个例子,

所以,你可以摘取部分网页即可,并在描述中详细解释。
如果涉及侵权,你有没有尝试过DMCA报告?
  • https://reportcontent.google.com/forms/dmca_search
false
15393591254948523127
true
Search Help Center
true
true
true
true
true
102095
Search
Clear search
Close search
Main menu
false