Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 5|回復: 0

并保持网站的其余部分以应有的方式可见

[複製鏈接]

1

主題

1

帖子

5

積分

新手上路

Rank: 1

積分
5
發表於 16:15:55 | 顯示全部樓層 |閱讀模式
镜像页面 镜像页面是单独服务器/位置上页面的相同副本。如果对其进行爬网和索引,它们将被视为技术重复项。 特别优惠和广告登陆页面 特别优惠和广告页面仅在用户完成任何特殊操作或在特定时间段(特别优惠、活动等)后才对用户可见。活动结束后,这些页面不必被任何人看到,包括搜索引擎。  加入我们的 30 天 SEO 课程,每天将一堂超级简单的 SEO 课程发送到您的收件箱。 电子邮件地址 如何在搜索中隐藏页面 现在的问题是:如何对讨厌的蜘蛛隐藏上述所有页面, 当您设置搜索引擎的说明时,您有两个选择。您可以限制抓取,也可以限制页面的索引。 限制robots.txt文件的抓取 限制搜索引擎爬虫访问您的页面的最简单、最直接的方法可能是创建 文件。文件可让您主动将所有不需要的内容排除在搜索结果之外。

使用此文件,您可以限制对单个页面、整个目录甚至单个图像或文件的访问。 怎么运行的 马来西亚电话号码数据 创建 robots.txt 文件 该过程非常简单。您只需创建一个包含以下字段的中,您识别有问题的爬虫; 禁止: – 2 行或更多行指示指定的爬网程序不要访问站点的某些部分。 请注意,某些抓取工具(例如 Google)还支持名为“Allow:”的附加字段。顾名思义,允许:允许您显式列出可以爬网的文件/文件夹。 以下是解释 robots.txt 文件的一些基本示例。 User-agent行 中的* 表示指示所有搜索引擎机器人不要抓取您的任何网站页面,用/表示。最有可能的是,这就是您宁愿避免的情况,但现在您明白了。 通过上面的示例,您可以限制 Google 的图像机器人抓取所选目录中的图像。




您可以在 Google 开发者指南中找到有关如何手动编写此类文件的更多说明。但如果其他页面通过描述性文本指向这些页面,这些页面的 URL 仍可能被编入索引。然后,受限制的 URL 可能会出现在搜索结果中,但没有说明,因为内容不会被爬网和索引。 不将robots.txt文件放置到主目录 3) 通过以下方式留下禁止指令来阻止您的整个网站(除非您愿意) 4) 错误指定用户代理 5) 每一行禁止提及多个目录。每个页面或目录需要单独的一行 6) 将用户代理行留空 7)列出目录中的所有文件。如果它是您隐藏的整个目录,则无需费心列出每个文件没有在robots.txt文件底部说明站点地图 10) 在文件中添加noindex指令 使用 robots 元标记和 X-Robots-tag 限制索引 使用 robots noindex 元标记或 X-Robots-tag 将使搜索引擎机器人抓取并访问您的页面,但会阻止页面进入索引,即出现在搜索结果中。 现在让我们仔细看看每个选项。

回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|z

GMT+8, 02:25 , Processed in 0.057184 second(s), 18 queries .

抗攻擊 by GameHost X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |