默认 - 所有搜索引擎蜘蛛:
检索间隔:
Sitemap: (留空为无)
国内搜索引擎: 百度
Baiduspider
搜狗
sogou spider
360好搜
360Spider
神马
YisouSpider
头条
Bytespider
国外搜索引擎: 谷歌
Googlebot
必应
Bingbot
雅虎
Slurp
Ask/Teoma
teoma
Alexa/Wayback
ia_archiver
Cuil
twiceler
MSN Search
MSNBot
Scrub The Web
Scrubby
DMOZ
Robozilla
GigaBlast
Gigabot
特殊搜索引擎(机器人): Google Image
googlebot-image
Google Mobile
googlebot-mobile
Yahoo MM
yahoo-mmcrawler
MSN PicSearch
psbot
Yahoo Blogs
yahoo-blogs/v3.9
限制目录: 路径是相对的,但每个路径之前都要包含:"/"
工具说明

robots文件在线生成说明

ROBOTS.TXT(统一小写)是一种存放于网站根目录下的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎蜘蛛获取的,哪些是可以被(蜘蛛)获取的。
因为一些系统中的URL是大小写敏感的,所以ROBOTS.TXT的文件名应统一为小写。ROBOTS.TXT应放置于网站的根目录下。
如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的ROBOTS.TXT,或者使用robots元数据。
ROBOTS.TXT协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意ROBOTS.TXT是用字符串比较来确定是否获取URL,所以目录末尾有与没有斜杠“/”表示的是不同的URL。ROBOTS.TXT允许使用类似”Disallow: *.gif”这样的通配符。
Robots协议是国际互联网界通行的道德规范,基于以下原则建立:1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

ROBOTS.TXT文件内容

搜索引擎蜘蛛的是否可访问性或者说可爬行性。
搜索引擎蜘蛛针对目录或者文件的可访问性。
网站站点地图sitemap路径定义。
搜索引擎蜘蛛爬行的时间间隔限制。

关于ROBOTS.TXT文件生成器

通过web界面设置好要配置的数据, 点击生成器的生成即可在最下方的文本输入框获得ROBOTS.TXT的文件内容。
现在,你创建一个空白的文本文件,命名为:“ROBOTS.TXT”,然后把上面的内容,复制并粘贴到“ROBOTS.TXT”中去。
把“ROBOTS.TXT”放在你网站的根目录,访问ROBOTS.TXT,确保他能让访问者(如搜索引擎)访问到。

更新日志

发布时间:2024年03月01日上线!
更新时间:2024年04月3日修复部分搜索引擎选中的情况下无法生成的BUG。

相关导航

暂无评论

本文暂时没有评论,来添加一个吧(●'◡'●)