点击关注我的Telegram群组和微信公众号

MENU

屏蔽MJ12bot等恶意网页爬虫

2020 年 07 月 11 日 • 阅读: 224 • 技术,教程

过去几个月总是在过一段时间后收到服务器资源负载过高的警告,基本上每次上机检查日志都会发现某个网站被奇怪的恶意爬虫给完整检查了一遍。而且不知道为什么MJ12bot总是会检查一些无限重定向的链接,导致服务器资源被无意义地消耗。


几个资源消耗比较高的爬虫包括:

  • dotbot
  • SemrushBot
  • MJ12bot

    • 我特别建议屏蔽MJ12bot,因为一些版权方会使用这家的爬虫来批量检查网站中是否包含侵犯版权的文件
  • SMTBot

对于这些爬虫建议直接在robots.txt中屏蔽掉它们,目前复查日志发现至少它们确实是遵守robots.txt规则的

User-agent: dotbot
Disallow: /

User-agent: SemrushBot
Disallow: /

User-agent: MJ12bot
Disallow: /

User-agent: SMTBot
Disallow: /

User-agent: PetalBot
Disallow: /

User-agent: AhrefsBot
Disallow: /

User-agent: CheckMarkNetwork
Disallow: /

User-agent: DigiCert DCV Bot
Disallow: /
最后编辑于: 2020 年 08 月 18 日
返回文章列表 文章二维码 打赏
本页链接的二维码
打赏二维码