例如亚马逊云UA应当为
AmazonS3
但是有时候会收到如下字样,被蜘蛛机器人爬虫访问
AmazonS3/Googlebot
解决办法
请求控制header匹配模块,勾选非,目标设置为拒绝
attr为User-Agent
val正则内容为
代表服务器仅允许接受添加过的ua访问,其它任何不在此白名单的任何ua均全部都响应403错误码
晓白博客网版权所有,原文地址https://www.xbnb.cn/2905
© 版权声明
文章版权归作者所有,未经允许禁止转载。
有事联系邮箱xbnbcn@126.com
有事联系邮箱xbnbcn@126.com
THE END
登录后才能查看这里的内容哦