当前位置: 欣欣网 > 码农

10 万 + 并发去重,持续优化!

2024-05-24码农

推荐关注

扫码关注后端架构师」,选择星标公众号

重磅干货,第一时间送达!

责编:架构君 | 来源:jaskey.github.io/blog/2020/05/19/handle-duplicate-request/

上一篇好文:

大家好,我是后端架构师。

  • 01、利用唯一请求编号去重

  • 02、业务参数去重

  • 03、计算请求参数的摘要作为参数标识

  • 04、继续优化,考虑剔除部分时间因子

  • 05、请求去重工具类,Java实现

  • 06、总结

  • 对于一些用户 请求 ,在某些情况下是可能 重复 发送的,如果是查询类操作并无大碍,但其中有些是涉及写入操作的,一旦 重复 了,可能会导致很严重的后果,例如交易的接口如果 重复请求 可能会 重复 下单。

    重复的场景有可能是:

    1. 黑客拦截了请求,重放

    2. 前端/客户端因为某些原因 请求重复 发送了,或者用户在很短的时间内 重复 点击了。

    3. 网关重发

    4. ….

    本文讨论的是如果在服务端优雅地统一处理这种情况,如何禁止用户重复点击等客户端操作不在本文的讨论范畴。

    01、利用唯一请求编号去重

    你可能会想到的是,只要 请求 有唯一的 请求 编号,那么就能借用Redis做这个去重——只要这个唯一 请求 编号在redis存在,证明处理过,那么就认为是 重复

    代码大概如下:

    String KEY = "REQ12343456788";//请求唯一编号
    long expireTime = 1000;// 1000毫秒过期,1000ms内的重复请求会认为重复
    long expireAt = System.currentTimeMillis() + expireTime;
    String val = "expireAt@" + expireAt;
    //redis key还存在的话要就认为请求是重复的
    Boolean firstSet = stringRedisTemplate.execute((RedisCallback<Boolean>) connection -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime), RedisStringCommands.SetOption.SET_IF_ABSENT));
    final boolean isConsiderDup;
    if (firstSet != null && firstSet) {// 第一次访问
    isConsiderDup = false;
    else {// redis值已存在,认为是重复了
    isConsiderDup = true;
    }

    02、业务参数去重

    上面的方案能解决具备唯一请求编号的场景,例如每次写 请求 之前都是服务端返回一个唯一编号给客户端,客户端带着这个 请求 号做 请求 ,服务端即可完成去重拦截。

    但是,很多的场景下,请求并不会带这样的唯一编号!那么我们能否针对请求的参数作为一个请求的标识呢?

    先考虑简单的场景,假设 请求 参数只有一个字段reqParam,我们可以利用以下标识去判断这个 请求 是否 重复 用户ID:接口名: 请求 参数

    String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParam; 

    那么当同一个用户访问同一个接口,带着同样的reqParam过来,我们就能定位到他是重复的了。

    但是问题是,我们的接口通常不是这么简单,以目前的主流,我们的参数通常是一个JSON。那么针对这种场景,我们怎么去重呢?另外,搜索公众号顶级科技后台回复「理财」,获取一份惊喜礼包。

    03、计算请求参数的摘要作为参数标识

    假设我们把 请求 参数(JSON)按KEY做升序排序,排序后拼成一个字符串,作为KEY值呢?但这可能非常的长,所以我们可以考虑对这个字符串求一个MD5作为参数的摘要,以这个摘要去取代reqParam的位置。

    String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParamMD5; 

    这样,请求的唯一标识就打上了!

    注:MD5理论上可能会 重复 ,但是去重通常是短时间窗口内的去重(例如一秒),一个短时间内同一个用户同样的接口能拼出不同的参数导致一样的MD5几乎是不可能的。

    04、继续优化,考虑剔除部分时间因子

    上面的问题其实已经是一个很不错的解决方案了,但是实际投入使用的时候可能发现有些问题:某些 请求 用户短时间内重复的点击了(例如1000毫秒发送了三次 请求 ),但绕过了上面的去重判断(不同的KEY值)。

    原因是这些请求参数的字段里面, 是带时间字段的 ,这个字段标记用户请求的时间,服务端可以借此丢弃掉一些老的请求(例如5秒前)。如下面的例子,请求的其他参数是一样的,除了请求时间相差了一秒:

     //两个请求一样,但是请求时间差一秒
    String req = "{\n" +
    "\"requestTime\" :\"20190101120001\",\n" +
    "\"requestValue\" :\"1000\",\n" +
    "\"requestKey\" :\"key\"\n" +
    "}";
    String req2 = "{\n" +
    "\"requestTime\" :\"20190101120002\",\n" +
    "\"requestValue\" :\"1000\",\n" +
    "\"requestKey\" :\"key\"\n" +
    "}";

    这种请求,我们也很可能需要挡住后面的 重复 请求。所以求业务参数摘要之前,需要剔除这类时间字段。还有类似的字段可能是GPS的经纬度字段( 重复 请求间可能有极小的差别)。

    05、请求去重工具类,Java实现

    public class ReqDedupHelper {
    /**
    *
    * @param reqJSON 请求的参数,这里通常是JSON
    * @param excludeKeys 请求参数里面要去除哪些字段再求摘要
    * @return 去除参数的MD5摘要
    */
    public String dedupParamMD5(final String reqJSON, String... excludeKeys) {
    String decreptParam = reqJSON;
    TreeMap paramTreeMap = JSON.parseObject(decreptParam, TreeMap. class);
    if (excludeKeys!=null) {
    List<String> dedupExcludeKeys = Arrays.asList(excludeKeys);
    if (!dedupExcludeKeys.isEmpty()) {
    for (String dedupExcludeKey : dedupExcludeKeys) {
    paramTreeMap.remove(dedupExcludeKey);
    }
    }
    }
    String paramTreeMapJSON = JSON.toJSONString(paramTreeMap);
    String md5deDupParam = jdkMD5(paramTreeMapJSON);
    log.debug("md5deDupParam = {}, excludeKeys = {} {}", md5deDupParam, Arrays.deepToString(excludeKeys), paramTreeMapJSON);
    return md5deDupParam;
    }
    private static String jdkMD5(String src) {
    String res = null;
    try {
    MessageDigest messageDigest = MessageDigest.getInstance("MD5");
    byte[] mdBytes = messageDigest.digest(src.getBytes());
    res = DatatypeConverter.printHexBinary(mdBytes);
    } catch (Exception e) {
    log.error("",e);
    }
    return res;
    }
    }


    下面是一些测试日志:

    public static void main(String[] args) {
    //两个请求一样,但是请求时间差一秒
    String req = "{\n" +
    "\"requestTime\" :\"20190101120001\",\n" +
    "\"requestValue\" :\"1000\",\n" +
    "\"requestKey\" :\"key\"\n" +
    "}";
    String req2 = "{\n" +
    "\"requestTime\" :\"20190101120002\",\n" +
    "\"requestValue\" :\"1000\",\n" +
    "\"requestKey\" :\"key\"\n" +
    "}";
    //全参数比对,所以两个参数MD5不同
    String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req);
    String dedupMD52 = new ReqDedupHelper().dedupParamMD5(req2);
    System.out.println("req1MD5 = "+ dedupMD5+" , req2MD5="+dedupMD52);
    //去除时间参数比对,MD5相同
    String dedupMD53 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");
    String dedupMD54 = new ReqDedupHelper().dedupParamMD5(req2,"requestTime");
    System.out.println("req1MD5 = "+ dedupMD53+" , req2MD5="+dedupMD54);
    }


    日志输出:

    req1MD5 = 9E054D36439EBDD0604C5E65EB5C8267 , req2MD5=A2D20BAC78551C4CA09BEF97FE468A3F
    req1MD5 = C2A36FED15128E9E878583CAAAFEFDE9 , req2MD5=C2A36FED15128E9E878583CAAAFEFDE9

    日志说明:

  • 一开始两个参数由于requestTime是不同的,所以求去重参数摘要的时候可以发现两个值是不一样的

  • 第二次调用的时候,去除了requestTime再求摘要(第二个参数中传入了」requestTime」),则发现两个摘要是一样的,符合预期。

  • 06、总结

    至此,我们可以得到完整的去重解决方案,如下:

    String userId= "12345678";//用户
    String method = "pay";//接口名
    String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");//计算请求参数摘要,其中剔除里面请求时间的干扰
    String KEY = "dedup:U=" + userId + "M=" + method + "P=" + dedupMD5;
    long expireTime = 1000;// 1000毫秒过期,1000ms内的重复请求会认为重复
    long expireAt = System.currentTimeMillis() + expireTime;
    String val = "expireAt@" + expireAt;
    // NOTE:直接SETNX不支持带过期时间,所以设置+过期不是原子操作,极端情况下可能设置了就不过期了,后面相同请求可能会误以为需要去重,所以这里使用底层API,保证SETNX+过期时间是原子操作
    Boolean firstSet = stringRedisTemplate.execute((RedisCallback<Boolean>) connection -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime),
    RedisStringCommands.SetOption.SET_IF_ABSENT));
    final boolean isConsiderDup;
    if (firstSet != null && firstSet) {
    isConsiderDup = false;
    else {
    isConsiderDup = true;
    }


    欢迎大家进行观点的探讨和碰撞,各抒己见。如果你有疑问,也可以找我沟通和交流。扩展:

    最后给大家推荐一个ChatGPT 4.0国内网站,是我们团队一直在使用的,我们对接是OpenAI官网的账号,给大家打造了一个一模一样ChatGPT,很多粉丝朋友现在也都通过我拿这种号,价格不贵,关键还有售后。

    一句话说明:用官方一半价格的钱,一句话说明:用跟官方 ChatGPT4.0 一模一样功能,无需魔法,无视封号,不必担心次数不够。

    最大优势:可实现会话隔离!突破限制:官方限制每个账号三小时可使用40次4.0本网站可实现次数上限之后,手动切换下一个未使用的账号【相当于一个4.0帐号,同享受一百个账号轮换使用权限】

    最后,再次推荐下我们的AI星

    为了跟上AI时代我干了一件事儿,我创建了一个知识星球社群:ChartGPT与副业。想带着大家一起探索ChatGPT和新的AI时代

    有很多小伙伴搞不定ChatGPT账号,于是我们决定,凡是这四天之内加入ChatPGT的小伙伴,我们直接送一个正常可用的永久ChatGPT独立账户。

    不光是增长速度最快,我们的星球品质也绝对经得起考验,短短一个月时间,我们的课程团队发布了8个专栏、18个副业项目:

    简单说下这个星球能给大家提供什么:


    1、不断分享如何使用ChatGPT来完成各种任务,让你更高效地使用ChatGPT,以及副业思考、变现思路、创业案例、落地案例分享。

    2、分享ChatGPT的使用方法、最新资讯、商业价值。

    3、探讨未来关于ChatGPT的机遇,共同成长。

    4、帮助大家解决ChatGPT遇到的问题。

    5、提供一整年的售后服务,一起搞副业

    星球福利:

    1、加入星球4天后,就送ChatGPT独立账号。

    2、邀请你加入ChatGPT会员交流群。

    3、赠送一份完整的ChatGPT手册和66个ChatGPT副业赚钱手册。


    其它福利还在筹划中... 不过,我给你大家保证,加入星球后,收获的价值会远远大于今天加入的门票费用 !

    本星球第一期原价399,目前属于试运营,早鸟价169,每超过50人涨价10元,星球马上要来一波大的涨价,如果你还在犹豫,可能最后就要以更高价格加入了。。

    早就是优势。建议大家尽早以便宜的价格加入!

    PS: 如果觉得我的分享不错,欢迎大家随手点赞、转发、在看。

    最后给读者整理了一份BAT大厂面试真题,需要的可扫码加微信备注:「 面试 」获取。

    版权申明:内容来源网络,版权归原创者所有。除非无法确认,我们都会标明作者及出处,如有侵权烦请告知,我们会立即删除并表示歉意。谢谢!

    END

    最近面试BAT,整理一份面试资料【Java面试BAT通关手册】,覆盖了Java核心技术、JVM、Java并发、SSM、微服务、数据库、数据结构等等。在这里,我为大家准备了一份2021年最新最全BAT等大厂Java面试经验总结。

    别找了,想获取史上最全的Java大厂面试题学习资料

    扫下方二维码回复面试就好了

    历史好文:

    扫码关注后端架构师」,选择星标公众号

    重磅干货,第一时间送达!