news 2026/3/5 22:18:18

如何让 MyBatis 批量插入从5分钟缩短到3秒?我的三个关键优化

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
如何让 MyBatis 批量插入从5分钟缩短到3秒?我的三个关键优化

上周接了个数据迁移的活,要把10万条数据从老系统导入新系统。

写了个简单的批量插入,跑起来一看——5分钟。

领导说太慢了,能不能快点?

折腾了一下午,最后优化到3秒,记录一下过程。

01

最初的代码(5分钟)

最开始写的很简单,foreach循环插入:

// 方式1:循环单条插入(最慢) for (User user : userList) { userMapper.insert(user); }

10万条数据,每条都要走一次网络请求、一次SQL解析、一次事务提交。

算一下:假设每条插入需要3ms,10万条就是300秒 = 5分钟。

这是最蠢的写法,但我见过很多项目都这么写。

02

次优化:批量SQL(30秒)

把循环插入改成批量SQL:

<!-- Mapper.xml --> <insertid="batchInsert"> INSERT INTO user (name, age, email) VALUES <foreachcollection="list"item="item"separator=","> (#{item.name}, #{item.age}, #{item.email}) </foreach> </insert>
// 分批插入,每批1000条 int batchSize = 1000; for (int i = 0; i < userList.size(); i += batchSize) { int end = Math.min(i + batchSize, userList.size()); List<User> batch = userList.subList(i, end); userMapper.batchInsert(batch); }

从5分钟降到30秒,提升10倍。

原理:一条SQL插入多条数据,减少网络往返次数。

但还有问题:30秒还是太慢。

03

次优化:JDBC批处理(8秒)

MySQL有个参数叫 rewriteBatchedStatements ,开启后可以把多条INSERT合并成一条。

第一步:修改数据库连接URL

jdbc:mysql://localhost:3306/test?rewriteBatchedStatements=true

第二步:使用MyBatis的批处理模式

@Autowired private SqlSessionFactory sqlSessionFactory; publicvoidbatchInsertWithExecutor(List<User> userList){ try (SqlSession sqlSession = sqlSessionFactory.openSession(ExecutorType.BATCH)) { UserMapper mapper = sqlSession.getMapper(UserMapper.class); int batchSize = 1000; for (int i = 0; i < userList.size(); i++) { mapper.insert(userList.get(i)); if ((i + 1) % batchSize == 0) { sqlSession.flushStatements(); sqlSession.clearCache(); } } sqlSession.flushStatements(); sqlSession.commit(); } }

从30秒降到8秒。

原理: ExecutorType.BATCH 模式下,MyBatis会缓存SQL,最后一次性发送给数据库执行。配合 rewriteBatchedStatements=true ,MySQL驱动会把多条INSERT合并。

04

次优化:多线程并行(3秒)

8秒还是不够快,上多线程:

publicvoidparallelBatchInsert(List<User> userList){ int threadCount = 4; // 根据数据库连接池大小调整 int batchSize = userList.size() / threadCount; ExecutorService executor = Executors.newFixedThreadPool(threadCount); List<Future<?>> futures = new ArrayList<>(); for (int i = 0; i < threadCount; i++) { int start = i * batchSize; int end = (i == threadCount - 1) ? userList.size() : (i + 1) * batchSize; List<User> subList = userList.subList(start, end); futures.add(executor.submit(() -> { batchInsertWithExecutor(subList); })); } // 等待所有任务完成 for (Future<?> future : futures) { try { future.get(); } catch (Exception e) { thrownew RuntimeException(e); } } executor.shutdown(); }

从8秒降到3秒。

注意事项:

  • 线程数不要超过数据库连接池大小

  • 如果需要事务一致性,这个方案不适用

  • 要考虑主键冲突的问题

05

优化效果对比

方案

耗时

提升倍数

循环单条插入

300秒

基准

批量SQL

30秒

10倍

JDBC批处理

8秒

37倍

多线程并行

3秒

100倍

06

踩过的坑

坑1:foreach拼接SQL过长

<foreach collection="list" item="item" separator=",">

如果一次插入太多条,SQL会非常长,可能超过 maxallowedpacket 限制。

解决: 分批插入,每批500-1000条。

坑2:rewriteBatchedStatements不生效

检查几个点:

  • URL参数是否正确: rewriteBatchedStatements=true

  • 是否使用了 ExecutorType.BATCH

  • MySQL驱动版本是否太旧

坑3:自增主键返回问题

批量插入时想获取自增主键:

<insertid="batchInsert"useGeneratedKeys="true"keyProperty="id">

注意: rewriteBatchedStatements=true 时,自增主键返回可能有问题,需要升级MySQL驱动到8.0.17+。

坑4:内存溢出

10万条数据一次性加载到内存,可能OOM。

解决:分页读取 + 分批插入。

int pageSize = 10000; int total = countTotal(); for (int i = 0; i < total; i += pageSize) { List<User> page = selectByPage(i, pageSize); batchInsertWithExecutor(page); }

07

最终方案代码

@Service publicclassBatchInsertService{ @Autowired private SqlSessionFactory sqlSessionFactory; /** * 高性能批量插入 * 10万条数据约3秒 */ publicvoidhighPerformanceBatchInsert(List<User> userList){ if (userList == null || userList.isEmpty()) { return; } int threadCount = Math.min(4, Runtime.getRuntime().availableProcessors()); int batchSize = (int) Math.ceil((double) userList.size() / threadCount); ExecutorService executor = Executors.newFixedThreadPool(threadCount); CountDownLatch latch = new CountDownLatch(threadCount); for (int i = 0; i < threadCount; i++) { int start = i * batchSize; int end = Math.min((i + 1) * batchSize, userList.size()); if (start >= userList.size()) { latch.countDown(); continue; } List<User> subList = new ArrayList<>(userList.subList(start, end)); executor.submit(() -> { try { doBatchInsert(subList); } finally { latch.countDown(); } }); } try { latch.await(); } catch (InterruptedException e) { Thread.currentThread().interrupt(); } executor.shutdown(); } privatevoiddoBatchInsert(List<User> userList){ try (SqlSession sqlSession = sqlSessionFactory.openSession(ExecutorType.BATCH, false)) { UserMapper mapper = sqlSession.getMapper(UserMapper.class); for (int i = 0; i < userList.size(); i++) { mapper.insert(userList.get(i)); if ((i + 1) % 1000 == 0) { sqlSession.flushStatements(); sqlSession.clearCache(); } } sqlSession.flushStatements(); sqlSession.commit(); } } }

08

总结

优化点

关键配置

批量SQL

foreach拼接,分批1000条

JDBC批处理

rewriteBatchedStatements=true+ExecutorType.BATCH

多线程

线程数 ≤ 连接池大小

核心原则: 减少网络往返 + 减少事务次数 + 并行处理。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/22 9:06:19

救命神器2026最新!9款AI论文写作软件测评:本科生毕业论文必备

救命神器2026最新&#xff01;9款AI论文写作软件测评&#xff1a;本科生毕业论文必备 2026年AI论文写作工具测评&#xff1a;为何值得一看&#xff1f; 随着人工智能技术的不断进步&#xff0c;AI写作工具在学术领域的应用愈发广泛。对于本科生而言&#xff0c;撰写毕业论文不仅…

作者头像 李华
网站建设 2026/2/16 14:44:22

AI测试用例生成的数据驱动革命:从真实行为到精准覆盖

1. 数据驱动的核心价值重构 传统测试用例设计依赖测试人员经验&#xff0c;难以应对现代系统的复杂性。数据驱动模式通过采集真实用户行为数据&#xff08;如操作序列、输入分布、异常路径&#xff09;&#xff0c;构建动态测试模型。某电商平台实践显示&#xff0c;采用用户行…

作者头像 李华
网站建设 2026/3/1 4:56:17

2026年8款降AI率工具亲测推荐:知网维普双平台实测通过

2026年8款降AI率工具亲测推荐&#xff1a;知网维普双平台实测通过 67%。 这是知网给我论文的AI检测结果&#xff0c;但那篇论文是我熬了整整一周&#xff0c;查了四十多篇文献&#xff0c;一个字一个字敲出来的。看到这个数字的时候&#xff0c;离答辩只剩五天。 后来我用嘎…

作者头像 李华
网站建设 2026/2/19 8:49:02

程序员必备:3款软著材料生成工具实测,最快30分钟出稿

上个月帮朋友的创业公司申请软著&#xff0c;光是整理60页源代码就花了我一个周末。代码从各个文件复制过来&#xff0c;调格式、加页眉页码、删注释、凑行数&#xff0c;整个人都麻了。 后来发现有专门生成软著材料的工具&#xff0c;30分钟就能搞定我折腾两天的活。试了三款…

作者头像 李华
网站建设 2026/2/17 9:16:34

知网AIGC检测不通过?3招搞定,附避坑清单

知网AIGC检测不通过&#xff1f;3招搞定&#xff0c;附避坑清单 我改了三遍&#xff0c;AI率从45%涨到了62%。 是的&#xff0c;越改越高。因为我用豆包帮忙改写&#xff0c;结果AI改AI&#xff0c;换了种AI味道&#xff0c;知网照样能识别出来。 后来我换了个思路&#xff…

作者头像 李华