mysql如何通过批量操作提高性能_mysql批量处理技巧

来源:这里教程网 时间:2026-02-28 20:50:36 作者:

批量插入用 INSERT ... VALUES 多值语法,别用循环单条插入

单条

INSERT INTO t (a,b) VALUES (1,2)
执行 1000 次,和一条
INSERT INTO t (a,b) VALUES (1,2),(3,4),(5,6),...,(1999,2000)
执行 1 次,性能差距可达 10 倍以上。MySQL 解析、权限校验、日志写入等开销被大幅摊薄。

实操建议:

每批控制在 1000–5000 行之间;超过 1 万行可能触发
max_allowed_packet
限制或锁表时间过长
显式指定列名,避免因表结构变更导致批量失败 若数据来自应用层,拼接前做空值/类型预检,否则某一行出错会导致整批回滚

大批量更新优先用 JOIN + 临时表,慎用 WHERE IN (子查询)

UPDATE t1 SET status=1 WHERE id IN (SELECT id FROM t2 WHERE flag=1)
在 MySQL 5.7 及以前极易触发全表扫描或临时表膨胀,执行缓慢且容易锁表。

更稳的替代方案:

先将目标 ID 写入临时表:
CREATE TEMPORARY TABLE tmp_ids AS SELECT id FROM t2 WHERE flag=1
再用 JOIN 更新:
UPDATE t1 JOIN tmp_ids ON t1.id = tmp_ids.id SET t1.status = 1
确保
t1.id
tmp_ids.id
都有索引,否则 JOIN 会变慢

删除大量数据时分批 + LIMIT,避免长事务和 binlog 爆满

直接

DELETE FROM logs WHERE created_at  可能锁表几十秒,同时生成巨量 binlog,主从延迟飙升,甚至填满磁盘。

安全做法是切片删除:

用主键或自增 ID 分段,例如:
DELETE FROM logs WHERE id BETWEEN 100000 AND 199999 AND created_at 
每次删完加
SLEEP(0.1)
(应用层控制),降低 I/O 压力
配合
SELECT MIN(id), MAX(id) FROM logs WHERE created_at  动态确定范围,避免漏删

LOAD DATA INFILE 是最快导入方式,但要注意权限与路径限制

比任何 INSERT 都快 5–20 倍,本质是服务端直接读文件解析,绕过网络和协议解析开销。

常见卡点:

LOAD DATA INFILE
默认只允许读取 MySQL 服务所在机器的文件,
LOCAL INFILE
需客户端和服务端都开启(
local_infile=ON
),且部分云数据库禁用
字段分隔符、换行符必须严格匹配,否则整行跳过不报错,静默丢数据 中文乱码大概率是文件编码非
utf8mb4
,建表时用
CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci
,导入时加
CHARACTER SET utf8mb4
实际批量操作最易被忽略的是事务边界和错误恢复——比如分批更新中途失败,没记录已处理的最大 ID,下次重跑就重复或遗漏。宁可多存一个 checkpoint 表,也别靠“凭感觉估算进度”。

相关推荐