共计 1909 个字符,预计需要花费 5 分钟才能阅读完成。
在公司加班到八点,此为背景。
加班起因是上线,解决线上数据库存在反复数据的问题,发现了程序的 bug,很好解决,有点问题的是,修改线上的反复数据。
线上库有 6 个表存在反复数据,其中 2 个表比拟大,一个 96 万 +、一个 30 万 +,因为之前解决过雷同的问题,就间接拿来了上次的 Python 去重脚本,脚本很简略,就是连贯数据库,查出来反复数据,循环删除。
emmmm,然而这个效率嘛,切实是太低了,1 秒一条,反复数据大概 2 万 +,预估工夫大概在 8 个小时左右。。。
自觉依附前人的货色,而不去本人思考是有问题的!总去想之前怎么能够,当初怎么不行了,这也是有问题的!我发现,最近的确状态不太对,失去了摸索和求知的欲望,明天算是一个警醒,颇有误入歧途的感觉。
言归正传,上面具体介绍去重步骤。
CREATE TABLE `animal` (`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(20) DEFAULT NULL,
`age` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('1', 'cat', '12');
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('2', 'dog', '13');
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('3', 'camel', '25');
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('4', 'cat', '32');
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('5', 'dog', '42');
指标:咱们要去掉 name 雷同的数据。
先看看哪些数据反复了
SELECT name,count(1)
FROM
student
GROUP BY
NAME
HAVING
count(1) > 1;
输入:
name count(1) cat 2 dog 2
name 为 cat 和 dog 的数据反复了,每个反复的数据有两条;
Select * From 表 Where 反复字段 In (Select 反复字段 From 表 Group By 反复字段 Having Count(1)>1)
删除全副反复数据,一条不留
间接删除会报错
DELETE
FROM
student
WHERE
NAME IN (
SELECT NAME
FROM
student
GROUP BY
NAME
HAVING
count(1) > 1)
报错:
1093 - You can't specify target table'student' for update in FROM clause, Time: 0.016000s
起因是 :更新这个表的同时又查问了这个表,查问这个表的同时又去更新了这个表,能够了解为死锁。mysql 不反对这种更新查问同一张表的操作
解决办法 :把要更新的几列数据查问进去做为一个第三方表,而后筛选更新。
DELETE
FROM
student
WHERE
NAME IN (
SELECT
t.NAME
FROM
(SELECT NAME FROM student GROUP BY NAME HAVING count( 1) > 1 ) t)
删除表中删除反复数据,仅保留一条
在删除之前,咱们能够先查一下,咱们要删除的反复数据是啥样的
SELECT
*
FROM
student
WHERE
id NOT IN (
SELECT
t.id
FROM
(SELECT MIN( id) AS id FROM student GROUP BY `name` ) t
)
啥意思呢,就是先通过 name 分组,查出 id 最小的数据,这些数据就是咱们要留下的火种,那么再查问出 id 不在这外面的,就是咱们要删除的反复数据。
开始删除反复数据,仅留一条
很简略,方才的 select 换成 delete 即可
DELETE
FROM
student
WHERE
id NOT IN (
SELECT
t.id
FROM
(SELECT MIN( id) AS id FROM student GROUP BY `name` ) t
)
90 万 + 的表执行起来超级快。
All done 👏👏👏👏~
(感激浏览,心愿对你所有帮忙 )
起源:telami.cn/2019/mysql-removes-duplicate
-data-and-keeping-only-one/