文章出處

 

海量數據(百萬以上),其中有些全部字段都相同,有些部分字段相同,怎樣高效去除重復?

如果要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,以前一直使用這條語句進行去重:

delete fromwhere id not in
(select max(id) fromgroup by mobilePhone,officePhone,email )
or
delete fromwhere id not in
(select min(id) fromgroup by mobilePhone,officePhone,email )

 

其中下面這條會稍快些。上面這條數據對于100萬以內的數據效率還可以,重復數1/5的情況下幾分鐘到幾十分鐘不等,但是如果數據量達到300萬以上,效率驟降,如果重復數據再多點的話,常常會幾十小時跑不完,有時候會鎖表跑一夜都跑不完。無奈只得重新尋找新的可行方法,今天終于有所收獲:

//查詢出唯一數據的ID,并把他們導入臨時表tmp中
select min(id) as mid into tmp fromgroup by mobilePhone,officePhone,email
//查詢出去重后的數據并插入finally表中
insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)

 

效率對比:用delete方法對500萬數據去重(1/2重復)約4小時。4小時,很長的時間。

用臨時表插入對500萬數據去重(1/2重復)不到10分鐘。

SQL語句去掉重復記錄,獲取重復記錄

按照某幾個字段名稱查找表中存在這幾個字段的重復數據并按照插入的時間先后進行刪除,條件取決于order by 和row_num。

方法一按照多條件重復處理:

delete tmp from(
  select row_num = row_number() over(partition by 字段,字段 order by 時間 desc)
  fromwhere 時間> getdate()-1
) tmp
where row_num > 1

 

方法二按照單一條件進行去重:

delete fromwhere 主鍵ID not in(
  select max(主鍵ID) fromgroup by 需要去重的字段 having count(需要去重的字段)>=1
)

 

注意:為提高效率如上兩個方法都可以使用臨時表, not in 中的表可以先提取臨時表#tmp,

然后采用not exists來執行,為避免數量過大,可批量用Top控制刪除量

delete top(2) fromwhere  not exists (select 主鍵ID
  from #tmp where #tmp.主鍵ID=表.主鍵ID)
 

 

 

 

 

-------------------->>>


文章列表


不含病毒。www.avast.com
arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()