重複數據的處理
借貴寶地一用,愿BZ諒解!賈兄,我也不知道該怎么說,你就看下面的例子吧。
1.假設rvb_file有重複值唯一索引建立不了
2.unload 出rvb_file的資料:rvb_file.txt,dbschema出結構:rvb_file.sql
3.在資料庫中建一張新表rvb_file_new(結構跟rvb_file.sql一樣,但是在最後加上
alter table rvb_file_new add constraints primary key(唯一索引欄位) 主鍵名
4.執行以下SQL,會生成rvb_file_new_vio和rvb_file_new_dia
start violations for rvb_file_new
5.set constraints rvb_cons(主鍵名) filtering
6.load from rvb_file.txt delimiter "|" insert into rvb_file_new
7.stop violations table for rvb_file_new
8.rename rvb_file_new to rvb_file即可
9.刪除主鍵 如果楼主使用informix数据库,可以使用dbload命令去导入数据。
具体操作步骤:
1.unload表中所有数据至xxx.unl文件
2.重新建立表格
3.建立唯一索引
4.使用dbload命令去导入数据库,dbload命令会自动过滤重复值的数据, 回复 2# koolkite
恩,學習了,謝謝!
有機會驗證下。 如果是unix系统,也可以用:
1、unload to a.txt select * from table;
2、sort a.txt | uniq > b.txt
3、load from b.txt insert into table; 回复 4# happer_xc
2、sort a.txt | uniq > b.txt
这个似乎有点问题吧?
1 2 3 4 5 6
1 2 3 7 8 9
123所在栏位为唯一索引,但是uniq却无法去掉的,还是有问题的。
页:
[1]