csv数据去重 python_python批量查询、汉字去重处理CSV文件
csv文件用記事本打開后一般為由逗號隔開的字符串,其處理方法用python的代碼如下。為方便各種程度的人閱讀在代碼中有非常詳細的注釋。
1.查詢指定列,并保存到新的csv文件。
# -*- coding: utf-8 -*-
'''''
author: good_night
time: 2018/1/30 03:50
edition: 1.0
'''
# 導入必須的csv庫
import csv
# 創建臨時文件temp.csv找出所需要的列
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',則每寫入一行將有一空行被寫入
temp_csv_writer = csv.writer(temp_file, dialect="excel")
# 讀取input.csv文件,此時只有指定的一列數據
with open('input.csv') as file:
temp_readcsv = csv.reader(file, delimiter=',')
for row in temp_readcsv: # 取出input.csv所有列數據
temp = [row[3]] # 得到指定列數據
# print(row[3]) #print()打印input.csv文件中第3列所有數據
temp_csv_writer.writerow(temp) # 第3列每行數據循環寫入temp.csv文件中
temp_file.close()
2.查詢指定列中,每行數據出現在所有行數據的次數,并保存到新的csv文件。
# -*- coding: utf-8 -*-
'''''
author: good_night
time: 2018/1/30 03:50
edition: 1.0
'''
# 導入必須的csv庫
import csv
# 創建臨時文件temp.csv找出所需要的列
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',則每寫入一行將有一空行被寫入
temp_csv_writer = csv.writer(temp_file, dialect="excel")
# 讀取input.csv文件,此時只有指定的一列數據
with open('input.csv') as file:
temp_readcsv = csv.reader(file, delimiter=',')
for row in temp_readcsv: # 取出input.csv所有列數據
temp = [row[3]] # 得到指定列數據
# print(row[3]) #print()打印input.csv文件中第3列所有數據
temp_csv_writer.writerow(temp) # 第3列每行數據循環寫入temp.csv文件中
temp_file.close()
# 在臨時文件基礎上匹配所要找的數據,計算出次數生成out.csv文件
flag = 0 # 臨時變量
out1 = [] # 新建數組來保存指定列的每行數據
time = [] # 新建數組來保存指定列的每行數據出現的次數
out_file = open("out.csv", "w", newline='') # 如果不指定newline='',則每寫入一行將有一空行被寫入
out_csv_writer = csv.writer(out_file, dialect="excel")
out_csv_writer.writerow(["times"])
# 讀取temp.csv文件,此時只有指定的一列數據
with open('temp.csv') as file2:
out_readcsv = csv.reader(file2, delimiter=',')
for st in out_readcsv: # 循環取出列的每行數據
out1.append(st) # append()將列的每行數據變為out1鏈表(list)的后續增加的元素,即將列數據變為一維數組。
# print(out1[1]) # 打印out1[n]的第n個元素,即原列的第n行元素
for i in range(len(out1)): # len()獲得out1鏈表(list)中元素的個數,便于判斷循環次數。
# print(out1[i]) # 打印out1鏈表所有元素,檢驗循環是否出錯
flag = out1.count(out1[i]) # count()獲得out1鏈表中第i個元素在所有元素中出現的次數。
time.append(flag) # 將獲得的某元素出現的次數按順序保存至time[]數組里
# print(time) # 打印顯示所有元素出現的次數,判斷是否出錯
for j in range(len(out1)): # len()得到out1鏈表元素個數,依此作為time[]查找下標
times = [time[j]] # 取出元素對應出現的次數
out_csv_writer.writerow(times) # 寫入out.csv文件里
print(times) # 打印顯示次數
out_file.close()
因為是批量處理嘛~所以寫的是所有數據重復出現的次數(但這個有點bug,可能看完代碼就知道了,沒有去重!!!舉個例子說a出現在第一行和第三行共2次,結果出來后就是第一行出現a,對應次數為2,第三行又出現a,對應次數也是2....這就是沒有去重的麻煩之處,重復的數據會再次顯示。)。但稍微修改一下可實現搜索某一數據出現的次數啦~
3.查詢指定列中,每行數據出現在所有行數據的次數,去重處理后,并保存到新的csv文件。
一般去重都是數字或者字符去重,可以直接調用相應函數,而漢字去重就比只能循環比較了。所以這個算是包容性相當大的一種方式。
# -*- coding: utf-8 -*-
'''''
author: good night
time: 2018/2/7 18:50
edition: 2.0
'''
# 導入必須的csv庫
import csv
# 創建臨時文件temp.csv找出所需要的列
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',則每寫入一行將有一空行被寫入
temp_csv_writer = csv.writer(temp_file, dialect="excel")
# 讀取input.csv文件,此時只有指定的一列數據
with open('input.csv') as file:
temp_readcsv = csv.reader(file, delimiter=',')
for row in temp_readcsv: # 取出input.csv所有列數據
temp = [row[3]] # 得到指定列數據
# print(row[3]) #print()打印input.csv文件中第3列所有數據
temp_csv_writer.writerow(temp) # 第3列每行數據循環寫入temp.csv文件中
temp_file.close()
# 在臨時文件基礎上匹配所要找的數據,計算出次數生成out.csv文件
out1 = [] # 新建數組來保存指定列的每行數據
out_time = [] # 新建數組來保存指定列的每行數據出現的次數
out_file = open("out.csv", "w", newline='') # 如果不指定newline='',則每寫入一行將有一空行被寫入
out_csv_writer = csv.writer(out_file, dialect="excel")
out_csv_writer.writerow(["id", "times"]) # 寫入標題 數據,出現次數
# 讀取temp.csv文件,此時只有指定的一列數據
with open('temp.csv') as file2:
out_readcsv = csv.reader(file2, delimiter=',')
for st in out_readcsv: # 循環取出列的每行數據
out1.append(st) # append()將列的每行數據變為out1鏈表(list)的后續增加的元素,即將列數據變為一維數組。
print(out1) # 打印out1[n]的第n個元素,即原列的第n行元素
# list的迭代其實是以list中項的序列號來遍歷的,不會因為list的的改變而改變,
# 永遠都是按照序號的0,1,2...遍歷。當刪除其中某一項時,它之后的每一項的序列號各往前移一項.
# 當遍歷list時,若發現0項是重復項(因為內嵌函數均處理第一個發現項),于是將其移除。當移除0項時,
# 原來的1項變為0項,以此類推。此時list迭代由1開始(0項已過),但此時的1項是原list的2項,這樣子就漏掉原list的1項!
# 可以將list反轉來進行刪除操作,其本質就是放當發現某項具有重復項時,就從后往前刪除。
# 比如迭代0項發現1項是它的重復項,那么就刪除1項,刪除1項后2項變1項,而此時list迭代正則到了1項。
# 從原始list的角度上來說,就跳過了1項。但是它卻不影響去重,因為它跳過的是重復項。
# list的不重復迭代反而使去重效率更高且不會漏掉不重復項。因此原始list直接去重的核心問題不是迭代的漏項,而是迭代不能漏掉不重復項。
for i in out1:
a = out1.count(i) # 取元素
out_time.append(a) # 得到出現的次數
# print(i, a)
if a > 1:
out1.reverse() # 將list反轉來進行刪除操作
for k in range(1, a):
out1.remove(i) # 從后往前刪除直到最前面的第一個為止,這樣即刪除了后面的,又保留了第一個!
out1.reverse() # 將list再反轉回來,保證下次循環又是從原始順序來刪除
print(out1) # 此時out1鏈表(list)即去重后的list
print(out_time) # 元素出現的次數
for j in range(len(out1)): # len()得到out1鏈表元素個數,依此作為time[]查找下標
out_row = [out1[j], out_time[j]] # 取元素和對應的次數
out_csv_writer.writerow(out_row) # 寫入out.csv文件里
out_file.close()
劃重點!這個代碼是經過了去重處理后的,完全不用擔心會有重復數據顯示啦~
python處理此類數據相當快,大概一萬行數據只需要1秒.......
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持萬仟網。
如您對本文有疑問或者有任何想說的,請點擊進行留言回復,萬千網友為您解惑!
總結
以上是生活随笔為你收集整理的csv数据去重 python_python批量查询、汉字去重处理CSV文件的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 修改选中_win7文件名称如何批量修改
- 下一篇: vusjs 配合php_对照着jquer