网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

python中怎么批量查询CSV文件-创新互联

这期内容当中小编将会给大家带来有关python中怎么批量查询CSV文件,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

成都创新互联公司是一家朝气蓬勃的网站建设公司。公司专注于为企业提供信息化建设解决方案。从事网站开发,网站制作,网站设计,网站模板,微信公众号开发,软件开发,微信小程序开发,十余年建站对成都白乌鱼等多个方面,拥有丰富的网站维护经验。

1.查询指定列,并保存到新的csv文件。

# -*- coding: utf-8 -*- 
''''' 
Author: Good_Night 
Time: 2018/1/30 03:50 
Edition: 1.0 
''' 
# 导入必须的csv库 
import csv 
 
# 创建临时文件temp.csv找出所需要的列 
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',则每写入一行将有一空行被写入 
temp_csv_writer = csv.writer(temp_file, dialect="excel") 
# 读取input.csv文件,此时只有指定的一列数据 
with open('input.csv') as file: 
  temp_readcsv = csv.reader(file, delimiter=',') 
  for row in temp_readcsv: # 取出input.csv所有列数据 
    temp = [row[3]] # 得到指定列数据 
#    print(row[3])  #print()打印input.csv文件中第3列所有数据 
    temp_csv_writer.writerow(temp) # 第3列每行数据循环写入temp.csv文件中 
temp_file.close()

2.查询指定列中,每行数据出现在所有行数据的次数,并保存到新的csv文件。

# -*- coding: utf-8 -*- 
''''' 
Author: Good_Night 
Time: 2018/1/30 03:50 
Edition: 1.0 
''' 
# 导入必须的csv库 
import csv 
 
# 创建临时文件temp.csv找出所需要的列 
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',则每写入一行将有一空行被写入 
temp_csv_writer = csv.writer(temp_file, dialect="excel") 
# 读取input.csv文件,此时只有指定的一列数据 
with open('input.csv') as file: 
  temp_readcsv = csv.reader(file, delimiter=',') 
  for row in temp_readcsv: # 取出input.csv所有列数据 
    temp = [row[3]] # 得到指定列数据 
#    print(row[3])  #print()打印input.csv文件中第3列所有数据 
    temp_csv_writer.writerow(temp) # 第3列每行数据循环写入temp.csv文件中 
temp_file.close() 
 
# 在临时文件基础上匹配所要找的数据,计算出次数生成out.csv文件 
flag = 0 # 临时变量 
out1 = [] # 新建数组来保存指定列的每行数据 
time = [] # 新建数组来保存指定列的每行数据出现的次数 
out_file = open("out.csv", "w", newline='') # 如果不指定newline='',则每写入一行将有一空行被写入 
out_csv_writer = csv.writer(out_file, dialect="excel") 
out_csv_writer.writerow(["TIMES"]) 
# 读取temp.csv文件,此时只有指定的一列数据 
with open('temp.csv') as file2: 
  out_readcsv = csv.reader(file2, delimiter=',') 
  for St in out_readcsv: # 循环取出列的每行数据 
    out1.append(St) # append()将列的每行数据变为out1链表(list)的后续增加的元素,即将列数据变为一维数组。 
#  print(out1[1]) # 打印out1[n]的第n个元素,即原列的第n行元素 
  for i in range(len(out1)): # len()获得out1链表(list)中元素的个数,便于判断循环次数。 
#    print(out1[i]) # 打印out1链表所有元素,检验循环是否出错 
    flag = out1.count(out1[i]) # count()获得out1链表中第i个元素在所有元素中出现的次数。 
    time.append(flag) # 将获得的某元素出现的次数按顺序保存至time[]数组里 
#  print(time) # 打印显示所有元素出现的次数,判断是否出错 
  for j in range(len(out1)): # len()得到out1链表元素个数,依此作为time[]查找下标 
    times = [time[j]] # 取出元素对应出现的次数 
    out_csv_writer.writerow(times) # 写入out.csv文件里 
    print(times) # 打印显示次数 
out_file.close()

因为是批量处理嘛~所以写的是所有数据重复出现的次数(但这个有点BUG,可能看完代码就知道了,没有去重!!!举个例子说a出现在第一行和第三行共2次,结果出来后就是第一行出现a,对应次数为2,第三行又出现a,对应次数也是2....这就是没有去重的麻烦之处,重复的数据会再次显示。)。但稍微修改一下可实现搜索某一数据出现的次数啦~

3.查询指定列中,每行数据出现在所有行数据的次数,去重处理后,并保存到新的csv文件。

一般去重都是数字或者字符去重,可以直接调用相应函数,而汉字去重就比只能循环比较了。所以这个算是包容性相当大的一种方式。

# -*- coding: utf-8 -*- 
''''' 
Author: Good Night 
Time: 2018/2/7 18:50 
Edition: 2.0 
''' 
# 导入必须的csv库 
import csv 
 
# 创建临时文件temp.csv找出所需要的列 
temp_file = open("temp.csv", "w", newline='') # 如果不指定newline='',则每写入一行将有一空行被写入 
temp_csv_writer = csv.writer(temp_file, dialect="excel") 
# 读取input.csv文件,此时只有指定的一列数据 
with open('input.csv') as file: 
  temp_readcsv = csv.reader(file, delimiter=',') 
  for row in temp_readcsv: # 取出input.csv所有列数据 
    temp = [row[3]] # 得到指定列数据 
#    print(row[3]) #print()打印input.csv文件中第3列所有数据 
    temp_csv_writer.writerow(temp) # 第3列每行数据循环写入temp.csv文件中 
temp_file.close() 
 
# 在临时文件基础上匹配所要找的数据,计算出次数生成out.csv文件 
out1 = [] # 新建数组来保存指定列的每行数据 
out_time = [] # 新建数组来保存指定列的每行数据出现的次数 
out_file = open("out.csv", "w", newline='') # 如果不指定newline='',则每写入一行将有一空行被写入 
out_csv_writer = csv.writer(out_file, dialect="excel") 
out_csv_writer.writerow(["ID", "TIMES"]) # 写入标题 数据,出现次数 
# 读取temp.csv文件,此时只有指定的一列数据 
with open('temp.csv') as file2: 
  out_readcsv = csv.reader(file2, delimiter=',') 
  for St in out_readcsv: # 循环取出列的每行数据 
    out1.append(St) # append()将列的每行数据变为out1链表(list)的后续增加的元素,即将列数据变为一维数组。 
  print(out1)  # 打印out1[n]的第n个元素,即原列的第n行元素 
 
# list的迭代其实是以list中项的序列号来遍历的,不会因为list的的改变而改变, 
# 永远都是按照序号的0,1,2...遍历。当删除其中某一项时,它之后的每一项的序列号各往前移一项. 
# 当遍历list时,若发现0项是重复项(因为内嵌函数均处理第一个发现项),于是将其移除。当移除0项时, 
# 原来的1项变为0项,以此类推。此时list迭代由1开始(0项已过),但此时的1项是原list的2项,这样子就漏掉原list的1项! 
  # 可以将list反转来进行删除操作,其本质就是放当发现某项具有重复项时,就从后往前删除。 
  # 比如迭代0项发现1项是它的重复项,那么就删除1项,删除1项后2项变1项,而此时list迭代正则到了1项。 
  # 从原始list的角度上来说,就跳过了1项。但是它却不影响去重,因为它跳过的是重复项。 
  # list的不重复迭代反而使去重效率更高且不会漏掉不重复项。因此原始list直接去重的核心问题不是迭代的漏项,而是迭代不能漏掉不重复项。 
  for i in out1: 
    a = out1.count(i) # 取元素 
    out_time.append(a) # 得到出现的次数 
#    print(i, a) 
    if a > 1: 
      out1.reverse() # 将list反转来进行删除操作 
      for k in range(1, a): 
        out1.remove(i) # 从后往前删除直到最前面的第一个为止,这样即删除了后面的,又保留了第一个! 
      out1.reverse() # 将list再反转回来,保证下次循环又是从原始顺序来删除 
  print(out1) # 此时out1链表(list)即去重后的list 
  print(out_time) # 元素出现的次数 
  for j in range(len(out1)): # len()得到out1链表元素个数,依此作为time[]查找下标 
    out_row = [out1[j], out_time[j]]  # 取元素和对应的次数 
    out_csv_writer.writerow(out_row) # 写入out.csv文件里 
out_file.close()

上述就是小编为大家分享的python中怎么批量查询CSV文件了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联成都网站设计公司行业资讯频道。

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


网页题目:python中怎么批量查询CSV文件-创新互联
本文路径:http://bjjierui.cn/article/eipoh.html

其他资讯