博主工作长期需使用到数据库查询数据,因而接触到了数据库的一些皮毛知识。但是数据库和办公网不能互通,远端访问也没法实现,所以长期以来查询数据都相当麻烦。近期博主在自己的工作电脑上搭建了一个的MySQL数据库,并尝试导入一些数据进去,顺便自己查询,其中遇到了各种各样的问题,才深刻领悟到后端操作的艰难,写篇博客记录一下其中的艰难过程。
- 编译环境:Python3.7
- 编译器:pycharm
- 数据库可视化软件:Navicat premium 15
- 数据库:MySQL 8.0.20
注:以下内容,仅供用于学习交流,而且博主也对相关内容进行的打码处理,文件名和数据库名都是用的XXX来表示的。
博主的数据库是用的MySQL,用的是CMD命令行方式安装和配置的,网上有很多教程,但是良莠不齐,有空了我专门写一篇博客记录安装过程,这边博客就不说了。不过在安装时,一定要牢记系统给你默认设置的连接密码,如果没记住的话,会让你崩溃,网上教程一堆,能实际解决问题的没两个,这个密码是关键,切记、切记。
博主用的是Navicat premium 15,界面如下:
为什么需要这个软件呢,这个软件可以让你方便的连接你的数据库,也可以在里面写一些查询语句,甚至可以将数据导入到数据库,而且还支持批量导入,总之,非常方便,可以理解为数据库的前端操作软件。但实际使用过程却没有那么友好,比如我导入数据到我的数据库时,经常出现下面的问题:
finished with error 也不告诉你那里出了错,反正就是数据不全,大概只导入了1/4的数据。当然也不是所有的数据导入都会出现这个问题,但是确实头疼,博主网上搜了一堆教程没一个能解释明白的,所以才有了后面用Python导入数据库的尝试。不过用Navicat写查询语句确实方便,你的数据库需要这么个数据库可视化软件,不然你操作数据库,就永远像个黑客一样在CMD里写命令行来操作了。
博主这边有很多txt文件,但都是同一批字段的数据,至于为什么会这样,博主也懒得解释。反正现在的工作是,把这些txt文件合并到一个文件里去,这样导入数据库也方便点不是吗? 当然你也可以自己在excel里面一个个的复制粘贴,但是感觉一是工作量太大,十来个文件还好,几百个文件你要这么操作,能让人抓狂,而且逼格也太低了,现在流行自动化办公。 直接上代码:
# -*- coding: utf-8 -*- """ Created on Tue Jul 14 15:25:44 2020 @author: HP """ #合并一个文件夹下的多个txt文件 #coding=utf-8 import os import pandas as pd #获取目标文件夹的路径 filedir = r'C:xxxxxx' #获取当前文件夹中的文件名称列表 filenames=os.listdir(filedir) i=0 data = pd.read_csv(r'C:xxxxxxxxx.txt',sep = ' ') col = list(data) data = pd.Dataframe(columns=col) #先遍历文件名 for filename in filenames: i+=1 print(i) if i>0: filepath = filedir+'\'+filename print(filepath) #遍历单个文件,读取行数 # datai = pd.read_csv(filepath, sep=' ', dtype=str) datai = pd.read_csv(filepath, sep=' ', converters={'item': str}) data = data.append(datai) ''' for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'): # print(str(line)) f.writelines(line) # f.write(' ') ''' #关闭文件 # f.close() data.to_excel('XXX.xlsx', index=False)
来解释一下代码 filedir = r’C:xxxxxx’ 我把所有的文件放在这个文件夹里,注意是一个绝对的路径 filenames=os.listdir(filedir) 获取这个文件夹里面所有的文件列表
data = pd.read_csv(r'D:xxxxxx.txt',sep = ' ') col = list(data) data = pd.Dataframe(columns=col)
这里几行代码呢,目的是创建一个空的dataframe,这个空的dataframe的列就是上面那个文件夹里面某个文件的列名 后面就是写循环,往列表里面添加数据,然后将列表转换为excel文件了。
''' for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'): # print(str(line)) f.writelines(line) # f.write(' ') '''
博主注释起来的这块代码,是写入txt的方式,看需求,当然,这里f没定义,可以在循环外面定义一下f,比如:
# f=open('result.txt','w')
直接上代码了再解释吧
# -*- coding: utf-8 -*- """ Created on Tue Jul 14 17:34:23 2020 @author: HP """ """ 功能:将Excel数据导入到MySQL数据库 """ import xlrd import MySQLdb import pandas as pd d = pd.read_csv('xxx.txt',sep = ' ') col = list(d) cols = ','.join(col) # Open the workbook and define the worksheet book = xlrd.open_workbook("XXX.xlsx") # excel文件名 # book = xlrd.open_workbook("1.xlsx") sheet = book.sheet_by_index(0) # excel文件中的sheet名 # 建立一个MySQL连接 database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8") # 获得游标对象, 用于逐行遍历数据库数据 cursor = database.cursor() # 创建插入SQL语句 # query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, ss) # 创建一个for循环迭代读取xls文件每行数据的, 从第二行开始是要跳过标题 data_list = [] for r in range(1, sheet.nrows): row_list = [] for t in range(len(col)): value_rt = sheet.cell(r,t).value type_rt = sheet.cell(r,t).ctype if type_rt == 2: value_rt = str(int(value_rt)) row_list.append(value_rt) data_list.append(row_list) # values = ','.join(data_list) # query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, s) # 执行sql语句 # cursor.execute(query, values) val = '' for i in range(0, len(col)): val = val + '%s,' result =cursor.executemany("insert into xxx (%s) values(" %(cols) + val[:-1] + ")", data_list) print(result) # 关闭游标 cursor.close() # 提交 database.commit() # 关闭数据库连接 database.close() # 打印结果 print("") print("Done! ") print("") columns = str(sheet.ncols) rows = str(sheet.nrows) print("我刚导入了 ", columns, " 列 and ", rows, " 行数据到MySQL!")
真的挺复杂,也不知道博主能不能讲明白,我挑一些自己认为比较晦涩的代码来解释吧
d = pd.read_csv('xxx.txt',sep = ' ') col = list(d) cols = ','.join(col)
这里主要是把文件的列名变成一串字符串,join函数可以将列表转化为字符串,分割符号是’,'这个逗号
# Open the workbook and define the worksheet book = xlrd.open_workbook("XXX.xlsx") # excel文件名 # book = xlrd.open_workbook("1.xlsx") sheet = book.sheet_by_index(0) # excel文件中的sheet名
把上面合并的那个excel文件读进来,并且获取这个excel的sheet名,从上面批量合并数据文件这一步来看,博主其实只有一个sheet。
database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8")
这行代码非常关键,关系到你能否把数据写到数据库里去,connect函数就是用来链接数据库的,里面的参数我来解释一下:
- host:主机名,如果是访问本机数据库的话,一般是localhost,如果是访问网络数据库的话,就要写服务器的网络地址了
- user:用户名,你数据库的用户名,这里就与自己当初搭建的数据库密切相关了
- passwd:这个数据库用户名对应的密码,就是我前面提到的那个密码,很重要、很重要、很重要
- db:你要讲数据写入的数据库名称
- charset:这玩意儿很坑,字符格式,主要看你的数据库是什么样的,我的是utf-8,所以这里我写上了,但很多教程并没有这个,所以经常报错,没写上之前,我也是各种报错
data_list = [] for r in range(1, sheet.nrows): row_list = [] for t in range(len(col)): value_rt = sheet.cell(r,t).value type_rt = sheet.cell(r,t).ctype if type_rt == 2: value_rt = str(int(value_rt)) row_list.append(value_rt) data_list.append(row_list)
这段代码的目的是将表中所有的数据全部取出来,并写入到data_list这个列表中 type_rt = sheet.cell(r,t).ctype用于获取每个字符的类型
ctype : 0 empty,1 string, 2 number, 3 date, 4 boolean, 5 error
我将所有数字型的数据全部转换为字符串,便于完整的写入数据,至于到哪里去把字符串修改回来,这个可以到Navicat里面去设置。当然,这不是最佳的数据处理方式,只是比较适合博主的数据而已
val = '' for i in range(0, len(col)): val = val + '%s,' result =cursor.executemany("insert into xxx (%s) values(" %(cols) + val[:-1] + ")", data_list)
变量val用来生成一串’%s’这个玩意儿,val[:-1]用切片切掉最后一个逗号,其实这里有更简单的写法,像前面一样用join函数
s =['%s']*len(col) ss = ','.join(s)
这里的ss和val[:-1]是等价的。 executemany是批量写入函数,“insert into xxx (%s) values(” %(cols) + val[:-1] + ")"中的xxx是数据表。还有另外一种写法,不用批量导入,而是用execute函数,每读一行,就写一行,写在循环里面,但是当时老是报错,我就没继续下去了。 后面就是常规的数据库操作了 当然,整个过程不断的报错,比如报错说我的字符串长度太长了,等等,要在数据库里面修改一些参数,可能每个人遇到的问题不一样,遇到了就去网上搜索教程,基本都能解决。 至此完成了数据的写入,接下来看看怎么在Python里查询数据
还是先上代码
# -*- coding: utf-8 -*- """ Created on Thu Jul 16 09:33:42 2020 @author: HP """ import MySQLdb import pandas as pd conn = MySQLdb.connect( host="xxxx", user="xxxx", passwd="xxxxx", db="xxxxx", charset="utf8") cur = conn.cursor() query = """ select x1, x2, x3, x4 from table1 where x1 >= 1 and x1 < 100 """ cur.execute(query) result = cur.fetchall() df_result = pd.Dataframe(list(result), columns=['x1','x2','x3','x4'])
第一步,链接数据库并登陆 第二步,写查询语句,select from where基本查询语法 第三步,执行查询语句 顺利出结果 相对来说,要简单的多
从博主决定搭建数据库到最后打通数据库,总体来说,感觉很费劲,也走了很多弯路,给我的感觉就是后端的东西要比前端复杂一点,当然,博主水平有限,也就目前的认知水平这样,前端的东西其实也很复杂,只是我个人接触的相对多一点而已。 不过还是很开心的,毕竟又get了个新技能。