問題
在項目中遇到一個問題,需要從文本中讀取三萬條數(shù)據(jù)寫入mysql數(shù)據(jù)庫,文件中為用@分割的sql語句,但是在讀取的過程中發(fā)現(xiàn)速度過慢,三萬八千條數(shù)據(jù)需要220秒,問題代碼片段如下:
def read_to_mysql(filecata, targetDir):
'''
用來寫入數(shù)據(jù)庫,寫入后會剪貼掉文件
filecata 為保存有文件地址的list,已去掉尾部的空格
:param filecata: 文件目錄
:param targetDir: 要復(fù)制的目標(biāo)目錄
:return:
'''
root_dir = os.path.abspath(os.path.join(os.getcwd(), "./"))
config = configparser.ConfigParser()
config.read(root_dir + "/config.ini")
__host = config.get("DatabaseOfWRT", "host")
__database_name = config.get("DatabaseOfWRT", "database")
__user_name = config.get("DatabaseOfWRT", "username")
__user_passwaord = config.get("DatabaseOfWRT", "password")
__charset = config.get("DatabaseOfWRT", "charset")
conn = pymysql.connect(
host=__host,
user=__user_name, password=__user_passwaord,
database=__database_name,
charset=__charset
)
cursor = conn.cursor()
with open(filecata, "r", encoding='utf-8') as f:
data = f.read() # 讀取文件
data_list = data.split('@')
del data_list[-1]
starttime = int(time.time())
for data_str in data_list:
data_str = str(data_str)
sql = data_str + ';'
cursor.execute(sql)
conn.commit()
print(flag)
copy_del_file(filecata, targetDir) # 用來剪切的函數(shù),此處不影響,因而省略
cursor.close()
conn.close()
解決方案
經(jīng)測試發(fā)現(xiàn),影響速度的主要原因是commit(),因為沒過幾秒提交一次即可,但是因為提交的字符長度有限制,所以要設(shè)置一個合理的時間讀取,代碼修改如下:
def read_to_mysql(filecata, targetDir):
'''
用來寫入數(shù)據(jù)庫,寫入后會剪貼掉文件
filecata 為保存有文件地址的list,已去掉尾部的空格
:param filecata:
:param targetDir: 要復(fù)制的目標(biāo)目錄
:return:
'''
root_dir = os.path.abspath(os.path.join(os.getcwd(), "./"))
config = configparser.ConfigParser()
config.read(root_dir + "/config.ini")
__host = config.get("DatabaseOfWRT", "host")
__database_name = config.get("DatabaseOfWRT", "database")
__user_name = config.get("DatabaseOfWRT", "username")
__user_passwaord = config.get("DatabaseOfWRT", "password")
__charset = config.get("DatabaseOfWRT", "charset")
conn = pymysql.connect(
host=__host,
user=__user_name, password=__user_passwaord,
database=__database_name,
charset=__charset
)
cursor = conn.cursor()
with open(filecata, "r", encoding='utf-8') as f:
data = f.read() # 讀取文件
data_list = data.split('@')
del data_list[-1]
starttime = int(time.time())
for data_str in data_list:
endtime = int(time.time())
data_str = str(data_str)
sql = data_str + ';'
cursor.execute(sql)
if endtime - starttime ==10: # 每過十秒提交一次
starttime = int(time.time())
conn.commit()
conn.commit()
copy_del_file(filecata, targetDir)
cursor.close()
conn.close()
return flag
此時寫入三萬八千條數(shù)據(jù)需要9秒
補(bǔ)充:python 連數(shù)據(jù)庫cursur.fetchall ()速度慢的解決方案
解決游標(biāo)遍歷慢的方法:
一行一行去遍歷,而不是一下全部讀取出來
將cursur.fetchall()更改為for i in cursur:
補(bǔ)充:python 讀取文件時速度的問題
"""舉例 讀取文件"""
# 第一種方式
with open('test.txt', 'r', encoding='utf-8') as f:
info = f.readlines()
for line in info:
pass
# 第二種方式
with open('test.txt', 'r', encoding='utf-8') as f:
for line in f:
pass
對于以上兩種方式讀取文件,各自有各自的用途,當(dāng)用兩種方式都可以時,第二種方式的效率是第一種的幾個量級, readlines()將文件內(nèi)容讀取到內(nèi)存的list中,操作雖然方便,但是消耗內(nèi)存,運(yùn)行效率慢。
原生的f是將文件內(nèi)容讀到生成器中, 當(dāng)需要操作時,從生成器中循環(huán)出來,速度很快,操作大文件時建議用第二種方式!
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
您可能感興趣的文章:- 基于python不同開根號的速度對比分析
- python各種excel寫入方式的速度對比
- Python3如何使用多線程升程序運(yùn)行速度
- python+pygame實現(xiàn)坦克大戰(zhàn)小游戲的示例代碼(可以自定義子彈速度)
- Python requests及aiohttp速度對比代碼實例
- Python庫安裝速度過慢解決方案
- 一行代碼讓 Python 的運(yùn)行速度提高100倍