共计 3301 个字符,预计需要花费 9 分钟才能阅读完成。
1. 前言
用 Django 写了一个大文件上传的 Api 接口,当初想本地测验一下接口并发的稳定性,有没有好的计划, 本篇文章以文件上传为例,聊聊 Jmeter 并发执行 Python 脚本的残缺流程
2. Python 实现文件上传
大文件上传蕴含 4 个步骤,别离是:
- 获取文件信息及切片数目
- 分段切片,并上传 – API
- 文件合并 – API
- 文件门路参数化
2-1 获取文件信息及切片数目
首先,获取文件的大小
而后,利用预设的切片大小获取分段总数
最初,获取文件名及 md5 值
import os | |
import math | |
import hashlib | |
def get_file_md5(self, file_path): | |
"""获取文件的 md5 值""" | |
with open(file_path, 'rb') as f: | |
data = f.read() | |
return hashlib.md5(data).hexdigest() | |
def get_filename(self, filepath): | |
"""获取文件原始名称""" | |
# 文件名带后缀 | |
filename_with_suffix = os.path.basename(filepath) | |
# 文件名 | |
filename = filename_with_suffix.split('.')[0] | |
# 后缀名 | |
suffix = filename_with_suffix.split('.')[-1] | |
return filename_with_suffix, filename, suffix | |
def get_chunk_info(self, file_path): | |
"""获取分段信息""" | |
# 获取文件总大小(字节) | |
file_total_size = os.path.getsize(file_path) | |
print(file_total_size) | |
# 分段总数 | |
total_chunks_num = math.ceil(file_total_size / self.chunk_size) | |
# 文件名(带后缀)filename = self.get_filename(file_path)[0] | |
# 文件的 md5 值 | |
file_md5 = self.get_file_md5(file_path) | |
return file_total_size, total_chunks_num, filename, file_md5 |
2-2 切片及分段上传
利用分段总数和分段大小,对文件进行切片,调用分段文件上传接口
import requests | |
def do_chunk_and_upload(self, file_path): | |
"""将文件分段解决,并上传""" | |
file_total_size, total_chunks_num, filename, file_md5 = self.get_chunk_info(file_path) | |
# 遍历 | |
for index in range(total_chunks_num): | |
print('第 {} 次文件上传'.format(index + 1)) | |
if index + 1 == total_chunks_num: | |
partSize = file_total_size % chunk_size | |
else: | |
partSize = chunk_size | |
# 文件偏移量 | |
offset = index * chunk_size | |
# 生成分片 id, 从 1 开始 | |
chunk_id = index + 1 | |
print('开始筹备上传文件') | |
print("分片 id:", chunk_id, "文件偏移量:", offset, ", 以后分片大小:", partSize,) | |
# 分段上传文件 | |
self.__upload(offset, chunk_id, file_path, file_md5, filename, partSize, total_chunks_num) | |
def __upload(self, offset, chunk_id, file_path, file_md5, filename, partSize, total): | |
"""分次上传文件""" | |
url = 'http://**/file/brust/upload' | |
params = {'chunk': chunk_id, | |
'fileMD5': file_md5, | |
'fileName': filename, | |
'partSize': partSize, | |
'total': total | |
} | |
# 依据文件门路及偏移量,读取文件二进制数据 | |
current_file = open(file_path, 'rb') | |
current_file.seek(offset) | |
files = {'file': current_file.read(partSize)} | |
resp = requests.post(url, params=params, files=files).text | |
print(resp) |
2-3 合并文件
最初调用合并文件的接口,将分段小文件合成大文件
def merge_file(self, filepath): | |
"""合并""" | |
url = 'http://**/file/brust/merge' | |
file_total_size, total_chunks_num, filename, file_md5 = self.get_chunk_info(filepath) | |
payload = json.dumps( | |
{ | |
"fileMD5": file_md5, | |
"chunkTotal": total_chunks_num, | |
"fileName": filename | |
} | |
) | |
print(payload) | |
headers = {"Content-Type": "application/json"} | |
resp = requests.post(url, headers=headers, data=payload).text | |
print(resp) |
2-4 文件门路参数化
为了并发执行,将文件上传门路参数化
# fileupload.py | |
... | |
if __name__ == '__main__': | |
filepath = sys.argv[1] | |
# 每一段切片的大小(MB) | |
chunk_size = 2 * 1024 * 1024 | |
fileApi = FileApi(chunk_size) | |
# 分段上传 | |
fileApi.do_chunk_and_upload(filepath) | |
# 合并 | |
fileApi.merge_file(filepath) |
3. Jmeter 并发执行
在应用 Jmeter 创立并发流程前,咱们须要编写批处理脚本
其中,执行批处理脚本时,须要跟上文件门路一起执行
# cmd.bat | |
@echo off | |
set filepath=%1 | |
python C:\Users\xingag\Desktop\rpc_demo\fileupload.py %* |
而后,在本地新建一个 CSV 文件,写入多个文件门路
# 筹备多个文件门路(csv)C:\\Users\\xingag\\Desktop\\charles-proxy-4.6.1-win64.msi | |
C:\\Users\\xingag\\Desktop\\V2.0.pdf | |
C:\\Users\\xingag\\Desktop\\HBuilder1.zip | |
C:\\Users\\xingag\\Desktop\\HBuilder2.zip |
接着,就能够应用 Jmeter 创立并发流程了
残缺步骤如下:
- 创立一个测试计划,上面增加一个线程组
这里线程组数目与下面文件数目保持一致即可
- 线程组下,增加「同步定时器」
同步定时器中的「模仿用户组的数量」和下面参数数量保持一致
- 增加 CSV 数据文件设置
指向下面筹备的 csv 数据文件,设置文件格式为 UTF-8,变量名称设置为 file_path,最初将线程共享模式设置为「以后线程组」
- 增加调试取样器,不便调试
- 增加 OS 过程取样器
抉择下面创立的批处理文件,命令行参数设置为「${file_path}」
- 增加查看后果数
4. 最初
运行下面创立的 Jmeter 并发流程,在后果数中能够查看并发上传文件的后果
当然,咱们能够减少并发数量去模仿实在的应用场景,只须要批改 CSV 数据源及 Jmeter 参数即可
最近整顿了几百 G 的 Python 学习材料,蕴含新手入门电子书、教程、源码等等,收费分享给大家!想要的返回“Python 编程学习圈”,发送“J”即可收费取得