共计 3051 个字符,预计需要花费 8 分钟才能阅读完成。
最近须要模拟我的项目中的服务器:服务器不间断的给客户端发送图片及其字符串模式的参数,客户端接管这些信息进行解决,再将处理结果返回到服务端。
在网上找了很多 socket 代码,要么只能发送字符串信息不反对图片传输;要么是客户端给服务器发送图片,因为个别的逻辑是先启动服务端再启动客户端,所以单纯的把发图的主体改成服务端也怪怪的,因为那样只能先启动客户端。
最初抉择了第二种,竣工之后并不是很甘心,一是须要先启动客户端再启动服务端,感觉顺当;二是感觉代码有点臃肿,看起来不难看。
不甘心,在一番周折下,我终于找到了 python 的 WebSocket
办法(之前只晓得 Java 有 WebSocket),代码要比 socket
简洁很多,第一眼便爱上了。尽管这份代码也是只能传输简略的字符串,然而我违心在下面改!
我改变的思路比拟清晰,就是将图片压缩,转化成能够在网络上高效传输的格局。两头是挺麻烦的,格局来回倒腾。这里次要借助了一个博客,非常感谢。
最初确定的转化计划为:
- 编码阶段(server):
numpy
->bytes
->base64
->string(utf8)
->dict
->json
- 解码阶段(client):
json
->dict
->base64
->bytes
->numpy
对于将视频帧和其余字符串信息(比方图片的名字和大小)打包传输,我是用到的下面的字典 dict。
其余的就是之前提到的那份代码的框架,demo 能够查阅之前的文章【应用 WebSocket 进行通信的繁难 Demo】
server.py
import asyncio
import websockets
import time
import cv2
from sys import argv
from base64 import b64encode
from json import dumps
# 将 numpy 格局的图片和其它字符串信息打包成 json 在网络上传输
def make_json(image_bytes_data,image_name):
# # 这两行代码能够间接读取二进制图片,取得 bytes 字节码,留神 'rb'
# jpg_file = open(path, 'rb')
# byte_content = jpg_file.read()
# 把 矩阵模式的 numpy 图像转化为 bytes 字节码 图片
_,encoded_image = cv2.imencode(".jpg",image_bytes_data)
image_bytes_data = encoded_image.tobytes()
# 把原始字节码 bytes 编码成 base64 字节码
base64_bytes = b64encode(image_bytes_data)
# 将 base64 字节码解码成 utf-8 格局的字符串
base64_string = base64_bytes.decode('utf-8')
# 用字典的模式保留数据
dict_data = {}
dict_data["image_name"] = image_name
dict_data["image_base64_string"] = base64_string
# 将字典变成 json 格局,缩进为 2 个空格
json_data = dumps(dict_data, indent=2)
return json_data
async def echo(websocket, path):
video_path = 'D:/test/ccc/mp4/1.mp4' #视频门路
cap = cv2.VideoCapture(video_path) # 读取视频
fps = cap.get(cv2.CAP_PROP_FPS) # 获取视频的帧率
while True:
k=0
while cap.isOpened():
success, frame = cap.read()
if success:
k += 1
if k % (fps*2) == 0: # 每隔 2s 发送一帧图片
data = make_json(frame, str(k)+'.jpg')
await websocket.send(data) # 发送音讯
print('已胜利发送 %3d.jpg, 睡眠 2 秒'%k)
await asyncio.sleep(2) # 休眠 2 秒
cap.release()
if __name__ == '__main__':
start_server = websockets.serve(echo,'127.0.0.1',6666) # 改为你本人的地址
asyncio.get_event_loop().run_until_complete(start_server)
asyncio.get_event_loop().run_forever()
client.py
import base64
import json
import asyncio
import websockets
import json
import numpy as np
import cv2
# 解析接管到的 json 数据包,将图片复原成 numpy 格局保留到本地
def get_json(json_data):
dict_data = json.loads(json_data) # 将 json 还原成 dict
# 从字典中获得字符串模式的相干图片信息
image_name = dict_data['image_name']
image_base64_string = dict_data['image_base64_string']
# 将 base64 字符串解码成图片字节码 bytes
image_bytes_data = base64.b64decode(image_base64_string)
# # 上面这两行,能够间接将字节码 bytes 格局的图片以二进制模式保留到本地,留神 'wb'。# 但 numpy 格局的图片更风行,还是想转化为 numpy 格局
# with open('./new.jpg', 'wb') as jpg_file:
# jpg_file.write(image_bytes_data)
# 将 图片字节码 bytes 转换成一维的 numpy 数组 到缓存中
image_buffer_numpy_data = np.frombuffer(image_bytes_data, dtype=np.uint8) # numpy array
# 从指定的内存缓存中读取一维 numpy 数据,并把数据转换 (解码) 成图像矩阵格局
image_numpy_data = cv2.imdecode(image_buffer_numpy_data, 1)
return image_numpy_data,image_name
async def hello(uri):
async with websockets.connect(uri) as websocket:
while True:
json_data = await websocket.recv() # 接管音讯
img, name = get_json(json_data) # 转化格局
print('已胜利接管',name)
cv2.imwrite('./save/'+name,img) # 依据图片信息来保留图片
if __name__ == '__main__':
asyncio.get_event_loop().run_until_complete(hello('ws://127.0.0.1:6666')) # 改为你本人的地址
先运行server.py
,再运行client.py
,成果:
参考:
https://websockets.readthedoc…
https://www.cnblogs.com/zhumi…