关于服务器:WebSocket实现从服务器向客户端发送图片和字串串消息

30次阅读

共计 1991 个字符,预计需要花费 5 分钟才能阅读完成。

最近须要模拟我的项目中的服务器:服务器不间断的给客户端发送图片及其字符串模式的参数,客户端接管这些信息进行解决,再将处理结果返回到服务端。

在网上找了很多 socket 代码,要么只能发送字符串信息不反对图片传输;要么是客户端给服务器发送图片,因为个别的逻辑是先启动服务端再启动客户端,所以单纯的把发图的主体改成服务端也怪怪的,因为那样只能先启动客户端。

最初抉择了第二种,竣工之后并不是很甘心,次要是须要先启动客户端再启动服务端,感觉顺当。【实现】。

不甘心,在一番周折下,终于找到了 python 的 WebSocket 办法(之前只晓得 Java 有 WebSocket),代码要比 socket 简洁一些,并且 容许服务端被动向客户端发送数据,正适宜我的需要。尽管这份代码也是只能传输简略的字符串,但我很违心在下面改。

WebSocket 是一种在单个 TCP 连贯上进行全双工通信的协定。WebSocket 使得客户端和服务器之间的数据交换变得更加简略,容许服务端被动向客户端推送数据

socket 是比拟底层的接口,只能传输 bytes 格局的数据。然而 WebSocket` 是应用层协定,能够传输其余格局的数据(其实到底层之后同样要解析成 bytes),比方 json。但我除去传输图片同时还要传输字符串,用 json 的话要么打包成一个字典再转化为 json,要么发送两个 json,感觉会很倒腾,还不如就间接传两个 bytes。

numpy 图片 string 字符串 转化为 bytes 字节流 的办法,还是参考上一篇文章。


server.py

import asyncio
import websockets
import cv2

async def echo(websocket, path):
    video_path = 'D:/test/ccc/mp4/1.mp4' #视频门路
    cap = cv2.VideoCapture(video_path) # 读取视频
    fps = cap.get(cv2.CAP_PROP_FPS)    # 获取视频的帧率

    while True:
        k=0
        while cap.isOpened():
            success, frame = cap.read()
            if success:
                k += 1
                if k % (fps*4) == 0: # 每隔 4s 发送一帧图片
                    # 将 numpy 图片转化为 bytes 字节流
                    _, img_encode = cv2.imencode('.jpg', frame)
                    img_data = img_encode.tobytes()

                    # 将 string 字符串转化为 bytes 字节流
                    img_name = (str(k)+'.jpg').encode()

                    # 间断发送音讯
                    await websocket.send(img_data)    
                    await websocket.send(img_name)  
                    print('已胜利发送 %3d.jpg, 睡眠 1 秒'%k)
                    await asyncio.sleep(1)          # 休眠 1 秒
        cap.release()
                    
      
if __name__ == '__main__':
    start_server = websockets.serve(echo,'127.0.0.1',6666) # 改为你本人的地址
    asyncio.get_event_loop().run_until_complete(start_server)
    asyncio.get_event_loop().run_forever()

client.py

import asyncio
import websockets
import numpy as np
import cv2
import os


async def hello(uri):
    async with websockets.connect(uri) as websocket:
        os.makedirs('./save',exist_ok=True)
        while True:
            img_data = await websocket.recv()  # 接管音讯
            img_name = await websocket.recv()  # 接管音讯

            # 将 图片字节码 bytes  转换成一维的 numpy 数组 到缓存中
            img_buffer_numpy = np.frombuffer(img_data, dtype=np.uint8) 
            # 从指定的内存缓存中读取一维 numpy 数据,并把数据转换 (解码) 成图像矩阵格局
            frame = cv2.imdecode(img_buffer_numpy, 1) 

            name = img_name.decode()
            cv2.imwrite('./save/'+name, frame)   
            print('已胜利接管',name)
          

if __name__ == '__main__':
    asyncio.get_event_loop().run_until_complete(hello('ws://127.0.0.1:6666')) # 改为你本人的地址

先运行server.py,再运行client.py,成果:

正文完
 0