Apache Dubbo 有injvm形式的通信,可能防止网络带来的提早,同时也不占用本地端口,对测试、本地验证而言,是一种比拟不便的RPC通信形式。
最近看到 containerd 的代码,发现它也有相似的需要。
但应用ip端口通信,有可能会有端口抵触;应用unix socket,可能会有门路抵触。
考查了下gRPC有没有和injvm相似的,基于内存的通信形式。起初发现pipe十分好用,所以记录了下。
Golang/gRPC对网络的形象
首先,咱们先看一下gRPC一次调用的架构图。当然,这个架构图目前只关注了网络形象散布。
咱们重点关注网络局部。
操作系统零碎形象
首先,在网络包之上,零碎形象进去了socket,代表一条虚构连贯,对于UDP,这个虚构连贯是不牢靠的,对于TCP,这个链接是尽力牢靠的。
对于网络编程而言,仅仅有连贯是不够的,还须要通知开发者如何创立、敞开连贯。
对于服务端,零碎提供了accept
办法,用来接管连贯。
对于客户端,零碎提供了connect
办法,用于和服务端建设连贯。
Golang形象
在Golang中,socket对等的概念叫net.Conn
,代表了一条虚构连贯。
接下来,对于服务端,accept这个行为被包装成了net.Listener
接口;对于客户端,Golang则基于connect提供了net.Dial
办法。
type Listener interface {
// 接管来自客户端的网络连接
Accept() (Conn, error)
Close() error
Addr() Addr
}
gRPC应用
那么gRPC是怎么应用Listener和Dial的呢?
对于gRPC服务端,Serve
办法接管一个Listener,示意在这个Listener上提供服务。
对于gRPC客户端,网络实质上就是一个可能连贯到某个中央的货色就能够,所以只须要一个dialer func(context.Context, string) (net.Conn, error)
函数就行了。
什么是pipe
在操作系统层面,pipe
示意一个数据管道,而这个管道两端都在本程序中,能够很好的满足咱们的要求:基于内存的网络通信。
Golang也基于pipe提供了net.Pipe()
函数创立了一个双向的、基于内存通信的管道,在能力上,可能很好的满足gRPC对底层通信的要求。
然而net.Pipe
仅仅产生了两个net.Conn
,即只产生两个网络连接,没有之前提到的Listner,也没有Dial办法。
于是联合Golang的channel,把net.Pipe
包装成了Listner,也提供了Dial办法:
Listener.Accept()
,只须要监听一个channel,客户端连贯过去的时候,把连贯通过channel传递过去即可Dial办法
,调用Pipe,将一端通过channel给服务端(作为服务端连贯),另一端作为客户端连贯
代码如下:
package main
import (
"context"
"errors"
"net"
"sync"
"sync/atomic"
)
var ErrPipeListenerClosed = errors.New(`pipe listener already closed`)
type PipeListener struct {
ch chan net.Conn
close chan struct{}
done uint32
m sync.Mutex
}
func ListenPipe() *PipeListener {
return &PipeListener{
ch: make(chan net.Conn),
close: make(chan struct{}),
}
}
// Accept 期待客户端连贯
func (l *PipeListener) Accept() (c net.Conn, e error) {
select {
case c = <-l.ch:
case <-l.close:
e = ErrPipeListenerClosed
}
return
}
// Close 敞开 listener.
func (l *PipeListener) Close() (e error) {
if atomic.LoadUint32(&l.done) == 0 {
l.m.Lock()
defer l.m.Unlock()
if l.done == 0 {
defer atomic.StoreUint32(&l.done, 1)
close(l.close)
return
}
}
e = ErrPipeListenerClosed
return
}
// Addr 返回 listener 的地址
func (l *PipeListener) Addr() net.Addr {
return pipeAddr(0)
}
func (l *PipeListener) Dial(network, addr string) (net.Conn, error) {
return l.DialContext(context.Background(), network, addr)
}
func (l *PipeListener) DialContext(ctx context.Context, network, addr string) (conn net.Conn, e error) {
// PipeListener是否曾经敞开
if atomic.LoadUint32(&l.done) != 0 {
e = ErrPipeListenerClosed
return
}
// 创立pipe
c0, c1 := net.Pipe()
// 期待连贯传递到服务端接管
select {
case <-ctx.Done():
e = ctx.Err()
case l.ch <- c0:
conn = c1
case <-l.close:
c0.Close()
c1.Close()
e = ErrPipeListenerClosed
}
return
}
type pipeAddr int
func (pipeAddr) Network() string {
return `pipe`
}
func (pipeAddr) String() string {
return `pipe`
}
如何用pipe作为gRPC的connection
有了下面的包装,咱们就能够基于此创立一个gRPC的服务器端和客户端,来进行基于内存的RPC通信了。
首先,咱们简略的创立一个服务,蕴含了四种调用形式:
syntax = "proto3";
option go_package = "google.golang.org/grpc/examples/helloworld/helloworld";
option java_multiple_files = true;
option java_package = "io.grpc.examples.helloworld";
option java_outer_classname = "HelloWorldProto";
package helloworld;
// The greeting service definition.
service Greeter {
// unary调用
rpc SayHello(HelloRequest) returns (HelloReply) {}
// 服务端流式调用
rpc SayHelloReplyStream(HelloRequest) returns (stream HelloReply);
// 客户端流式调用
rpc SayHelloRequestStream(stream HelloRequest) returns (HelloReply);
// 双向流式调用
rpc SayHelloBiStream(stream HelloRequest) returns (stream HelloReply);
}
// The request message containing the user's name.
message HelloRequest {
string name = 1;
}
// The response message containing the greetings
message HelloReply {
string message = 1;
}
而后生成相干的stub代码:
protoc --go_out=. --go_opt=paths=source_relative \
--go-grpc_out=. --go-grpc_opt=paths=source_relative \
helloworld/helloworld.proto
而后开始写服务端代码,根本逻辑就是实现一个demo版本的服务端就好:
package main
import (
"context"
"log"
"github.com/robberphex/grpc-in-memory/helloworld"
pb "github.com/robberphex/grpc-in-memory/helloworld"
)
// helloworld.GreeterServer 的实现
type server struct {
// 为了前面代码兼容,必须聚合UnimplementedGreeterServer
// 这样当前在proto文件中新减少一个办法的时候,这段代码至多不会报错
pb.UnimplementedGreeterServer
}
// unary调用的服务端代码
func (s *server) SayHello(ctx context.Context, in *pb.HelloRequest) (*pb.HelloReply, error) {
log.Printf("Received: %v", in.GetName())
return &pb.HelloReply{Message: "Hello " + in.GetName()}, nil
}
// 客户端流式调用的服务端代码
// 接管两个req,而后返回一个resp
func (s *server) SayHelloRequestStream(streamServer pb.Greeter_SayHelloRequestStreamServer) error {
req, err := streamServer.Recv()
if err != nil {
log.Printf("error receiving: %v", err)
return err
}
log.Printf("Received: %v", req.GetName())
req, err = streamServer.Recv()
if err != nil {
log.Printf("error receiving: %v", err)
return err
}
log.Printf("Received: %v", req.GetName())
streamServer.SendAndClose(&pb.HelloReply{Message: "Hello " + req.GetName()})
return nil
}
// 服务端流式调用的服务端代码
// 接管一个req,而后发送两个resp
func (s *server) SayHelloReplyStream(req *pb.HelloRequest, streamServer pb.Greeter_SayHelloReplyStreamServer) error {
log.Printf("Received: %v", req.GetName())
err := streamServer.Send(&pb.HelloReply{Message: "Hello " + req.GetName()})
if err != nil {
log.Printf("error Send: %+v", err)
return err
}
err = streamServer.Send(&pb.HelloReply{Message: "Hello " + req.GetName() + "_dup"})
if err != nil {
log.Printf("error Send: %+v", err)
return err
}
return nil
}
// 双向流式调用的服务端代码
func (s *server) SayHelloBiStream(streamServer helloworld.Greeter_SayHelloBiStreamServer) error {
req, err := streamServer.Recv()
if err != nil {
log.Printf("error receiving: %+v", err)
// 及时将谬误返回给客户端,下同
return err
}
log.Printf("Received: %v", req.GetName())
err = streamServer.Send(&pb.HelloReply{Message: "Hello " + req.GetName()})
if err != nil {
log.Printf("error Send: %+v", err)
return err
}
// 来到这个函数后,streamServer会敞开,所以不举荐在独自的goroute发送音讯
return nil
}
// 新建一个服务端实现
func NewServerImpl() *server {
return &server{}
}
而后咱们创立一个基于pipe连贯的客户端来调用服务端。
蕴含如下几个步骤:
- 创立服务端实现
- 基于pipe创立listener,而后基于它创立gRPC server
- 基于pipe创立客户端连贯,而后创立gRPC client,调用服务
代码如下:
package main
import (
"context"
"fmt"
"log"
"net"
pb "github.com/robberphex/grpc-in-memory/helloworld"
"google.golang.org/grpc"
)
// 将一个服务实现转化为一个客户端
func serverToClient(svc *server) pb.GreeterClient {
// 创立一个基于pipe的Listener
pipe := ListenPipe()
s := grpc.NewServer()
// 注册Greeter服务到gRPC
pb.RegisterGreeterServer(s, svc)
if err := s.Serve(pipe); err != nil {
log.Fatalf("failed to serve: %v", err)
}
// 客户端指定应用pipe作为网络连接
clientConn, err := grpc.Dial(`pipe`,
grpc.WithInsecure(),
grpc.WithContextDialer(func(c context.Context, s string) (net.Conn, error) {
return pipe.DialContext(c, `pipe`, s)
}),
)
if err != nil {
log.Fatalf("did not connect: %v", err)
}
// 基于pipe连贯,创立gRPC客户端
c := pb.NewGreeterClient(clientConn)
return c
}
func main() {
svc := NewServerImpl()
c := serverToClient(svc)
ctx := context.Background()
// unary调用
for i := 0; i < 5; i++ {
r, err := c.SayHello(ctx, &pb.HelloRequest{Name: fmt.Sprintf("world_unary_%d", i)})
if err != nil {
log.Fatalf("could not greet: %v", err)
}
log.Printf("Greeting: %s", r.GetMessage())
}
// 客户端流式调用
for i := 0; i < 5; i++ {
streamClient, err := c.SayHelloRequestStream(ctx)
if err != nil {
log.Fatalf("could not SayHelloRequestStream: %v", err)
}
err = streamClient.Send(&pb.HelloRequest{Name: fmt.Sprintf("SayHelloRequestStream_%d", i)})
if err != nil {
log.Fatalf("could not Send: %v", err)
}
err = streamClient.Send(&pb.HelloRequest{Name: fmt.Sprintf("SayHelloRequestStream_%d_dup", i)})
if err != nil {
log.Fatalf("could not Send: %v", err)
}
reply, err := streamClient.CloseAndRecv()
if err != nil {
log.Fatalf("could not Recv: %v", err)
}
log.Println(reply.GetMessage())
}
// 服务端流式调用
for i := 0; i < 5; i++ {
streamClient, err := c.SayHelloReplyStream(ctx, &pb.HelloRequest{Name: fmt.Sprintf("SayHelloReplyStream_%d", i)})
if err != nil {
log.Fatalf("could not SayHelloReplyStream: %v", err)
}
reply, err := streamClient.Recv()
if err != nil {
log.Fatalf("could not Recv: %v", err)
}
log.Println(reply.GetMessage())
reply, err = streamClient.Recv()
if err != nil {
log.Fatalf("could not Recv: %v", err)
}
log.Println(reply.GetMessage())
}
// 双向流式调用
for i := 0; i < 5; i++ {
streamClient, err := c.SayHelloBiStream(ctx)
if err != nil {
log.Fatalf("could not SayHelloStream: %v", err)
}
err = streamClient.Send(&pb.HelloRequest{Name: fmt.Sprintf("world_stream_%d", i)})
if err != nil {
log.Fatalf("could not Send: %v", err)
}
reply, err := streamClient.Recv()
if err != nil {
log.Fatalf("could not Recv: %v", err)
}
log.Println(reply.GetMessage())
}
}
总结
当然,作为基于内存的RPC调用,还能够有更好的形式,比方间接将对象传递到服务端,间接通过本地调用形式来通信。
但这种形式毁坏了很多约定,比方对象地址、比方gRPC连贯参数不失效等等。
本文介绍的,基于Pipe的通信形式,除了网络层走了内存传递之外,其余都和失常RPC通信行为统一,比方同样经验了序列化、经验了HTTP/2的流控制等。当然,性能上比原生调用也会差一点,然而好在对于测试、验证场景,行为上的统一比拟重要些。
本文代码曾经托管到了GitHub https://github.com/robberphex…。
本文首发于 https://robberphex.com/grpc-i…。
发表回复