在不同的场景中RPC有着不同的需求,因此开源的社区就诞生了各种RPC框架。本节我们将尝试Go内置RPC框架在一些比较特殊场景的用法。
Go语言的RPC库最简单的使用方式是通过Client.Call方法进行同步阻塞调用,该方法的实现如下:
Client.Call
func (client *Client) Call( serviceMethod string, args interface{}, reply interface{}, ) error { call := <-client.Go(serviceMethod, args, reply, make(chan *Call, 1)).Done return call.Error }
首先通过Client.Go方法进行一次异步调用,返回一个表示这次调用的Call结构体。然后等待Call结构体的Done管道返回调用结果。
Client.Go
Call
我们也可以通过Client.Go方法异步调用前面的HelloService服务:
func doClientWork(client *rpc.Client) { helloCall := client.Go("HelloService.Hello", "hello", new(string), nil) // do some thing helloCall = <-helloCall.Done if err := helloCall.Error; err != nil { log.Fatal(err) } args := helloCall.Args.(string) reply := helloCall.Reply.(string) fmt.Println(args, reply) }
在异步调用命令发出后,一般会执行其他的任务,因此异步调用的输入参数和返回值可以通过返回的Call变量进行获取。
执行异步调用的Client.Go方法实现如下:
func (client *Client) Go( serviceMethod string, args interface{}, reply interface{}, done chan *Call, ) *Call { call := new(Call) call.ServiceMethod = serviceMethod call.Args = args call.Reply = reply call.Done = make(chan *Call, 10) // buffered. client.send(call) return call }
首先是构造一个表示当前调用的call变量,然后通过client.send将call的完整参数发送到RPC框架。client.send方法调用是线程安全的,因此可以从多个Goroutine同时向同一个RPC链接发送调用指令。
client.send
当调用完成或者发生错误时,将调用call.done方法通知完成:
call.done
func (call *Call) done() { select { case call.Done <- call: // ok default: // We don't want to block here. It is the caller's responsibility to make // sure the channel has enough buffer space. See comment in Go(). } }
从Call.done方法的实现可以得知call.Done管道会将处理后的call返回。
Call.done
call.Done
在很多系统中都提供了Watch监视功能的接口,当系统满足某种条件时Watch方法返回监控的结果。在这里我们可以尝试通过RPC框架实现一个基本的Watch功能。如前文所描述,因为client.send是线程安全的,我们也可以通过在不同的Goroutine中同时并发阻塞调用RPC方法。通过在一个独立的Goroutine中调用Watch函数进行监控。
为了便于演示,我们计划通过RPC构造一个简单的内存KV数据库。首先定义服务如下:
type KVStoreService struct { m map[string]string filter map[string]func(key string) mu sync.Mutex } func NewKVStoreService() *KVStoreService { return &KVStoreService{ m: make(map[string]string), filter: make(map[string]func(key string)), } }
其中m成员是一个map类型,用于存储KV数据。filter成员对应每个Watch调用时定义的过滤器函数列表。而mu成员为互斥锁,用于在多个Goroutine访问或修改时对其它成员提供保护。
m
filter
mu
然后就是Get和Set方法:
func (p *KVStoreService) Get(key string, value *string) error { p.mu.Lock() defer p.mu.Unlock() if v, ok := p.m[key]; ok { *value = v return nil } return fmt.Errorf("not found") } func (p *KVStoreService) Set(kv [2]string, reply *struct{}) error { p.mu.Lock() defer p.mu.Unlock() key, value := kv[0], kv[1] if oldValue := p.m[key]; oldValue != value { for _, fn := range p.filter { fn(key) } } p.m[key] = value return nil }
在Set方法中,输入参数是key和value组成的数组,用一个匿名的空结构体表示忽略了输出参数。当修改某个key对应的值时会调用每一个过滤器函数。
而过滤器列表在Watch方法中提供:
func (p *KVStoreService) Watch(timeoutSecond int, keyChanged *string) error { id := fmt.Sprintf("watch-%s-%03d", time.Now(), rand.Int()) ch := make(chan string, 10) // buffered p.mu.Lock() p.filter[id] = func(key string) { ch <- key } p.mu.Unlock() select { case <-time.After(time.Duration(timeoutSecond) * time.Second): return fmt.Errorf("timeout") case key := <-ch: *keyChanged = key return nil } return nil }
Watch方法的输入参数是超时的秒数。当有key变化时将key作为返回值返回。如果超过时间后依然没有key被修改,则返回超时的错误。Watch的实现中,用唯一的id表示每个Watch调用,然后根据id将自身对应的过滤器函数注册到p.filter列表。
p.filter
KVStoreService服务的注册和启动过程我们不再赘述。下面我们看看如何从客户端使用Watch方法:
func doClientWork(client *rpc.Client) { go func() { var keyChanged string err := client.Call("KVStoreService.Watch", 30, &keyChanged) if err != nil { log.Fatal(err) } fmt.Println("watch:", keyChanged) } () err := client.Call( "KVStoreService.Set", [2]string{"abc", "abc-value"}, new(struct{}), ) if err != nil { log.Fatal(err) } time.Sleep(time.Second*3) }
首先启动一个独立的Goroutine监控key的变化。同步的watch调用会阻塞,直到有key发生变化或者超时。然后在通过Set方法修改KV值时,服务器会将变化的key通过Watch方法返回。这样我们就可以实现对某些状态的监控。
通常的RPC是基于C/S结构,RPC的服务端对应网络的服务器,RPC的客户端也对应网络客户端。但是对于一些特殊场景,比如在公司内网提供一个RPC服务,但是在外网无法链接到内网的服务器。这种时候我们可以参考类似反向代理的技术,首先从内网主动链接到外网的TCP服务器,然后基于TCP链接向外网提供RPC服务。
以下是启动反向RPC服务的代码:
func main() { rpc.Register(new(HelloService)) for { conn, _ := net.Dial("tcp", "localhost:1234") if conn == nil { time.Sleep(time.Second) continue } rpc.ServeConn(conn) conn.Close() } }
反向RPC的内网服务将不再主动提供TCP监听服务,而是首先主动链接到对方的TCP服务器。然后基于每个建立的TCP链接向对方提供RPC服务。
而RPC客户端则需要在一个公共的地址提供一个TCP服务,用于接受RPC服务器的链接请求:
func main() { listener, err := net.Listen("tcp", ":1234") if err != nil { log.Fatal("ListenTCP error:", err) } clientChan := make(chan *rpc.Client) go func() { for { conn, err := listener.Accept() if err != nil { log.Fatal("Accept error:", err) } clientChan <- rpc.NewClient(conn) } }() doClientWork(clientChan) }
当每个链接建立后,基于网络链接构造RPC客户端对象并发送到clientChan管道。
客户端执行RPC调用的操作在doClientWork函数完成:
func doClientWork(clientChan <-chan *rpc.Client) { client := <-clientChan defer client.Close() var reply string err = client.Call("HelloService.Hello", "hello", &reply) if err != nil { log.Fatal(err) } fmt.Println(reply) }
首先从管道去取一个RPC客户端对象,并且通过defer语句指定在函数退出前关闭客户端。然后是执行正常的RPC调用。
基于上下文我们可以针对不同客户端提供定制化的RPC服务。我们可以通过为每个链接提供独立的RPC服务来实现对上下文特性的支持。
首先改造HelloService,里面增加了对应链接的conn成员:
type HelloService struct { conn net.Conn }
然后为每个链接启动独立的RPC服务:
func main() { listener, err := net.Listen("tcp", ":1234") if err != nil { log.Fatal("ListenTCP error:", err) } for { conn, err := listener.Accept() if err != nil { log.Fatal("Accept error:", err) } go func() { defer conn.Close() p := rpc.NewServer() p.Register(&HelloService{conn: conn}) p.ServeConn(conn) } () } }
Hello方法中就可以根据conn成员识别不同链接的RPC调用:
func (p *HelloService) Hello(request string, reply *string) error { *reply = "hello:" + request + ", from" + p.conn.RemoteAddr().String() return nil }
基于上下文信息,我们可以方便地为RPC服务增加简单的登陆状态的验证:
type HelloService struct { conn net.Conn isLogin bool } func (p *HelloService) Login(request string, reply *string) error { if request != "user:password" { return fmt.Errorf("auth failed") } log.Println("login ok") p.isLogin = true return nil } func (p *HelloService) Hello(request string, reply *string) error { if !p.isLogin { return fmt.Errorf("please login") } *reply = "hello:" + request + ", from" + p.conn.RemoteAddr().String() return nil }
这样可以要求在客户端链接RPC服务时,首先要执行登陆操作,登陆成功后才能正常执行其他的服务。
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8