第一章我们简单试用了ZMQ的若干通信模式:请求-应答模式、发布-订阅模式、管道模式。这一章我们将学习更多在实际开发中会使用到的东西:
本章涉及的内容有:
ØMQ一词中的Ø让我们纠结了很久。一方面,这个特殊字符会降低ZMQ在谷歌和推特中的收录量;另一方面,这会惹恼某些丹麦语种的民族,他们会嚷道Ø并不是一个奇怪的0。
一开始ZMQ代表零中间件、零延迟,同时,它又有了新的含义:零管理、零成本、零浪费。总的来说,零表示最小、最简,这是贯穿于该项目的哲理。我们致力于减少复杂程度,提高易用性。
说实话,ZMQ有些偷梁换柱的嫌疑。不过我们并不会为此道歉,因为这种概念上的切换绝对不会有坏处。ZMQ提供了一套类似于BSD套接字的API,但将很多消息处理机制的细节隐藏了起来,你会逐渐适应这种变化,并乐于用它进行编程。
套接字事实上是用于网络编程的标准接口,ZMQ之所那么吸引人眼球,原因之一就是它是建立在标准套接字API之上。因此,ZMQ的套接字操作非常容易理解,其生命周期主要包含四个部分:
如以下C代码:
void *mousetrap; // Create socket for catching mice mousetrap = zmq_socket (context, ZMQ_PULL); // Configure the socket int64_t jawsize = 10000; zmq_setsockopt (mousetrap, ZMQ_HWM, &jawsize, sizeof jawsize); // Plug socket into mouse hole zmq_connect (mousetrap, "tcp://192.168.55.221:5001"); // Wait for juicy mouse to arrive zmq_msg_t mouse; zmq_msg_init (&mouse); zmq_recv (mousetrap, &mouse, 0); // Destroy the mouse zmq_msg_close (&mouse); // Destroy the socket zmq_close (mousetrap);
请注意,套接字永远是空指针类型的,而消息则是一个数据结构(我们下文会讲述)。所以,在C语言中你通过变量传递套接字,而用引用传递消息。记住一点,在ZMQ中所有的套接字都是由ZMQ管理的,只有消息是由程序员管理的。
创建、销毁、以及配置套接字的工作和处理一个对象差不多,但请记住ZMQ是异步的,伸缩性很强,因此在将其应用到网络结构中时,可能会需要多一些时间来理解。
在连接两个节点时,其中一个需要使用zmq_bind(),另一个则使用zmq_connect()。通常来讲,使用zmq_bind()连接的节点称之为服务端,它有着一个较为固定的网络地址;使用zmq_connect()连接的节点称为客户端,其地址不固定。我们会有这样的说法:绑定套接字至端点;连接套接字至端点。端点指的是某个广为周知网络地址。
ZMQ连接和传统的TCP连接是有区别的,主要有:
在很多架构中都使用了类似于C/S的架构。服务端组件是比较稳定的,而客户端组件则较为动态,来去自如。所以说,服务端地址对客户端而言往往是可见的,反之则不然。这样一来,架构中应该将哪些组件作为服务端(使用zmq_bind()),哪些作为客户端(使用zmq_connect()),就很明显了。同时,这需要和你使用的套接字类型相联系起来,我们下文会详细讲述。
让我们试想一下,如果先打开了客户端,后打开服务端,会发生什么?传统网络连接中,我们打开客户端时一定会收到系统的报错信息,但ZMQ让我们能够自由地启动架构中的组件。当客户端使用zmq_connect()连接至某个端点时,它就已经能够使用该套接字发送消息了。如果这时,服务端启动起来了,并使用zmq_bind()绑定至该端点,ZMQ将自动开始转发消息。
服务端节点可以仅使用一个套接字就能绑定至多个端点。也就是说,它能够使用不同的协议来建立连接:
zmq_bind (socket, "tcp://*:5555"); zmq_bind (socket, "tcp://*:9999"); zmq_bind (socket, "ipc://myserver.ipc");
当然,你不能多次绑定至同一端点,这样是会报错的。
每当有客户端节点使用zmq_connect()连接至上述某个端点时,服务端就会自动创建连接。ZMQ没有对连接数量进行限制。此外,客户端节点也可以使用一个套接字同时建立多个连接。
大多数情况下,哪个节点充当服务端,哪个作为客户端,是网络架构层面的内容,而非消息流问题。不过也有一些特殊情况(如失去连接后的消息重发),同一种套接字使用绑定和连接是会有一些不同的行为的。
所以说,当我们在设计架构时,应该遵循“服务端是稳定的,客户端是灵活的“原则,这样就不太会出错。
套接字是有类型的,套接字类型定义了套接字的行为,它在发送和接收消息时的规则等。你可以将不同种类的套接字进行连接,如PUB-SUB组合,这种组合称之为发布-订阅模式,其他组合也会有相应的模式名称,我们会在下文详述。
正是因为套接字可以使用不同的方式进行连接,才构成了ZMQ最基本的消息队列系统。我们还可以在此基础之上建立更为复杂的装置、路由机制等,下文会详述。总的来说,ZMQ为你提供了一套组件,供你在网络架构中拼装和使用。
发送和接收消息使用的是zmq_send()和zmq_recv()这两个函数。虽然函数名称看起来很直白,但由于ZMQ的I/O模式和传统的TCP协议有很大不同,因此还是需要花点时间去理解的。
让我们看一看TCP套接字和ZMQ套接字之间在传输数据方面的区别:
所以,向套接字写入一个消息时可能会将消息发送给很多节点,相应的,套接字又会从所有已建立的连接中接收消息。zmq_recv()方法使用了公平队列的算法来决定接收哪个连接的消息。
调用zmq_send()方法时其实并没有真正将消息发送给套接字连接。消息会在一个内存队列中保存下来,并由后台的I/O线程异步地进行发送。如果不出意外情况,这一行为是非阻塞的。所以说,即便zmq_send()有返回值,并不能代表消息已经发送。当你在用zmq_msg_init_data()初始化消息后,你不能重用或是释放这条消息,否则ZMQ的I/O线程会认为它在传输垃圾数据。这对初学者来讲是一个常犯的错误,下文我们会讲述如何正确地处理消息。
ZMQ提供了一组单播传输协议(inporc, ipc, tcp),和两个广播协议(epgm, pgm)。广播协议是比较高级的协议,我们会在以后讲述。如果你不能回答我扇出比例会影响一对多的单播传输时,就先不要去学习广播协议了吧。
一般而言我们会使用tcp作为传输协议,这种TCP连接是可以脱机运作的,它灵活、便携、且足够快速。为什么称之为脱机,是因为ZMQ中的TCP连接不需要该端点已经有某个服务进行了绑定,客户端和服务端可以随时进行连接和绑定,这对应用程序而言都是透明的。
进程间协议,即ipc,和tcp的行为差不多,但已从网络传输中抽象出来,不需要指定IP地址或者域名。这种协议很多时候会很方便,本指南中的很多示例都会使用这种协议。ZMQ中的ipc协议同样可以是脱机的,但有一个缺点——无法在Windows操作系统上运作,这一点也许会在未来的ZMQ版本中修复。我们一般会在端点名称的末尾附上.ipc的扩展名,在UNIX系统上,使用ipc协议还需要注意权限问题。你还需要保证所有的程序都能够找到这个ipc端点。
进程内协议,即inproc,可以在同一个进程的不同线程之间进行消息传输,它比ipc或tcp要快得多。这种协议有一个要求,必须先绑定到端点,才能建立连接,也许未来也会修复。通常的做法是先启动服务端线程,绑定至端点,后启动客户端线程,连接至端点。
经常有新人会问,如何使用ZMQ建立一项服务?我能使用ZMQ建立一个HTTP服务器吗?
他们期望得到的回答是,我们用普通的套接字来传输HTTP请求和应答,那用ZMQ套接字也能够完成这个任务,且能运行得更快、更好。
只可惜答案并不是这样的。ZMQ不只是一个数据传输的工具,而是在现有通信协议之上建立起来的新架构。它的数据帧和现有的协议并不兼容,如下面是一个HTTP请求和ZMQ请求的对比,同样使用的是TCP/IPC协议:
HTTP请求使用CR-LF(换行符)作为信息帧的间隔,而ZMQ则使用指定长度来定义帧:
所以说,你的确是可以用ZMQ来写一个类似于HTTP协议的东西,但是这并不是HTTP。
不过,如果有人问我如何更好地使用ZMQ建立一个新的服务,我会给出一个不错的答案,那就是:你可以自行设计一种通信协议,用ZMQ进行连接,使用不同的语言提供服务和扩展,可以在本地,亦可通过远程传输。赛德•肖的Mongrel2网络服务的架构就是一个很好的示例。
我们提过ZMQ是通过后台的I/O线程进行消息传输的。一个I/O线程已经足以处理多个套接字的数据传输要求,当然,那些极端的应用程序除外。这也就是我们在创建上下文时传入的1所代表的意思:
void *context = zmq_init (1);
ZMQ应用程序和传统应用程序的区别之一就是你不需要为每个套接字都创建一个连接。单个ZMQ套接字可以处理所有的发送和接收任务。如,当你需要向一千个订阅者发布消息时,使用一个套接字就可以了;当你需要向二十个服务进程分发任务时,使用一个套接字就可以了;当你需要从一千个网页应用程序中获取数据时,也是使用一个套接字就可以了。
这一特性可能会颠覆网络应用程序的编写步骤,传统应用程序每个进程或线程会有一个远程连接,它又只能处理一个套接字。ZMQ让你打破这种结构,使用一个线程来完成所有工作,更易于扩展。
ZMQ的套接字API中提供了多种消息模式。如果你熟悉企业级消息应用,那这些模式会看起来很熟悉。不过对于新手来说,ZMQ的套接字还是会让人大吃一惊的。
让我们回顾一下ZMQ会为你做些什么:它会将消息快速高效地发送给其他节点,这里的节点可以是线程、进程、或是其他计算机;ZMQ为应用程序提供了一套简单的套接字API,不用考虑实际使用的协议类型(进程内、进程间、TPC、或广播);当节点调动时,ZMQ会自动进行连接或重连;无论是发送消息还是接收消息,ZMQ都会先将消息放入队列中,并保证进程不会因为内存溢出而崩溃,适时地将消息写入磁盘;ZMQ会处理套接字异常;所有的I/O操作都在后台进行;ZMQ不会产生死锁。
但是,以上种种的前提是用户能够正确地使用消息模式,这种模式往往也体现出了ZMQ的智慧。消息模式将我们从实践中获取的经验进行抽象和重组,用于解决之后遇到的所有问题。ZMQ的消息模式目前是编译在类库中的,不过未来的ZMQ版本可能会允许用户自行制定消息模式。
ZMQ的消息模式是指不同类型套接字的组合。换句话说,要理解ZMQ的消息模式,你需要理解ZMQ的套接字类型,它们是如何一起工作的。这一部分是需要死记硬背的。
ZMQ的核心消息模式有:
请求-应答模式 将一组服务端和一组客户端相连,用于远程过程调用或任务分发。
发布-订阅模式 将一组发布者和一组订阅者相连,用于数据分发。
管道模式 使用扇入或扇出的形式组装多个节点,可以产生多个步骤或循环,用于构建并行处理架构。
我们在第一章中已经讲述了这些模式,不过还有一种模式是为那些仍然认为ZMQ是类似TCP那样点对点连接的人们准备的:
zmq_socket()函数的说明页中有对所有消息模式的说明,比较清楚,因此值得研读几次。我们会介绍每种消息模式的内容和应用场景。
以下是合法的套接字连接-绑定对(一端绑定、一端连接即可):
其他的组合模式会产生不可预知的结果,在将来的ZMQ版本中可能会直接返回错误。你也可以通过代码去了解这些套接字类型的行为。
上文中的四种核心消息模式是内建在ZMQ中的,他们是API的一部分,在ZMQ的C++核心类库中实现,能够保证正确地运行。如果有朝一日Linux内核将ZMQ采纳了进来,那这些核心模式也肯定会包含其中。
在这些消息模式之上,我们会建立更为上层的消息模式。这种模式可以用任何语言编写,他们不属于核心类型的一部分,不随ZMQ发行,只在你自己的应用程序中出现,或者在ZMQ社区中维护。
本指南的目的之一就是为你提供一些上层的消息模式,有简单的(如何正确处理消息),也有复杂的(可靠的发布-订阅模式)。
ZMQ的传输单位是消息,即一个二进制块。你可以使用任意的序列化工具,如谷歌的Protocal Buffers、XDR、JSON等,将内容转化成ZMQ消息。不过这种转化工具最好是便捷和快速的,这个请自己衡量。
在内存中,ZMQ消息由zmq_msg_t结构表示(每种语言有特定的表示)。在C语言中使用ZMQ消息时需要注意以下几点:
以下是一段处理消息的典型代码,如果之前的代码你有看的话,那应该会感到熟悉。这段代码其实是从zhelpers.h文件中抽出的:
// 从套接字中获取ZMQ字符串,并转换为C语言字符串 static char * s_recv (void *socket) { zmq_msg_t message; zmq_msg_init (&message); zmq_recv (socket, &message, 0); int size = zmq_msg_size (&message); char *string = malloc (size + 1); memcpy (string, zmq_msg_data (&message), size); zmq_msg_close (&message); string [size] = 0; return (string); } // 将C语言字符串转换为ZMQ字符串,并发送给套接字 static int s_send (void *socket, char *string) { int rc; zmq_msg_t message; zmq_msg_init_size (&message, strlen (string)); memcpy (zmq_msg_data (&message), string, strlen (string)); rc = zmq_send (socket, &message, 0); assert (!rc); zmq_msg_close (&message); return (rc); }
你可以对以上代码进行扩展,让其支持发送和接受任一长度的数据。
需要注意的是,当你将一个消息对象传递给zmq_send()函数后,该对象的长度就会被清零,因此你无法发送同一个消息对象两次,也无法获得已发送消息的内容。
如果你想发送同一个消息对象两次,就需要在发送第一次前新建一个对象,使用zmq_msg_copy()函数进行拷贝。这个函数不会拷贝消息内容,只是拷贝引用。然后你就可以再次发送这个消息了(或者任意多次,只要进行了足够的拷贝)。当消息最后一个引用被释放时,消息对象就会被销毁。
ZMQ支持多帧消息,即在一条消息中保存多个消息帧。这在实际应用中被广泛使用,我们会在第三章进行讲解。
关于消息,还有一些需要注意的地方:
再重复一句,不要贸然使用zmq_msg_init_data()函数。它是用于零拷贝,而且可能会造成麻烦。关于ZMQ还有太多东西需要你去学习,因此现在暂时不用去考虑如何削减几微秒的开销。
在之前的示例中,主程序的循环体内会做以下几件事:
如果我们想要读取多个套接字中的消息呢?最简单的方法是将套接字连接到多个端点上,让ZMQ使用公平队列的机制来接受消息。如果不同端点上的套接字类型是一致的,那可以使用这种方法。但是,如果一个套接字的类型是PULL,另一个是PUB怎么办?如果现在开始混用套接字类型,那将来就没有可靠性可言了。
正确的方法应该是使用zmq_poll()函数。更好的方法是将zmq_poll()包装成一个框架,编写一个事件驱动的反应器,但这个就比较复杂了,我们这里暂不讨论。
我们先不使用zmq_poll(),而用NOBLOCK(非阻塞)的方式来实现从多个套接字读取消息的功能。下面将气象信息服务和并行处理这两个示例结合起来:
msreader: Multiple socket reader in C
// // 从多个套接字中获取消息 // 本示例简单地再循环中使用recv函数 // #include "zhelpers.h" int main (void) { // 准备上下文和套接字 void *context = zmq_init (1); // 连接至任务分发器 void *receiver = zmq_socket (context, ZMQ_PULL); zmq_connect (receiver, "tcp://localhost:5557"); // 连接至天气服务 void *subscriber = zmq_socket (context, ZMQ_SUB); zmq_connect (subscriber, "tcp://localhost:5556"); zmq_setsockopt (subscriber, ZMQ_SUBSCRIBE, "10001 ", 6); // 处理从两个套接字中接收到的消息 // 这里我们会优先处理从任务分发器接收到的消息 while (1) { // 处理等待中的任务 int rc; for (rc = 0; !rc; ) { zmq_msg_t task; zmq_msg_init (&task); if ((rc = zmq_recv (receiver, &task, ZMQ_NOBLOCK)) == 0) { // 处理任务 } zmq_msg_close (&task); } // 处理等待中的气象更新 for (rc = 0; !rc; ) { zmq_msg_t update; zmq_msg_init (&update); if ((rc = zmq_recv (subscriber, &update, ZMQ_NOBLOCK)) == 0) { // 处理气象更新 } zmq_msg_close (&update); } // 没有消息,等待1毫秒 s_sleep (1); } // 程序不会运行到这里,但还是做正确的退出清理工作 zmq_close (receiver); zmq_close (subscriber); zmq_term (context); return 0; }
这种方式的缺点之一是,在收到第一条消息之前会有1毫秒的延迟,这在高压力的程序中还是会构成问题的。此外,你还需要翻阅诸如nanosleep()的函数,不会造成循环次数的激增。
示例中将任务分发器的优先级提升了,你可以做一个改进,轮流处理消息,正如ZMQ内部做的公平队列机制一样。
下面,让我们看看如何用zmq_poll()来实现同样的功能:
mspoller: Multiple socket poller in C
// // 从多个套接字中接收消息 // 本例使用zmq_poll()函数 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 连接任务分发器 void *receiver = zmq_socket (context, ZMQ_PULL); zmq_connect (receiver, "tcp://localhost:5557"); // 连接气象更新服务 void *subscriber = zmq_socket (context, ZMQ_SUB); zmq_connect (subscriber, "tcp://localhost:5556"); zmq_setsockopt (subscriber, ZMQ_SUBSCRIBE, "10001 ", 6); // 初始化轮询对象 zmq_pollitem_t items [] = { { receiver, 0, ZMQ_POLLIN, 0 }, { subscriber, 0, ZMQ_POLLIN, 0 } }; // 处理来自两个套接字的消息 while (1) { zmq_msg_t message; zmq_poll (items, 2, -1); if (items [0].revents & ZMQ_POLLIN) { zmq_msg_init (&message); zmq_recv (receiver, &message, 0); // 处理任务 zmq_msg_close (&message); } if (items [1].revents & ZMQ_POLLIN) { zmq_msg_init (&message); zmq_recv (subscriber, &message, 0); // 处理气象更新 zmq_msg_close (&message); } } // 程序不会运行到这儿 zmq_close (receiver); zmq_close (subscriber); zmq_term (context); return 0; }
ZMQ的错误处理机制提倡的是快速崩溃。我们认为,一个进程对于自身内部的错误来说要越脆弱越好,而对外部的攻击和错误要足够健壮。举个例子,活细胞会因检测到自身问题而瓦解,但对外界的攻击却能极力抵抗。在ZMQ编程中,断言用得是非常多的,如同细胞膜一样。如果我们无法确定一个错误是来自于内部还是外部,那这就是一个设计缺陷了,需要修复。
在C语言中,断言失败会让程序立即中止。其他语言中可以使用异常来做到。
当ZMQ检测到来自外部的问题时,它会返回一个错误给调用程序。如果ZMQ不能从错误中恢复,那它是不会安静地将消息丢弃的。某些情况下,ZMQ也会去断言外部错误,这些可以被归结为BUG。
到目前为止,我们很少看到C语言的示例中有对错误进行处理。现实中的代码应该对每一次的ZMQ函数调用作错误处理。如果你不是使用C语言进行编程,可能那种语言的ZMQ类库已经做了错误处理。但在C语言中,你需要自己动手。以下是一些常规的错误处理手段,从POSIX规范开始:
有两种情况不应该被认为是错误:
遵循以上规则,你就可以在ZMQ程序中使用断言了:
void *context = zmq_init (1); assert (context); void *socket = zmq_socket (context, ZMQ_REP); assert (socket); int rc; rc = zmq_bind (socket, "tcp://*:5555"); assert (rc == 0);
第一版的程序中我将函数调用直接放在了assert()函数里面,这样做会有问题,因为一些优化程序会直接将程序中的assert()函数去除。
让我们看看如何正确地关闭一个进程,我们用管道模式举例。当我们在后台开启了一组worker时,我们需要在任务执行完毕后关闭它们。我们可以向这些worker发送自杀的消息,这项工作由结果收集器来完成会比较恰当。
如何将结果收集器和worker相连呢?PUSH-PULL套接字是单向的。ZMQ的原则是:如果需要解决一个新的问题,就该使用新的套接字。这里我们使用发布-订阅模式来发送自杀的消息:
这一过程不会添加太多的代码:
void *control = zmq_socket (context, ZMQ_PUB); zmq_bind (control, "tcp://*:5559"); ... // Send kill signal to workers zmq_msg_init_data (&message, "KILL", 5); zmq_send (control, &message, 0); zmq_msg_close (&message);
下面是worker进程的代码,它会打开三个套接字:用于接收任务的PULL、用于发送结果的PUSH、以及用于接收自杀信号的SUB,使用zmq_poll()进行轮询:
taskwork2: Parallel task worker with kill signaling in C
// // 管道模式 - worker 设计2 // 添加发布-订阅消息流,用以接收自杀消息 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 用于接收消息的套接字 void *receiver = zmq_socket (context, ZMQ_PULL); zmq_connect (receiver, "tcp://localhost:5557"); // 用户发送消息的套接字 void *sender = zmq_socket (context, ZMQ_PUSH); zmq_connect (sender, "tcp://localhost:5558"); // 用户接收控制消息的套接字 void *controller = zmq_socket (context, ZMQ_SUB); zmq_connect (controller, "tcp://localhost:5559"); zmq_setsockopt (controller, ZMQ_SUBSCRIBE, "", 0); // 处理接收到的任务或控制消息 zmq_pollitem_t items [] = { { receiver, 0, ZMQ_POLLIN, 0 }, { controller, 0, ZMQ_POLLIN, 0 } }; // 处理消息 while (1) { zmq_msg_t message; zmq_poll (items, 2, -1); if (items [0].revents & ZMQ_POLLIN) { zmq_msg_init (&message); zmq_recv (receiver, &message, 0); // 工作 s_sleep (atoi ((char *) zmq_msg_data (&message))); // 发送结果 zmq_msg_init (&message); zmq_send (sender, &message, 0); // 简单的任务进图指示 printf ("."); fflush (stdout); zmq_msg_close (&message); } // 任何控制命令都表示自杀 if (items [1].revents & ZMQ_POLLIN) break; // 退出循环 } // 结束程序 zmq_close (receiver); zmq_close (sender); zmq_close (controller); zmq_term (context); return 0; }
下面是修改后的结果收集器代码,在收集完结果后向所有worker发送自杀消息:
tasksink2: Parallel task sink with kill signaling in C
// // 管道模式 - 结构收集器 设计2 // 添加发布-订阅消息流,用以向worker发送自杀信号 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 用于接收消息的套接字 void *receiver = zmq_socket (context, ZMQ_PULL); zmq_bind (receiver, "tcp://*:5558"); // 用以发送控制信息的套接字 void *controller = zmq_socket (context, ZMQ_PUB); zmq_bind (controller, "tcp://*:5559"); // 等待任务开始 char *string = s_recv (receiver); free (string); // 开始计时 int64_t start_time = s_clock (); // 确认100个任务处理完毕 int task_nbr; for (task_nbr = 0; task_nbr < 100; task_nbr++) { char *string = s_recv (receiver); free (string); if ((task_nbr / 10) * 10 == task_nbr) printf (":"); else printf ("."); fflush (stdout); } printf ("总执行时间: %d msec\n", (int) (s_clock () - start_time)); // 发送自杀消息给worker s_send (controller, "KILL"); // 结束 sleep (1); // 等待发送完毕 zmq_close (receiver); zmq_close (controller); zmq_term (context); return 0; }
现实环境中,当应用程序收到Ctrl-C或其他诸如ETERM的信号时需要能够正确地清理和退出。默认情况下,这一信号会杀掉进程,意味着尚未发送的消息就此丢失,文件不能被正确地关闭等。
在C语言中我们是这样处理消息的:
interrupt: Handling Ctrl-C cleanly in C
// // Shows how to handle Ctrl-C // #include <zmq.h> #include <stdio.h> #include <signal.h> // --------------------------------------------------------------------- // 消息处理 // // 程序开始运行时调用s_catch_signals()函数; // 在循环中判断s_interrupted是否为1,是则跳出循环; // 很适用于zmq_poll()。 static int s_interrupted = 0; static void s_signal_handler (int signal_value) { s_interrupted = 1; } static void s_catch_signals (void) { struct sigaction action; action.sa_handler = s_signal_handler; action.sa_flags = 0; sigemptyset (&action.sa_mask); sigaction (SIGINT, &action, NULL); sigaction (SIGTERM, &action, NULL); } int main (void) { void *context = zmq_init (1); void *socket = zmq_socket (context, ZMQ_REP); zmq_bind (socket, "tcp://*:5555"); s_catch_signals (); while (1) { // 阻塞式的读取会在收到信号时停止 zmq_msg_t message; zmq_msg_init (&message); zmq_recv (socket, &message, 0); if (s_interrupted) { printf ("W: 收到中断消息,程序中止...\n"); break; } } zmq_close (socket); zmq_term (context); return 0; }
这段程序使用s_catch_signals()函数来捕捉像Ctrl-C(SIGINT)和SIGTERM这样的信号。收到任一信号后,该函数会将全局变量s_interrupted设置为1。你的程序并不会自动停止,需要显式地做一些清理和退出工作。
如以下代码就十分典型:
s_catch_signals (); client = zmq_socket (...); while (!s_interrupted) { char *message = s_recv (client); if (!message) break; // 按下了Ctrl-C } zmq_close (client);
如果你在设置s_catch_signals()之后没有进行相应的处理,那么你的程序将对Ctrl-C和ETERM免疫。
任何长时间运行的程序都应该妥善的管理内存,否则最终会发生内存溢出,导致程序崩溃。如果你所使用的编程语言会自动帮你完成内存管理,那就要恭喜你了。但若你使用类似C/C++之类的语言时,就需要自己动手进行内存管理了。下面会介绍一个名为valgrind的工具,可以用它来报告内存泄露的问题。
在Ubuntu或Debian操作系统上安装valgrind:sudo apt-get install valgrind
缺省情况下,ZMQ会让valgrind不停地报错,想要屏蔽警告的话可以在编译ZMQ时使用ZMQ_MAKE_VALGRIND_HAPPY宏选项:
$ cd zeromq2 $ export CPPFLAGS=-DZMQ_MAKE_VALGRIND_HAPPY $ ./configure $ make clean; make $ sudo make install
应用程序应该正确地处理Ctrl-C,特别是对于长时间运行的程序(如队列装置),如果不这么做,valgrind会报告所有已分配的内存发生了错误。
使用-DDEBUG选项编译程序,这样可以让valgrind告诉你具体是哪段代码发生了内存溢出。
最后,使用如下方法运行valgrind:
valgrind --tool=memcheck --leak-check=full someprog
解决完所有的问题后,你会看到以下信息:
==30536== ERROR SUMMARY: 0 errors from 0 contexts...
ZMQ消息可以包含多个帧,这在实际应用中非常常见,特别是那些有关“信封”的应用,我们下文会谈到。我们这一节要讲的是如何正确地收发多帧消息。
多帧消息的每一帧都是一个zmq_msg结构,也就是说,当你在收发含有五个帧的消息时,你需要处理五个zmq_msg结构。你可以将这些帧放入一个数据结构中,或者直接一个个地处理它们。
下面的代码演示如何发送多帧消息:
zmq_send (socket, &message, ZMQ_SNDMORE); ... zmq_send (socket, &message, ZMQ_SNDMORE); ... zmq_send (socket, &message, 0);
然后我们看看如何接收并处理这些消息,这段代码对单帧消息和多帧消息都适用:
while (1) { zmq_msg_t message; zmq_msg_init (&message); zmq_recv (socket, &message, 0); // 处理一帧消息 zmq_msg_close (&message); int64_t more; size_t more_size = sizeof (more); zmq_getsockopt (socket, ZMQ_RCVMORE, &more, &more_size); if (!more) break; // 已到达最后一帧 }
关于多帧消息,你需要了解的还有:
当网络组件的数量较少时,所有节点都知道其它节点的存在。但随着节点数量的增加,这种结构的成本也会上升。因此,我们需要将这些组件拆分成更小的模块,使用一个中间件来连接它们。
这种结构在现实世界中是非常常见的,我们的社会和经济体系中充满了中间件的机制,用以降低复杂度,压缩构建大型网络的成本。中间件也会被称为批发商、分包商、管理者等等。
ZMQ网络也是一样,如果规模不断增长,就一定会需要中间件。ZMQ中,我们称其为“装置”。在构建ZMQ软件的初期,我们会画出几个节点,然后将它们连接起来,不使用中间件:
随后,我们对这个结构不断地进行扩充,将装置放到特定的位置,进一步增加节点数量:
ZMQ装置没有具体的设计规则,但一般会有一组“前端”端点和一组“后端”端点。装置是无状态的,因此可以被广泛地部署在网络中。你可以在进程中启动一个线程来运行装置,或者直接在一个进程中运行装置。ZMQ内部也提供了基本的装置实现可供使用。
ZMQ装置可以用作路由和寻址、提供服务、队列调度、以及其他你所能想到的事情。不同的消息模式需要用到不同类型的装置来构建网络。如,请求-应答模式中可以使用队列装置、抽象服务;发布-订阅模式中则可使用流装置、主题装置等。
ZMQ装置比起其他中间件的优势在于,你可以将它放在网络中任何一个地方,完成任何你想要的事情。
我们经常会需要将发布-订阅模式扩充到不同类型的网络中。比如说,有一组订阅者是在外网上的,我们想用广播的方式发布消息给内网的订阅者,而用TCP协议发送给外网订阅者。
我们要做的就是写一个简单的代理服务装置,在发布者和外网订阅者之间搭起桥梁。这个装置有两个端点,一端连接内网上的发布者,另一端连接到外网上。它会从发布者处接收订阅的消息,并转发给外网上的订阅者们。
wuproxy: Weather update proxy in C
// // 气象信息代理服务装置 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 订阅气象信息 void *frontend = zmq_socket (context, ZMQ_SUB); zmq_connect (frontend, "tcp://192.168.55.210:5556"); // 转发气象信息 void *backend = zmq_socket (context, ZMQ_PUB); zmq_bind (backend, "tcp://10.1.1.0:8100"); // 订阅所有消息 zmq_setsockopt (frontend, ZMQ_SUBSCRIBE, "", 0); // 转发消息 while (1) { while (1) { zmq_msg_t message; int64_t more; // 处理所有的消息帧 zmq_msg_init (&message); zmq_recv (frontend, &message, 0); size_t more_size = sizeof (more); zmq_getsockopt (frontend, ZMQ_RCVMORE, &more, &more_size); zmq_send (backend, &message, more? ZMQ_SNDMORE: 0); zmq_msg_close (&message); if (!more) break; // 到达最后一帧 } } // 程序不会运行到这里,但依然要正确地退出 zmq_close (frontend); zmq_close (backend); zmq_term (context); return 0; }
我们称这个装置为代理,因为它既是订阅者,又是发布者。这就意味着,添加该装置时不需要更改其他程序的代码,只需让外网订阅者知道新的网络地址即可。
可以注意到,这段程序能够正确处理多帧消息,会将它完整的转发给订阅者。如果我们在发送时不指定ZMQ_SNDMORE选项,那么下游节点收到的消息就可能是破损的。编写装置时应该要保证能够正确地处理多帧消息,否则会造成消息的丢失。
下面让我们在请求-应答模式中编写一个小型的消息队列代理装置。
在Hello World客户/服务模型中,一个客户端和一个服务端进行通信。但在真实环境中,我们会需要让多个客户端和多个服务端进行通信。关键问题在于,服务端应该是无状态的,所有的状态都应该包含在一次请求中,或者存放其它介质中,如数据库。
我们有两种方式来连接多个客户端和多个服务端。第一种是让客户端直接和多个服务端进行连接。客户端套接字可以连接至多个服务端套接字,它所发送的请求会通过负载均衡的方式分发给服务端。比如说,有一个客户端连接了三个服务端,A、B、C,客户端产生了R1、R2、R3、R4四个请求,那么,R1和R4会由服务A处理,R2由B处理,R3由C处理:
这种设计的好处在于可以方便地添加客户端,但若要添加服务端,那就得修改每个客户端的配置。如果你有100个客户端,需要添加三个服务端,那么这些客户端都需要重新进行配置,让其知道新服务端的存在。
这种方式肯定不是我们想要的。一个网络结构中如果有太多固化的模块就越不容易扩展。因此,我们需要有一个模块位于客户端和服务端之间,将所有的知识都汇聚到这个网络拓扑结构中。理想状态下,我们可以任意地增减客户端或是服务端,不需要更改任何组件的配置。
下面就让我们编写这样一个组件。这个代理会绑定到两个端点,前端端点供客户端连接,后端端点供服务端连接。它会使用zmq_poll()来轮询这两个套接字,接收消息并进行转发。装置中不会有队列的存在,因为ZMQ已经自动在套接字中完成了。
在使用REQ和REP套接字时,其请求-应答的会话是严格同步。客户端发送请求,服务端接收请求并发送应答,由客户端接收。如果客户端或服务端中的一个发生问题(如连续两次发送请求),程序就会报错。
但是,我们的代理装置必须要是非阻塞式的,虽然可以使用zmq_poll()同时处理两个套接字,但这里显然不能使用REP和REQ套接字。
幸运的是,我们有DEALER和ROUTER套接字可以胜任这项工作,进行非阻塞的消息收发。DEALER过去被称为XREQ,ROUTER被称为XREP,但新的代码中应尽量使用DEALER/ROUTER这种名称。在第三章中你会看到如何用DEALER和ROUTER套接字构建不同类型的请求-应答模式。
下面就让我们看看DEALER和ROUTER套接字是怎样在装置中工作的。
下方的简图描述了一个请求-应答模式,REQ和ROUTER通信,DEALER再和REP通信。ROUTER和DEALER之间我们则需要进行消息转发:
请求-应答代理会将两个套接字分别绑定到前端和后端,供客户端和服务端套接字连接。在使用该装置之前,还需要对客户端和服务端的代码进行调整。
rrclient: Request-reply client in C
// // Hello world 客户端 // 连接REQ套接字至 tcp://localhost:5559 端点 // 发送Hello给服务端,等待World应答 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 用于和服务端通信的套接字 void *requester = zmq_socket (context, ZMQ_REQ); zmq_connect (requester, "tcp://localhost:5559"); int request_nbr; for (request_nbr = 0; request_nbr != 10; request_nbr++) { s_send (requester, "Hello"); char *string = s_recv (requester); printf ("收到应答 %d [%s]\n", request_nbr, string); free (string); } zmq_close (requester); zmq_term (context); return 0; }
下面是服务代码:
rrserver: Request-reply service in C
// // Hello World 服务端 // 连接REP套接字至 tcp://*:5560 端点 // 接收Hello请求,返回World应答 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 用于何客户端通信的套接字 void *responder = zmq_socket (context, ZMQ_REP); zmq_connect (responder, "tcp://localhost:5560"); while (1) { // 等待下一个请求 char *string = s_recv (responder); printf ("Received request: [%s]\n", string); free (string); // 做一些“工作” sleep (1); // 返回应答信息 s_send (responder, "World"); } // 程序不会运行到这里,不过还是做好清理工作 zmq_close (responder); zmq_term (context); return 0; }
最后是代理程序,可以看到它是能够处理多帧消息的:
rrbroker: Request-reply broker in C
// // 简易请求-应答代理 // #include "zhelpers.h" int main (void) { // 准备上下文和套接字 void *context = zmq_init (1); void *frontend = zmq_socket (context, ZMQ_ROUTER); void *backend = zmq_socket (context, ZMQ_DEALER); zmq_bind (frontend, "tcp://*:5559"); zmq_bind (backend, "tcp://*:5560"); // 初始化轮询集合 zmq_pollitem_t items [] = { { frontend, 0, ZMQ_POLLIN, 0 }, { backend, 0, ZMQ_POLLIN, 0 } }; // 在套接字间转发消息 while (1) { zmq_msg_t message; int64_t more; // 检测多帧消息 zmq_poll (items, 2, -1); if (items [0].revents & ZMQ_POLLIN) { while (1) { // 处理所有消息帧 zmq_msg_init (&message); zmq_recv (frontend, &message, 0); size_t more_size = sizeof (more); zmq_getsockopt (frontend, ZMQ_RCVMORE, &more, &more_size); zmq_send (backend, &message, more? ZMQ_SNDMORE: 0); zmq_msg_close (&message); if (!more) break; // 最后一帧 } } if (items [1].revents & ZMQ_POLLIN) { while (1) { // 处理所有消息帧 zmq_msg_init (&message); zmq_recv (backend, &message, 0); size_t more_size = sizeof (more); zmq_getsockopt (backend, ZMQ_RCVMORE, &more, &more_size); zmq_send (frontend, &message, more? ZMQ_SNDMORE: 0); zmq_msg_close (&message); if (!more) break; // 最后一帧 } } } // 程序不会运行到这里,不过还是做好清理工作 zmq_close (frontend); zmq_close (backend); zmq_term (context); return 0; }
使用请求-应答代理可以让你的C/S网络结构更易于扩展:客户端不知道服务端的存在,服务端不知道客户端的存在。网络中唯一稳定的组件是中间的代理装置:
ZMQ提供了一些内置的装置,不过大多数人需要自己手动编写这些装置。内置装置有:
可以使用zmq_device()来启动一个装置,需要传递两个套接字给它:
zmq_device (ZMQ_QUEUE, frontend, backend);
启动了QUEUE队列就如同在网络中加入了一个请求-应答代理,只需为其创建已绑定或连接的套接字即可。下面这段代码是使用内置装置的情形:
msgqueue: Message queue broker in C
// // 简单消息队列代理 // 功能和请求-应答代理相同,但使用了内置的装置 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 客户端套接字 void *frontend = zmq_socket (context, ZMQ_ROUTER); zmq_bind (frontend, "tcp://*:5559"); // 服务端套接字 void *backend = zmq_socket (context, ZMQ_DEALER); zmq_bind (backend, "tcp://*:5560"); // 启动内置装置 zmq_device (ZMQ_QUEUE, frontend, backend); // 程序不会运行到这里 zmq_close (frontend); zmq_close (backend); zmq_term (context); return 0; }
内置装置会恰当地处理错误,而我们手工实现的代理并没有加入错误处理机制。所以说,当你能够在程序中使用内置装置的时候就尽量用吧。
可能你会像某些ZMQ开发者一样提出这样一个问题:如果我将其他类型的套接字传入这些装置中会发生什么?答案是:别这么做。你可以随意传入不同类型的套接字,但是执行结果会非常奇怪。所以,QUEUE装置应使用ROUTER/DEALER套接字、FORWARDER应使用SUB/PUB、STREAMER应使用PULL/PUSH。
当你需要其他的套接字类型进行组合时,那就需要自己编写装置了。
使用ZMQ进行多线程编程(MT编程)将会是一种享受。在多线程中使用ZMQ套接字时,你不需要考虑额外的东西,让它们自如地运作就好。
使用ZMQ进行多线程编程时,不需要考虑互斥、锁、或其他并发程序中要考虑的因素,你唯一要关心的仅仅是线程之间的消息。
什么叫“完美”的多线程编程,指的是代码易写易读,可以跨系统、跨语言地使用同一种技术,能够在任意颗核心的计算机上运行,没有状态,没有速度的瓶颈。
如果你有多年的多线程编程经验,知道如何使用锁、信号灯、临界区等机制来使代码运行得正确(尚未考虑快速),那你可能会很沮丧,因为ZMQ将改变这一切。三十多年来,并发式应用程序开发所总结的经验是:不要共享状态。这就好比两个醉汉想要分享一杯啤酒,如果他们不是铁哥们儿,那他们很快就会打起来。当有更多的醉汉加入时,情况就会更糟。多线程编程有时就像醉汉抢夺啤酒那样糟糕。
进行多线程编程往往是痛苦的,当程序因为压力过大而崩溃时,你会不知所然。有人写过一篇《多线程代码中的11个错误易发点》的文章,在大公司中广为流传,列举其中的几项:没有进行同步、错误的粒度、读写分离、无锁排序、锁传递、优先级冲突等。
假设某一天的下午三点,当证券市场正交易得如火如荼的时候,突然之间,应用程序因为锁的问题崩溃了,那将会是何等的场景?所以,作为程序员的我们,为解决那些复杂的多线程问题,只能用上更复杂的编程机制。
有人曾这样比喻,那些多线程程序原本应作为大型公司的核心支柱,但往往又最容易出错;那些想要通过网络不断进行延伸的产品,最后总以失败告终。
如何用ZMQ进行多线程编程,以下是一些规则:
不要在不同的线程之间访问同一份数据,如果要用到传统编程中的互斥机制,那就有违ZMQ的思想了。唯一的例外是ZMQ上下文对象,它是线程安全的。
必须为进程创建ZMQ上下文,并将其传递给所有你需要使用inproc协议进行通信的线程;
你可以将线程作为单独的任务来对待,使用自己的上下文,但是这些线程之间就不能使用inproc协议进行通信了。这样做的好处是可以在日后方便地将程序拆分为不同的进程来运行。
不要在不同的线程之间传递套接字对象,这些对象不是线程安全的。从技术上来说,你是可以这样做的,但是会用到互斥和锁的机制,这会让你的应用程序变得缓慢和脆弱。唯一合理的情形是,在某些语言的ZMQ类库内部,需要使用垃圾回收机制,这时可能会进行套接字对象的传递。
当你需要在应用程序中使用两个装置时,可能会将套接字对象从一个线程传递给另一个线程,这样做一开始可能会成功,但最后一定会随机地发生错误。所以说,应在同一个线程中打开和关闭套接字。
如果你能遵循上面的规则,就会发现多线程程序可以很容易地拆分成多个进程。程序逻辑可以在线程、进程、或是计算机中运行,根据你的需求进行部署即可。
ZMQ使用的是系统原生的线程机制,而不是某种“绿色线程”。这样做的好处是你不需要学习新的多线程编程API,而且可以和目标操作系统进行很好的结合。你可以使用类似英特尔的ThreadChecker工具来查看线程工作的情况。缺点在于,如果程序创建了太多的线程(如上千个),则可能导致操作系统负载过高。
下面我们举一个实例,让原来的Hello World服务变得更为强大。原来的服务是单线程的,如果请求较少,自然没有问题。ZMQ的线程可以在一个核心上高速地运行,执行大量的工作。但是,如果有一万次请求同时发送过来会怎么样?因此,现实环境中,我们会启动多个worker线程,他们会尽可能地接收客户端请求,处理并返回应答。
当然,我们可以使用启动多个worker进程的方式来实现,但是启动一个进程总比启动多个进程要来的方便且易于管理。而且,作为线程启动的worker,所占用的带宽会比较少,延迟也会较低。 以下是多线程版的Hello World服务:
mtserver: Multithreaded service in C
// // 多线程版Hello World服务 // #include "zhelpers.h" #include <pthread.h> static void * worker_routine (void *context) { // 连接至代理的套接字 void *receiver = zmq_socket (context, ZMQ_REP); zmq_connect (receiver, "inproc://workers"); while (1) { char *string = s_recv (receiver); printf ("Received request: [%s]\n", string); free (string); // 工作 sleep (1); // 返回应答 s_send (receiver, "World"); } zmq_close (receiver); return NULL; } int main (void) { void *context = zmq_init (1); // 用于和client进行通信的套接字 void *clients = zmq_socket (context, ZMQ_ROUTER); zmq_bind (clients, "tcp://*:5555"); // 用于和worker进行通信的套接字 void *workers = zmq_socket (context, ZMQ_DEALER); zmq_bind (workers, "inproc://workers"); // 启动一个worker池 int thread_nbr; for (thread_nbr = 0; thread_nbr < 5; thread_nbr++) { pthread_t worker; pthread_create (&worker, NULL, worker_routine, context); } // 启动队列装置 zmq_device (ZMQ_QUEUE, clients, workers); // 程序不会运行到这里,但仍进行清理工作 zmq_close (clients); zmq_close (workers); zmq_term (context); return 0; }
所有的代码应该都已经很熟悉了:
需要注意的是,在某些编程语言中,创建线程并不是特别方便,POSIX提供的类库是pthreads,但Windows中就需要使用不同的API了。我们会在第三章中讲述如何包装一个多线程编程的API。
示例中的“工作”仅仅是1秒钟的停留,我们可以在worker中进行任意的操作,包括与其他节点进行通信。消息的流向是这样的:REQ-ROUTER-queue-DEALER-REP。
当你刚开始使用ZMQ进行多线程编程时,你可能会问:要如何协调两个线程的工作呢?可能会想要使用sleep()这样的方法,或者使用诸如信号、互斥等机制。事实上,你唯一要用的就是ZMQ本身。回忆一下那个醉汉抢啤酒的例子吧。
下面的示例演示了三个线程之间需要如何进行同步:
我们使用PAIR套接字和inproc协议。
mtrelay: Multithreaded relay in C
// // 多线程同步 // #include "zhelpers.h" #include <pthread.h> static void * step1 (void *context) { // 连接至步骤2,告知我已就绪 void *xmitter = zmq_socket (context, ZMQ_PAIR); zmq_connect (xmitter, "inproc://step2"); printf ("步骤1就绪,正在通知步骤2……\n"); s_send (xmitter, "READY"); zmq_close (xmitter); return NULL; } static void * step2 (void *context) { // 启动步骤1前线绑定至inproc套接字 void *receiver = zmq_socket (context, ZMQ_PAIR); zmq_bind (receiver, "inproc://step2"); pthread_t thread; pthread_create (&thread, NULL, step1, context); // 等待信号 char *string = s_recv (receiver); free (string); zmq_close (receiver); // 连接至步骤3,告知我已就绪 void *xmitter = zmq_socket (context, ZMQ_PAIR); zmq_connect (xmitter, "inproc://step3"); printf ("步骤2就绪,正在通知步骤3……\n"); s_send (xmitter, "READY"); zmq_close (xmitter); return NULL; } int main (void) { void *context = zmq_init (1); // 启动步骤2前线绑定至inproc套接字 void *receiver = zmq_socket (context, ZMQ_PAIR); zmq_bind (receiver, "inproc://step3"); pthread_t thread; pthread_create (&thread, NULL, step2, context); // 等待信号 char *string = s_recv (receiver); free (string); zmq_close (receiver); printf ("测试成功!\n"); zmq_term (context); return 0; }
这是一个ZMQ多线程编程的典型示例:
需要注意的是,这段代码无法扩展到多个进程之间的协调。如果你使用inproc协议,只能建立结构非常紧密的应用程序。在延迟时间必须严格控制的情况下可以使用这种方法。对其他应用程序来说,每个线程使用同一个上下文,协议选用ipc或tcp。然后,你就可以自由地将应用程序拆分为多个进程甚至是多台计算机了。
这是我们第一次使用PAIR套接字。为什么要使用PAIR?其他类型的套接字也可以使用,但都有一些缺点会影响到线程间的通信:
你可以让信号发送方使用PUSH,接收方使用PULL,这看上去可能可以,但是需要注意的是,PUSH套接字发送消息时会进行负载均衡,如果你不小心开启了两个接收方,就会“丢失”一半的信号。而PAIR套接字建立的是一对一的连接,具有排他性。
可以让发送方使用DEALER,接收方使用ROUTER。但是,ROUTER套接字会在消息的外层包裹一个来源地址,这样一来原本零字节的信号就可能要成为一个多段消息了。如果你不在乎这个问题,并且不会重复读取那个套接字,自然可以使用这种方法。但是,如果你想要使用这个套接字接收真正的数据,你就会发现ROUTER提供的消息是错误的。至于DEALER套接字,它同样有负载均衡的机制,和PUSH套接字有相同的风险。
可以让发送方使用PUB,接收方使用SUB。一来消息可以照原样发送,二来PUB套接字不会进行负载均衡。但是,你需要对SUB套接字设置一个空的订阅信息(用以接收所有消息);而且,如果SUB套接字没有及时和PUB建立连接,消息很有可能会丢失。
综上,使用PAIR套接字进行线程间的协调是最合适的。
当你想要对节点进行协调时,PAIR套接字就不怎么合适了,这也是线程和节点之间的不同之处。一般来说,节点是来去自由的,而线程则较为稳定。使用PAIR套接字时,若远程节点断开连接后又进行重连,PAIR不会予以理会。
第二个区别在于,线程的数量一般是固定的,而节点数量则会经常变化。让我们以气象信息模型为基础,看看要怎样进行节点的协调,以保证客户端不会丢失最开始的那些消息。
下面是程序运行逻辑:
这里我们会使用REQ-REP套接字来同步发布者和订阅者。发布者的代码如下:
syncpub: Synchronized publisher in C
// // 发布者 - 同步版 // #include "zhelpers.h" // 等待10个订阅者连接 #define SUBSCRIBERS_EXPECTED 10 int main (void) { void *context = zmq_init (1); // 用于和客户端通信的套接字 void *publisher = zmq_socket (context, ZMQ_PUB); zmq_bind (publisher, "tcp://*:5561"); // 用于接收信号的套接字 void *syncservice = zmq_socket (context, ZMQ_REP); zmq_bind (syncservice, "tcp://*:5562"); // 接收订阅者的就绪信号 printf ("正在等待订阅者就绪\n"); int subscribers = 0; while (subscribers < SUBSCRIBERS_EXPECTED) { // - 等待就绪信息 char *string = s_recv (syncservice); free (string); // - 发送应答 s_send (syncservice, ""); subscribers++; } // 开始发送100万条数据 printf ("正在广播消息\n"); int update_nbr; for (update_nbr = 0; update_nbr < 1000000; update_nbr++) s_send (publisher, "Rhubarb"); s_send (publisher, "END"); zmq_close (publisher); zmq_close (syncservice); zmq_term (context); return 0; }
以下是订阅者的代码:
syncsub: Synchronized subscriber in C
// // 订阅者 - 同步版 // #include "zhelpers.h" int main (void) { void *context = zmq_init (1); // 一、连接SUB套接字 void *subscriber = zmq_socket (context, ZMQ_SUB); zmq_connect (subscriber, "tcp://localhost:5561"); zmq_setsockopt (subscriber, ZMQ_SUBSCRIBE, "", 0); // ZMQ太快了,我们延迟一会儿…… sleep (1); // 二、与发布者进行同步 void *syncclient = zmq_socket (context, ZMQ_REQ); zmq_connect (syncclient, "tcp://localhost:5562"); // - 发送请求 s_send (syncclient, ""); // - 等待应答 char *string = s_recv (syncclient); free (string); // 三、处理消息 int update_nbr = 0; while (1) { char *string = s_recv (s
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8