[转][NodeJs系列]Node.js的线程和进程详解

47次阅读

共计 17473 个字符,预计需要花费 44 分钟才能阅读完成。

如果你对 NodeJs 系列感兴趣,欢迎关注微信公众号:前端神盾局
这两天在整理 NodeJs 线程和进程相关的文章时,偶然 search 到下文(略微有所补充),内容详实,故分享出来。文末附有原文地址和作者。
前言
很多 Node.js 初学者都会有这样的疑惑,Node.js 到底是单线程的还是多线程的?本文解释了 Node.js 对于单 / 多线程的关系和支持情况。同时本文还将列举一些让 Node.js 的 web 服务器线程阻塞的例子,最后会提供 Node.js 碰到这类 cpu 密集型问题的解决方案。
阅读本文前,你需要对 Node.js 有一个初步的认识,熟悉 Node.js 基本语法、cluster 模块、child_process 模块和 express 框架;接触过 apache 的 http 压力测试工具 ab;了解一般 web 服务器对于静态文件的处理流程。
Node.js 和 PHP
早期有很多关于 Node.js 争论的焦点都在它的单线程模型方面,在由 Jani Hartikainen 写的一篇著名的文章《PHP 优于 Node.js 的五大理由》中,更有一条矛头直接指向 Node.js 单线程脆弱的问题。
如果 PHP 代码损坏,不会拖垮整个服务器。
PHP 代码只运行在自己的进程范围中,当某个请求显示错误时,它只对特定的请求产生影响。而在 Node.js 环境中,所有的请求均在单一的进程服务中,当某个请求导致未知错误时,整个服务器都会受到影响。
Node.js 和 Apache+PHP 还有一个非常不同的地方就是进程的运行时间长短,当然这一点也被此文作为一个 PHP 优于 Node.js 的理由来写了。
PHP 进程短暂。
在 PHP 中,每个进程对请求持续的时间很短暂,这就意味着你不必为资源配置和内存而担忧。而 Node.js 的进程需要运行很长一段时间,你需要小心并妥善管理好内存。比如,如果你忘记从全局数据中删除条目,这会轻易的导致内存泄露。
在这里我们并不想引起一次关于 PHP 和 Node.js 孰优孰劣的口水仗,PHP 和 Node.js 各代表着一个互联网时代的开发语言,就如同我们讨论跑车和越野车谁更好一样,它们都有自己所擅长和适用的场景。我们可以通过下面这两张图深入理解一下 PHP 和 Node.js 对处理 Http 请求时的区别。
PHP 的模型:

Node.js 的模型:

所以你在编写 Node.js 代码时,要保持清醒的头脑,任何一个隐藏着的异常被触发后,都会将整个 Node.js 进程击溃。但是这样的特性也为我们编写代码带来便利,比如同样要实现一个简单的网站访问次数统计,Node.js 只需要在内存里定义一个变量 var count=0;,每次有用户请求过来执行 count++; 即可。
var http = require(‘http’);
var count = 0;
http.createServer(function (request, response) {
response.writeHead(200, {‘Content-Type’: ‘text/plain’});
response.end((++count).toString())
}).listen(8124);
console.log(‘Server running at http://127.0.0.1:8124/’);
但是对于 PHP 来说就需要使用第三方媒介来存储这个 count 值了,比如创建一个 count.txt 文件来保存网站的访问次数。
<?php
$counter_file = (“count.txt”);
$visits = file($counter_file);
$visits[0]++;
$fp = fopen($counter_file,”w”);
fputs($fp,”$visits[0]”);
fclose($fp);
echo “$visits[0]”;
?>
单线程的 js
Google 的 V8 Javascript 引擎已经在 Chrome 浏览器里证明了它的性能,所以 Node.js 的作者 Ryan Dahl 选择了 v8 作为 Node.js 的执行引擎,v8 赋予 Node.js 高效性能的同时也注定了 Node.js 和大名鼎鼎的 Nginx 一样,都是以单线程为基础的,当然这也正是作者 Ryan Dahl 设计 Node.js 的初衷。
单线程的优缺点
Node.js 的单线程(单纯从 js 的角度讨论,我们可以认为 Node.js 是单线程的,但其实不是)具有它的优势,但也并非十全十美,在保持单线程模型的同时,它是如何保证非阻塞的呢?
高性能
首先,单线程避免了传统 PHP 那样频繁创建、切换进程的开销,使执行速度更加迅速。第二,资源占用小,如果有对 Node.js 的 web 服务器做过压力测试的朋友可能发现,Node.js 在大负荷下对内存占用仍然很低,同样的负载 PHP 因为一个请求一个线程的模型,将会占用大量的物理内存,很可能会导致服务器因物理内存耗尽而频繁交换,失去响应。
线程安全
单线程的 js 还保证了绝对的线程安全,不用担心同一变量同时被多个线程进行读写而造成的程序崩溃。比如我们之前做的 web 访问统计,因为单线程的绝对线程安全,所以不可能存在同时对 count 变量进行读写的情况,我们的统计代码就算是成百的并发用户请求都不会出现问题,相较 PHP 的那种存文件记录访问,就会面临并发同时写文件的问题。线程安全的同时也解放了开发人员,免去了多线程编程中忘记对变量加锁或者解锁造成的悲剧。
单线程的异步和非阻塞
Node.js 是单线程的,但是它如何做到 I / O 的异步和非阻塞的呢?其实 Node.js 在底层访问 I / O 还是多线程的,有兴趣的朋友可以翻看 Node.js 的 fs 模块的源码,里面会用到 libuv 来处理 I /O,所以在我们看来 Node.js 的代码就是非阻塞和异步形式的。
阻塞 / 非阻塞与异步 / 同步是两个不同的概念,同步不代表阻塞,但是阻塞肯定就是同步了。
举个现实生活中的例子,我去食堂打饭,我选择了 A 套餐,然后工作人员帮我去配餐,如果我就站在旁边,等待工作人员给我配餐,这种情况就称之为同步;若工作人员帮我配餐的同时,排在我后面的人就开始点餐,这样整个食堂的点餐服务并没有因为我在等待 A 套餐而停止,这种情况就称之为非阻塞。这个例子就简单说明了同步但非阻塞的情况。
再如果我在等待配餐的时候去买饮料,等听到叫号再回去拿套餐,此时我的饮料也已经买好,这样我在等待配餐的同时还执行了买饮料的任务,叫号就等于执行了回调,就是异步非阻塞了。
阻塞的单线程
既然 Node.js 是单线程异步非阻塞的,是不是我们就可以高枕无忧了呢?
还是拿上面那个买套餐的例子,如果我在买饮料的时候,已经叫我的号让我去拿套餐,可是我等了好久才拿到饮料,所以我可能在大厅叫我的餐号之后很久才拿到 A 套餐,这也就是单线程的阻塞情况。
在浏览器中,js 都是以单线程的方式运行的,所以我们不用担心 js 同时执行带来的冲突问题,这对于我们编码带来很多的便利。
但是对于在服务端执行的 Node.js,它可能每秒有上百个请求需要处理,对于在浏览器端工作良好的单线程 js 是否也能同样在服务端表现良好呢?
我们看如下代码:
var start = Date.now();// 获取当前时间戳
setTimeout(function () {
console.log(Date.now() – start);
for (var i = 0; i < 1000000000; i++){// 执行长循环
}
}, 1000);
setTimeout(function () {
console.log(Date.now() – start);
}, 2000);
最终我们的打印结果是:(结果可能因为你的机器而不同)
1000
3738
对于我们期望 2 秒后执行的 setTimeout 函数其实经过了 3738 毫秒之后才执行,换而言之,因为执行了一个很长的 for 循环,所以我们整个 Node.js 主线程被阻塞了,如果在我们处理 100 个用户请求中,其中第一个有需要这样大量的计算,那么其余 99 个就都会被延迟执行。
其实虽然 Node.js 可以处理数以千记的并发,但是一个 Node.js 进程在某一时刻其实只是在处理一个请求。
单线程和多核
线程是 cpu 调度的一个基本单位,一个 cpu 同时只能执行一个线程的任务,同样一个线程任务也只能在一个 cpu 上执行,所以如果你运行 Node.js 的机器是像 i5,i7 这样多核 cpu,那么将无法充分利用多核 cpu 的性能来为 Node.js 服务。
多线程
在 C ++、C#、python 等其他语言都有与之对应的多线程编程,有些时候这很有趣,带给我们灵活的编程方式;但是也可能带给我们一堆麻烦,需要学习更多的 Api 知识,在编写更多代码的同时也存在着更多的风险,线程的切换和锁也会造成系统资源的开销。
就像上面的那个例子,如果我们的 Node.js 有创建子线程的能力,那问题就迎刃而解了:
var start = Date.now();
createThread(function () {// 创建一个子线程执行这 10 亿次循环
console.log(Date.now() – start);
for (var i = 0; i < 1000000000; i++){}
});
setTimeout(function () {// 因为 10 亿次循环是在子线程中执行的,所以主线程不受影响
console.log(Date.now() – start);
}, 2000);
可惜也可以说可喜的是,Node.js 的核心模块并没有提供这样的 api 给我们,我们真的不想多线程又回归回来。不过或许多线程真的能够解决我们某方面的问题。
tagg2 模块
Jorge Chamorro Bieling 是 tagg(Threads a gogo for Node.js)包的作者,他硬是利用 phread 库和 C 语言让 Node.js 支持了多线程的开发,我们看一下 tagg 模块的简单示例:
var Threads = require(‘threads_a_gogo’);// 加载 tagg 包
function fibo(n) {// 定义斐波那契数组计算函数
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
var t = Threads.create().eval(fibo);
t.eval(‘fibo(35)’, function(err, result) {// 将 fibo(35)丢入子线程运行
if (err) throw err; // 线程创建失败
console.log(‘fibo(35)=’ + result);// 打印 fibo 执行 35 次的结果
});
console.log(‘not block’);// 打印信息了,表示没有阻塞
上面这段代码利用 tagg 包将 fibo(35)这个计算丢入了子线程中进行,保证了 Node.js 主线程的舒畅,当子线程任务执行完毕将会执行主线程的回调函数,把结果打印到屏幕上,执行结果如下:
not block
fibo(35)=14930352
斐波那契数列,又称黄金分割数列,这个数列从第三项开始,每一项都等于前两项之和:0、1、1、2、3、5、8、13、21、……。
注意我们上面代码的斐波那契数组算法并不是最优算法,只是为了模拟 cpu 密集型计算任务。
由于 tagg 包目前只能在 linux 下安装运行,所以我 fork 了一个分支,修改了部分 tagg 包的代码,发布了 tagg2 包。tagg2 包同样具有 tagg 包的多线程功能,采用新的 node-gyp 命令进行编译,同时它跨平台支持,mac,linux,windows 下都可以使用,对开发人员的 api 也更加友好。安装方法很简单,直接 npm install tagg2。
一个利用 tagg2 计算斐波那契数组的 http 服务器代码:
var express = require(‘express’);
var tagg2 = require(“tagg2”);
var app = express();
var th_func = function(){// 线程执行函数,以下内容会在线程中执行
var fibo =function fibo (n) {// 在子线程中定义 fibo 函数
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
var n = fibo(~~thread.buffer);// 执行 fibo 递归
thread.end(n);// 当线程执行完毕,执行 thread.end 带上计算结果回调主线程
};
app.get(‘/’, function(req, res){
var n = ~~req.query.n || 1;// 获取用户请求参数
var buf = new Buffer(n.toString());
tagg2.create(th_func, {buffer:buf}, function(err,result){
// 创建一个 js 线程, 传入工作函数,buffer 参数以及回调函数
if(err) return res.end(err);// 如果线程创建失败
res.end(result.toString());// 响应线程执行计算的结果
})
});
app.listen(8124);
console.log(‘listen on 8124’);
其中~~req.query.n 表示将用户传递的参数 n 取整,功能类似 Math.floor 函数。
我们用 express 框架搭建了一个 web 服务器,根据用户发送的参数 n 的值来创建子线程计算斐波那契数组,当子线程计算完毕之后将结果响应给客户端。由于计算是丢入子线程中运行的,所以整个主线程不会被阻塞,还是能够继续处理新请求的。
我们利用 apache 的 http 压力测试工具 ab 来进行一次简单的压力测试,看看执行斐波那契数组 35 次,100 客户端并发 100 个请求,我们的 QPS (Query Per Second)每秒查询率在多少。
ab 的全称是 ApacheBench,是 Apache 附带的一个小工具,用于进行 HTTP 服务器的性能测试,可以同时模拟多个并发请求。
我们的测试硬件:linux 2.6.4 4cpu 8G 64bit,网络环境则是内网。
ab 压力测试命令:
ab -c 100 -n 100 http://192.168.28.5:8124/?n=35
Server Software:
Server Hostname: 192.168.28.5
Server Port: 8124

Document Path: /?n=35
Document Length: 8 bytes

Concurrency Level: 100
Time taken for tests: 5.606 seconds
Complete requests: 100
Failed requests: 0
Write errors: 0
Total transferred: 10600 bytes
HTML transferred: 800 bytes
Requests per second: 17.84 [#/sec](mean)
Time per request: 5605.769 [ms](mean)
Time per request: 56.058 [ms](mean, across all concurrent requests)
Transfer rate: 1.85 [Kbytes/sec] received

Connection Times (ms)
min mean[+/-sd] median max
Connect: 3 4 0.8 4 6
Processing: 455 5367 599.7 5526 5598
Waiting: 454 5367 599.7 5526 5598
Total: 461 5372 599.3 5531 5602

Percentage of the requests served within a certain time (ms)
50% 5531
66% 5565
75% 5577
80% 5581
90% 5592
95% 5597
98% 5600
99% 5602
100% 5602 (longest request)
我们看到 Requests per second 表示每秒我们服务器处理的任务数量,这里是 17.84。第二个我们比较关心的是两个 Time per request 结果,上面一行 Time per request:5605.769 ms 表示当前这个并发量下处理每组请求的时间,而下面这个 Time per request:56.058 [ms](mean, across all concurrent requests)表示每个用户平均处理时间,因为我们本次测试并发是 100,所以结果正好是上一行的 100 分之 1。得出本次测试平均每个用户请求的平均等待时间为 56.058 [ms]。
另外我们看下最后带有百分比的列表,可以看到 50% 的用户是在 5531 ms 以内返回的,最慢的也不过 5602 ms,响应延迟非常的平均。
我们如果用 cluster 来启动 4 个进程,是否可以充分利用 cpu 达到 tagg2 那样的 QPS 呢?我们在同样的网络环境和测试机上运行如下代码:
var cluster = require(‘cluster’);// 加载 clustr 模块
var numCPUs = require(‘os’).cpus().length;// 设定启动进程数为 cpu 个数
if (cluster.isMaster) {
for (var i = 0; i < numCPUs; i++) {
cluster.fork();// 启动子进程
}
} else {
var express = require(‘express’);
var app = express();
var fibo = function fibo (n) {// 定义斐波那契数组算法
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
app.get(‘/’, function(req, res){
var n = fibo(~~req.query.n || 1);// 接收参数
res.send(n.toString());
});
app.listen(8124);
console.log(‘listen on 8124’);
}
在终端屏幕上打印了 4 行信息:
listen on 8124
listen on 8124
listen on 8124
listen on 8124
我们成功启动了 4 个 cluster 之后,用同样的 ab 压力测试命令对 8124 端口进行测试,结果如下:

Server Software:
Server Hostname: 192.168.28.5
Server Port: 8124

Document Path: /?n=35
Document Length: 8 bytes

Concurrency Level: 100
Time taken for tests: 10.509 seconds
Complete requests: 100
Failed requests: 0
Write errors: 0
Total transferred: 16500 bytes
HTML transferred: 800 bytes
Requests per second: 9.52 [#/sec](mean)
Time per request: 10508.755 [ms](mean)
Time per request: 105.088 [ms](mean, across all concurrent requests)
Transfer rate: 1.53 [Kbytes/sec] received

Connection Times (ms)
min mean[+/-sd] median max
Connect: 4 5 0.4 5 6
Processing: 336 3539 2639.8 2929 10499
Waiting: 335 3539 2639.9 2929 10499
Total: 340 3544 2640.0 2934 10504

Percentage of the requests served within a certain time (ms)
50% 2934
66% 3763
75% 4527
80% 5153
90% 8261
95% 9719
98% 10308
99% 10504
100% 10504 (longest request)
通过和上面 tagg2 包的测试结果对比,我们发现区别很大。首先每秒处理的任务数从 17.84 [#/sec]下降到了 9.52 [#/sec],这说明我们 web 服务器整体的吞吐率下降了;然后每个用户请求的平均等待时间也从 56.058 [ms]提高到了 105.088 [ms],用户等待的时间也更长了。
最后我们发现用户请求处理的时长非常的不均匀,50% 的用户在 2934 ms 内返回了,最慢的等待达到了 10504 ms。虽然我们使用了 cluster 启动了 4 个 Node.js 进程处理用户请求,但是对于每个 Node.js 进程来说还是单线程的,所以当有 4 个用户跑满了 4 个 Node.js 的 cluster 进程之后,新来的用户请求就只能等待了,最后造成了先到的用户处理时间短,后到的用户请求处理时间比较长,就造成了用户等待时间非常的不平均。
v8 引擎
大家看到这里是不是开始心潮澎湃,感觉 js 一统江湖的时代来临了,单线程异步非阻塞的模型可以胜任大并发,同时开发也非常高效,多线程下的 js 可以承担 cpu 密集型任务,不会有主线程阻塞而引起的性能问题。
但是,不论 tagg 还是 tagg2 包都是利用 phtread 库和 v8 的 v8::Isolate Class 类来实现 js 多线程功能的。
Isolate 代表着一个独立的 v8 引擎实例,v8 的 Isolate 拥有完全分开的状态,在一个 Isolate 实例中的对象不能够在另外一个 Isolate 实例中使用。嵌入式开发者可以在其他线程创建一些额外的 Isolate 实例并行运行。在任何时刻,一个 Isolate 实例只能够被一个线程进行访问,可以利用加锁 / 解锁进行同步操作。
换而言之,我们在进行 v8 的嵌入式开发时,无法在多线程中访问 js 变量,这条规则将直接导致我们之前的 tagg2 里面线程执行的函数无法使用 Node.js 的核心 api,比如 fs,crypto 等模块。如此看来,tagg2 包还是有它使用的局限性,针对一些可以使用 js 原生的大量计算或循环可以使用 tagg2,Node.js 核心 api 因为无法从主线程共享对象的关系,也就不能跨线程使用了。
libuv
最后,如果我们非要让 Node.js 支持多线程,还是提倡使用官方的做法,利用 libuv 库来实现。
libuv 是一个跨平台的异步 I / O 库,它主要用于 Node.js 的开发,同时他也被 Mozilla’s Rust language, Luvit, Julia, pyuv 等使用。它主要包括了 Event loops 事件循环,Filesystem 文件系统,Networking 网络支持,Threads 线程,Processes 进程,Utilities 其他工具。
在 Node.js 核心 api 中的异步多线程大多是使用 libuv 来实现的,下一章将带领大家开发一个让 Node.js 支持多线程并基于 libuv 的 Node.js 包。
多进程
在支持 html5 的浏览器里,我们可以使用 webworker 来将一些耗时的计算丢入 worker 进程中执行,这样主进程就不会阻塞,用户也就不会有卡顿的感觉了。在 Node.js 中是否也可以使用这类技术,保证主线程的通畅呢?
cluster
cluster 可以用来让 Node.js 充分利用多核 cpu 的性能,同时也可以让 Node.js 程序更加健壮,官网上的 cluster 示例已经告诉我们如何重新启动一个因为异常而奔溃的子进程。
webworker
想要像在浏览器端那样启动 worker 进程,我们需要利用 Node.js 核心 api 里的 child_process 模块。child_process 模块提供了 fork 的方法,可以启动一个 Node.js 文件,将它作为 worker 进程,当 worker 进程工作完毕,把结果通过 send 方法传递给主进程,然后自动退出,这样我们就利用了多进程来解决主线程阻塞的问题。
我们先启动一个 web 服务,还是接收参数计算斐波那契数组:
var express = require(‘express’);
var fork = require(‘child_process’).fork;
var app = express();
app.get(‘/’, function(req, res){
var worker = fork(‘./work_fibo.js’) // 创建一个工作进程
worker.on(‘message’, function(m) {// 接收工作进程计算结果
if(‘object’ === typeof m && m.type === ‘fibo’){
worker.kill();// 发送杀死进程的信号
res.send(m.result.toString());// 将结果返回客户端
}
});
worker.send({type:’fibo’,num:~~req.query.n || 1});
// 发送给工作进程计算 fibo 的数量
});
app.listen(8124);
我们通过 express 监听 8124 端口,对每个用户的请求都会去 fork 一个子进程,通过调用 worker.send 方法将参数 n 传递给子进程,同时监听子进程发送消息的 message 事件,将结果响应给客户端。
下面是被 fork 的 work_fibo.js 文件内容:

var fibo = function fibo (n) {// 定义算法
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
process.on(‘message’, function(m) {
// 接收主进程发送过来的消息
if(typeof m === ‘object’ && m.type === ‘fibo’){
var num = fibo(~~m.num);
// 计算 jibo
process.send({type: ‘fibo’,result:num})
// 计算完毕返回结果
}
});
process.on(‘SIGHUP’, function() {
process.exit();// 收到 kill 信息,进程退出
});
我们先定义函数 fibo 用来计算斐波那契数组,然后监听了主线程发来的消息,计算完毕之后将结果 send 到主线程。同时还监听 process 的 SIGHUP 事件,触发此事件就进程退出。
这里我们有一点需要注意,主线程的 kill 方法并不是真的使子进程退出,而是会触发子进程的 SIGHUP 事件,真正的退出还是依靠 process.exit();。
下面我们用 ab 命令测试一下多进程方案的处理性能和用户请求延迟,测试环境不变,还是 100 个并发 100 次请求,计算斐波那切数组第 35 位:

Server Software:
Server Hostname: 192.168.28.5
Server Port: 8124

Document Path: /?n=35
Document Length: 8 bytes

Concurrency Level: 100
Time taken for tests: 7.036 seconds
Complete requests: 100
Failed requests: 0
Write errors: 0
Total transferred: 16500 bytes
HTML transferred: 800 bytes
Requests per second: 14.21 [#/sec](mean)
Time per request: 7035.775 [ms](mean)
Time per request: 70.358 [ms](mean, across all concurrent requests)
Transfer rate: 2.29 [Kbytes/sec] received

Connection Times (ms)
min mean[+/-sd] median max
Connect: 4 4 0.2 4 5
Processing: 4269 5855 970.3 6132 7027
Waiting: 4269 5855 970.3 6132 7027
Total: 4273 5860 970.3 6136 7032

Percentage of the requests served within a certain time (ms)
50% 6136
66% 6561
75% 6781
80% 6857
90% 6968
95% 7003
98% 7017
99% 7032
100% 7032 (longest request)
压力测试结果 QPS 约为 14.21, 相比 cluster 来说,还是快了很多,每个用户请求的延迟都很平均,因为进程的创建和销毁的开销要大于线程,所以在性能方面略低于 tagg2,不过相对于 cluster 方案,这样的提升还是令我们满意的。
换一种思路
使用 child_process 模块的 fork 方法确实可以让我们很好的解决单线程对 cpu 密集型任务的阻塞问题,同时又没有 tagg2 包那样无法使用 Node.js 核心 api 的限制。
但是如果我的 worker 具有多样性,每次在利用 child_process 模块解决问题时都需要去创建一个 worker.js 的工作函数文件,有点麻烦。我们是不是可以更加简单一些呢?
在我们启动 Node.js 程序时,node 命令可以带上 - e 这个参数,它将直接执行 - e 后面的字符串,如下代码就将打印出 hello world。
node -e “console.log(‘hello world’)”
合理的利用这个特性,我们就可以免去每次都创建一个文件的麻烦。
var express = require(‘express’);
var spawn = require(‘child_process’).spawn;
var app = express();
var spawn_worker = function(n,end){// 定义工作函数
var fibo = function fibo (n) {
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
end(fibo(n));
}
var spawn_end = function(result){// 定义工作函数结束的回调函数参数
console.log(result);
process.exit();
}
app.get(‘/’, function(req, res){
var n = ~~req.query.n || 1;
// 拼接 - e 后面的参数
var spawn_cmd = ‘(‘+spawn_worker.toString()+'(‘+n+’,’+spawn_end.toString()+’));’
console.log(spawn_cmd);// 注意这个打印结果
var worker = spawn(‘node’,[‘-e’,spawn_cmd]);// 执行 node -e “xxx” 命令
var fibo_res = ”;
worker.stdout.on(‘data’, function (data) {// 接收工作函数的返回
fibo_res += data.toString();
});
worker.on(‘close’, function (code) {// 将结果响应给客户端
res.send(fibo_res);
});
});
app.listen(8124);
代码很简单,我们主要关注 3 个地方。
第一、我们定义了 spawn_worker 函数,他其实就是将会在 - e 后面执行的工作函数,所以我们把计算斐波那契数组的算法定义在内,spawn_worker 函数接收 2 个参数,第一个参数 n 表示客户请求要计算的斐波那契数组的位数,第二个 end 参数是一个函数,如果计算完毕则执行 end,将结果传回主线程;
第二、真正当 Node.js 脚步执行的字符串其实就是 spawn_cmd 里的内容,它的内容我们通过运行之后的打印信息,很容易就能明白;
第三、我们利用 child_process 的 spawn 方法,类似在命令行里执行了 node -e “js code”,启动 Node.js 工作进程,同时监听子进程的标准输出,将数据保存起来,当子进程退出之后把结果响应给用户。
现在主要的焦点就是变量 spawn_cmd 到底保存了什么,我们打开浏览器在地址栏里输入:
http://127.0.0.1:8124/?n=35
下面就是程序运行之后的打印信息,
(function (n,end){
var fibo = function fibo (n) {
return n > 1 ? fibo(n – 1) + fibo(n – 2) : 1;
}
end(fibo(n));
}(35,function (result){
console.log(result);
process.exit();
}));
对于在子进程执行的工作函数的两个参数 n 和 end 现在一目了然,n 代表着用户请求的参数,期望获得的斐波那契数组的位数,而 end 参数则是一个匿名函数,在标准输出中打印计算结果然后退出进程。
node - e 命令虽然可以减少创建文件的麻烦,但同时它也有命令行长度的限制,这个值各个系统都不相同,我们通过命令 getconf ARG_MAX 来获得最大命令长度,例如:MAC OSX 下是 262,144 byte,而我的 linux 虚拟机则是 131072 byte。
多进程和多线程
大部分多线程解决 cpu 密集型任务的方案都可以用我们之前讨论的多进程方案来替代,但是有一些比较特殊的场景多线程的优势就发挥出来了,下面就拿我们最常见的 http web 服务器响应一个小的静态文件作为例子。
以 express 处理小型静态文件为例,大致的处理流程如下:

首先获取文件状态,判断文件的修改时间或者判断 etag 来确定是否响应 304 给客户端,让客户端继续使用本地缓存。
如果缓存已经失效或者客户端没有缓存,就需要获取文件的内容到 buffer 中,为响应作准备。
然后判断文件的 MIME 类型,如果是类似 html,js,css 等静态资源,还需要 gzip 压缩之后传输给客户端
最后将 gzip 压缩完成的静态文件响应给客户端。

下面是一个正常成功的 Node.js 处理静态资源无缓存流程图:

这个流程中的 (2),(3),(4) 步都经历了从 js 到 C ++,打开和释放文件,还有调用了 zlib 库的 gzip 算法,其中每个异步的算法都会有创建和销毁线程的开销,所以这样也是大家诟病 Node.js 处理静态文件不给力的原因之一。
为了改善这个问题,我之前有利用 libuv 库开发了一个改善 Node.js 的 http/https 处理静态文件的包,名为 ifile,ifile 包,之所以可以加速 Node.js 的静态文件处理性能,主要是减少了 js 和 C ++ 的互相调用,以及频繁的创建和销毁线程的开销,下图是 ifile 包处理一个静态无缓存资源的流程图:

由于全部工作都是在 libuv 的子线程中执行的,所以 Node.js 主线程不会阻塞,当然性能也会大幅提升了,使用 ifile 包非常简单,它能够和 express 无缝的对接。
var express = require(‘express’);
var ifile = require(“ifile”);
var app = express();
app.use(ifile.connect()); // 默认值是 [[‘/static’,__dirname]];
app.listen(8124);
上面这 4 行代码就可以让 express 把静态资源交给 ifile 包来处理了,我们在这里对它进行了一个简单的压力测试,测试用例为响应一个大小为 92kb 的 jquery.1.7.1.min.js 文件,测试命令:
ab -c 500 -n 5000 -H “Accept-Encoding: gzip” http://192.168.28.5:8124/static/jquery.1.7.1.min.js
由于在 ab 命令中我们加入了 -H “Accept-Encoding: gzip”,表示响应的静态文件希望是 gzip 压缩之后的,所以 ifile 将会把压缩之后的 jquery.1.7.1.min.js 文件响应给客户端。结果如下:
Server Software:
Server Hostname: 192.168.28.5
Server Port: 8124

Document Path: /static/jquery.1.7.1.min.js
Document Length: 33016 bytes

Concurrency Level: 500
Time taken for tests: 9.222 seconds
Complete requests: 5000
Failed requests: 0
Write errors: 0
Total transferred: 166495000 bytes
HTML transferred: 165080000 bytes
Requests per second: 542.16 [#/sec](mean)
Time per request: 922.232 [ms](mean)
Time per request: 1.844 [ms](mean, across all concurrent requests)
Transfer rate: 17630.35 [Kbytes/sec] received

Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 49 210.2 1 1003
Processing: 191 829 128.6 870 1367
Waiting: 150 824 128.5 869 1091
Total: 221 878 230.7 873 1921

Percentage of the requests served within a certain time (ms)
50% 873
66% 878
75% 881
80% 885
90% 918
95% 1109
98% 1815
99% 1875
100% 1921 (longest request)
我们首先看到 Document Length 一项结果为 33016 bytes 说明我们的 jquery 文件已经被成功的 gzip 压缩,因为源文件大小是 92kb;其次,我们最关心的 Requests per second:542.16 [#/sec](mean),说明我们每秒能处理 542 个任务;最后,我们看到,在这样的压力情况下,平均每个用户的延迟在 1.844 [ms]。
我们看下使用 express 框架处理这样的压力会是什么样的结果,express 测试代码如下:
var express = require(‘express’);
var app = express();
app.use(express.compress());// 支持 gzip
app.use(‘/static’, express.static(__dirname + ‘/static’));
app.listen(8124);
代码同样非常简单,注意这里我们使用:
app.use(‘/static’, express.static(__dirname + ‘/static’));
而不是:
app.use(express.static(__dirname));
后者每个请求都会去匹配一次文件是否存在,而前者只有请求 url 是 /static 开头的才会去匹配静态资源,所以前者效率更高一些。然后我们执行相同的 ab 压力测试命令看下结果:
Server Software:
Server Hostname: 192.168.28.5
Server Port: 8124

Document Path: /static/jquery.1.7.1.min.js
Document Length: 33064 bytes

Concurrency Level: 500
Time taken for tests: 16.665 seconds
Complete requests: 5000
Failed requests: 0
Write errors: 0
Total transferred: 166890000 bytes
HTML transferred: 165320000 bytes
Requests per second: 300.03 [#/sec](mean)
Time per request: 1666.517 [ms](mean)
Time per request: 3.333 [ms](mean, across all concurrent requests)
Transfer rate: 9779.59 [Kbytes/sec] received

Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 173 539.8 1 7003
Processing: 509 886 350.5 809 9366
Waiting: 238 476 277.9 426 9361
Total: 510 1059 632.9 825 9367

Percentage of the requests served within a certain time (ms)
50% 825
66% 908
75% 1201
80% 1446
90% 1820
95% 1952
98% 2560
99% 3737
100% 9367 (longest request)
同样分析一下结果,Document Length:33064 bytes 表示文档大小为 33064 bytes,说明我们的 gzip 起作用了,每秒处理任务数从 ifile 包的 542 下降到了 300,最长用户等待时间也延长到了 9367 ms,可见我们的努力起到了立竿见影的作用,js 和 C ++ 互相调用以及线程的创建和释放并不是没有损耗的。
但是当我在 express 的谷歌论坛里贴上这些测试结果,并宣传 ifile 包的时候,express 的作者 TJ,给出了不一样的评价,他在回复中说道:
请牢记你可能不需要这么高等级吞吐率的系统,就算是每月百万级别下载量的 npm 网站,也仅仅每秒处理 17 个请求而已,这样的压力甚至于 PHP 也可以处理掉(又黑了一把 php)。
确实如 TJ 所说,性能只是我们项目的指标之一而非全部,一味的去追求高性能并不是很理智。
ifile 包开源项目地址:https://github.com/DoubleSpout/ifile
总结
单线程的 Node.js 给我们编码带来了太多的便利和乐趣,我们应该时刻保持清醒的头脑,在写 Node.js 代码中切不可与 PHP 混淆,任何一个隐藏的问题都可能击溃整个线上正在运行的 Node.js 程序。
单线程异步的 Node.js 不代表不会阻塞,在主线程做过多的任务可能会导致主线程的卡死,影响整个程序的性能,所以我们要非常小心的处理大量的循环,字符串拼接和浮点运算等 cpu 密集型任务,合理的利用各种技术把任务丢给子线程或子进程去完成,保持 Node.js 主线程的畅通。
线程 / 进程的使用并不是没有开销的,尽可能减少创建和销毁线程 / 进程的次数,可以提升我们系统整体的性能和出错的概率。
最后请不要一味的追求高性能和高并发,因为我们可能不需要系统具有那么大的吞吐率。高效,敏捷,低成本的开发才是项目所需要的,这也是为什么 Node.js 能够在众多开发语言中脱颖而出的关键。
参考文献

http://smashingnode.com Smashing Node.JS By Guillermo Rauch

http://bjouhier.wordpress.com… Fibers and Threads in node.js – what for? By Bruno’s Ramblings

https://github.com/xk/node-th… TAGG: Threads à gogo for Node.js By Jorge Chamorro Bieling

https://code.google.com/p/v8/ Google v8

https://github.com/joyent/libuv libuv by joyent

原文地址:https://github.com/xiongwilee…

正文完
 0