背景
我们七层负载层,使用了5台24u+64g内存的物理机支行nginx做https加解密与proxy_pass。每天上下班时段,5台机cpu基本在50%左右,算是计算型。
优化手段:keepalive、换tls1.2加密算法优化(参考:1,2)等,收效不大。
特别简明一下keepalive选项,不论服务端如何支持,关键是客户端不跟你keep,你玩个屁。
测试过程
硬件: 24u+64g物理机2台,1台跟测试,1台跑ngx; 同个局域网内,1gb网卡。
nginx -v:
version: openresty/1.9.7.3
built by gcc 4.8.5 20150623 (red hat 4.8.5-4) (gcc)
built with openssl 1.0.1e-fips 11 feb 2013
tls sni support enabled
–with-http_v2_module
apache的ab压测工具: yum安装
boom 是模拟ab的golang实现的压测工具: https://github.com/rakyll/boonghttp2 的 h2load 压测工具: https://github.com/tatsuhiro-t/nghttp2centos-7 64位测试文件大小:5k,10k的图片,作静态文件的https测试。测试过程简单来看参数:-c=100~3000,-n=1k~10kw 的各种组合, 使用h2load时-m=1~1000都有试过,-m范围大小,对http2结果影响不太大。
图:
放流量图你就明白了:
下图为使用ab与boom时:
此时ab与boom都有使用-k,反正怎么玩,测量与时间都大概在这个水平。
例如以下命令,基本上要跑个半小时:
boom -c 1000 -n 1000000 -allow-insecure https://172.16.9.234/5k.jpg
ab -c 1000 -n 1000000 -khttps://172.16.9.234/5k.jpg
参数不变换成http2时:
h2load -c 1000 -n 1000000 -m1 https://172.16.9.234/5k.jpg
h2load运行结果如下:
再有下图为h2load测试http2时:
千兆网卡,流出流量全满上。
结论
以下结论经过多次重复测试,只代表本人意见,转载请注明from:toontong.
同等并发数下,http2.0只用了43秒传输完4.3g数据;而http1.1用40多分钟。单论传输性能提升10倍不止,对我们关键的https cpu占用效果非常明显。对web服务整体性能提升当然没10倍,原因还有连接建立在需时等,更多原因要深研http2原理了。go1.6后才有http2-client库的支持,低版本go感觉可以使用https://github.com/tatsuhiro-t/go-nghttp2如果真普及http2.0,对整个互联流量,互联网公司的机器节约,都是大大福音。
‘).addclass(‘pre-numbering’).hide();
$(this).addclass(‘has-numbering’).parent().append($numbering);
for (i = 1; i