如何提高服务器并发能力

1什么是服务器并发处理能力

  一台服务器在单位时间里能处理的请求越多,服务器的能力越高,也就是服务器并发处理能力越强。如何提高服务器的处理能力,是目前计算机界的一个关键问题。服务器的本质工作就是,争取以最快的速度将内核缓冲区中的用户请求数据都拿出来,然后尽快处理,再将响应数据放到一块又能够与发送数据的缓冲区中,接着处理下一个请求。

2 衡量方法

2.1 吞吐率

  吞吐率:单位时间里服务器处理的最大请求数,单位REQ/S

2.2 压力测试

  压力测试前提考虑的条件:并发用户数、总请求数、请求资源描述。

3 如何提高并发处理能力

3.1 提高CPU并发处理能力

1多进程

  多进程的好处不仅在于CPU时间的轮流使用,还在于对CPU计算和I/O操作进行很好的重叠利用,这里的I/O主要指磁盘I/O和网络I/O.实际上,大多数进程的时间主要消耗在I/O操作上,现代计算机的DMA技术可以让CPU不参与I/O操作的全过程,比如进程通过系统调用,使得CPU向网卡或者磁盘等I/O设备发出指令,然后进程被挂起,释放出CPU资源,等待I/O设备完成工作后通过中断来通知进程重新就绪。对于单任务而言,CPU大部分时间空闲,这时候多进程的作用尤为重要。

2减少进程切换

  进程拥有独立的内存空间,每个进程都只能共享CPU寄存器。一个进程被挂起的本质是将它在CPU寄存器中的数据拿出来暂存在内存态堆栈着那个,而一个进程恢复工作的本质就是把它的数据重新装入CPU寄存器,这段装入和移出的数据称为硬件上下文,除此之外,进程上下文还包含进程允许所需的一切状态信息。

  当硬件上下文频繁装入和移出时,所消耗的时间是非常明显的。为了尽量减少上下文切换次数,最简单的做法就是减少进程数,尽量使用线程并配合其它I/O模型来设计并发策略。还可考虑使用进程绑定CPU技术,增加CPU缓存的命中率。若进程不断在各CPU上切换,这样旧的CPU缓存就会失效。

3减少使用不必要的锁

  服务器处理大量并发请求时,多个请求处理任务时存在一些资源抢占竞争,这时一般采用机制来控制资源的占用,当一个任务占用资源时,我们锁住资源,这时其它任务都在等待锁的释放,这个现象称为锁竞争。

  通过锁竞争的本质,我们要意识到尽量减少并发请求对于共享资源的竞争。比如在允许情况下关闭服务器访问日志,这可以大大减少在锁等待时的延迟时间。

  无锁编程,就是由内核完成这个锁机制,主要是使用原子操作替代锁来实现对共享资源的访问保护,使用原子操作时,在进行实际的写操作时,使用了lock指令,这样就可以阻止其他任务写这块内存,避免出现数据竞争现象。原子操作速度比锁快,一般要快一倍以上。例如fwrite(), fopen(),其是使用append方式写文件,其原理就是使用了无锁编程,无锁编程的复杂度高,但是效率快,而且发生死锁概率低。

4)其它

  除了上述所说,要优化服务器的并发处理能力,需关注程优先级,进程调度器会动态调整运行队列中进程的优先级,通过top观察进程的PR值;关注系统负载,可在任何时刻查看/proc/loadavg top中的load average也可看出;关注CPU使用率,除了用户空间和内核空间的CPU使用率以外,还要关注I/O wait,它是指CPU空闲并且等待I/O操作完成的时间比例。

3.2 考虑系统调用

  进程若运行在用户态,这时可使用CPU和内存来完成一些任务,而当进程需要对硬件外设进行操作的时候(如读取磁盘文件,发送网络数据等),就必须切换到内核态,这时它拥有更多的权力来操纵整个计算机。而系统调用涉及进程从用户态到内核态的切换,导致一定的内存交换,这也是一定程度上的上下文切换,所以系统调用的开销通常认为比较昂贵的。

3.3 考虑减少内存分配和释放

  服务器的工作过程中,需要大量的内存,使得内存的分配和释放工作尤为重要。通过改善数据结构和算法复制度来适当减少中间临时变量的内存分配及数据复制时间,而服务器本身也使用了各自的策略来提高效率。例如Apache,在运行开始时一次申请大片的内存作为内存池,若随后需要时就在内存池中直接获取,不需要再次分配,避免了频繁的内存分配和释放引起的内存整理时间。

3.4 考虑使用持久连接

  持久连接也为长连接,它本身是TCP通信的一种普通方式,即在一次TCP连接中持续发送多分数据而不断开连接,与它相反的方式称为短连接,也就是建立连接后发送一份数据就断开,然后再次建立连接发送下一份数据,周而复始。是否采用持久连接,完全取决于应用特点。从性能角度看,建立TCP连接的操作本身是一项不小的开销,在允许的情况下,连接次数越少,越有利于性能的提升;尤其对于密集型的图片或网页等小数据请求处理有明显的加速所用。

HTTP长连接需要浏览器和web服务器的共同协作,目前浏览器普遍支持长连接,表现在其发出的HTTP请求数据头中包含关于长连接的声明,如下: Connection Keep-Alive。主流的web服务器都支持长连接,比如apache中,可以用KeepAlive off关闭长连接。  

3.5改进I/O模型

         I/O操作根据设备的不同分为很多类型,比如内存I/O网络I/O磁盘I/O如何让高速的CPU和慢速的I/O设备更好地协调工作,是现代计算机一直探讨的话题。各种I/O模型的本质区别在于CPU的参与方式。

1 DMA技术

         I/O设备和内存之间的数据传输方式由DMA控制器完成。在DMA模式下,CPU只需向DMA下达命令,让DMA控制器来处理数据的传送,这样可以大大节省系统资源。

2)异步I/O

  异步I/O指主动请求数据后便可以继续处理其它任务,随后等待I/O操作的通知,这样进程在数据读写时不发生阻塞。而同步则在数据就绪后在读写时必须阻塞。异步I/O是非阻塞的,当函数返回时,真正的I/O传输还没开始,这让CPU处理和I/O操作达到很好的重叠。

3)改进多路I/O就绪通知策略

        epoll服务器同时处理大量的文件描述符是必不可少的,若采用同步非阻塞I/O模型,若同时接收TCP连接的数据,就必须轮流对每个socket调用接收数据的方法,不管这些socket有没有可接收的数据,都要询问一次,假如大部分socket并没有数据可以接收,那么进程便会浪费很多CPU时间用于检查这些socket.有没有可以接收的数据,多路I/O就绪通知的出现,提供了对大量文件描述符就绪检查的高性能方案,它允许进程通过一种方法同时监视所有文件描述符,并可以快速获得所有就绪的文件描述符,然后只针对这些文件描述符进行数据访问。

4Sendfile

  大多数时候,我们都向服务器请求静态文件,比如图片,样式表等,在处理这些请求时,磁盘文件的数据先经过内核缓冲区,然后到用户内存空间,不需经过任何处理,其又被送到网卡对应的内核缓冲区,接着再被送入网卡进行发送。

Linux提供sendfile()系统调用,可以讲磁盘文件的特定部分直接传送到代表客户端的socket描述符,加快了静态文件的请求速度,同时减少CPU和内存的开销。适用场景,对于请求较小的静态文件,sendfile发挥的作用不那么明显,因发送数据的环节在整个过程中所占时间的比例相比于大文件请求时小很多。

5)内存映射

         Linux内核提供一种访问磁盘文件的特殊方式,它可以将内存中某块地址空间和我们指定的磁盘文件相关联,从而对这块内存的访问转换为对磁盘文件的访问。这种技术称为内存映射。

  多数情况下,内存映射可以提高磁盘I/O的性能,无须使用read()或write()等系统调用来访问文件,而是通过mmap()系统调用来建立内存和磁盘文件的关联,然后像访问内存一样访问文件。该机制的缺点是在处理较大文件时,内存映射会导致较大的内存开销,得不偿失。

6)直接I/O

  在linux 2.6中,内存映射和直接访问文件没有本质差异,因为数据需要经过2次复制,即在磁盘与内核缓冲区之间以及在内核缓冲区与用户态内存空间。

  引入内核缓冲区的目的在于提高磁盘文件的访问性能,然而对于一些复杂的应用,比如数据库服务器,它们为了进一步提高性能,希望绕过内核缓冲区,由自己在用户态空间实现并管理I/O缓冲区,同时绕过内核缓冲区也可以减少系统内存的开销,因内核缓冲区本身就在使用系统内存。

Linuxopen()系统调用中增加参数选项O_DIRECT,即可绕过内核缓冲区直接访问文件,实现直接I/O。在Mysql中,对于Innodb存储引擎[9],自身进行数据和索引的缓存管理,可在my.cnf配置中分配raw分区跳过内核缓冲区,实现直接I./O

4 改进服务器并发策略

   服务器并发策略的目的,是让I/O操作和CPU计算尽量重叠进行,一方面让CPUI/O等待时不要空闲,另一方面让CPUI/O调度上尽量花最少的时间。

4.1 一个进程处理一个连接,非阻塞I/O,使用长连接

         Apache使用这个模型,其进程的开销限制了它的并发连接数,但从稳定性和兼容性的角度,则其相对安全,任何一个子进程的崩溃不会影响Apache本身,Apache父进程可以创建新的子进程;另一方面,Apache经过长期的考验和广发的使用,功能模块非常丰富。所以对于一些并发数要求不高,还对其它功能有依赖,那么可考虑Apache这个模型。

4.2 一个进程处理多个连接,异步I/O,使用长连接

  一个进程处理多个连接,潜在条件就是多路I/O就绪通知的应用。服务器通常维护者大量的空闲连接,有些可能由于使用长连接而在等待超时,有些可能是网络传输的延时等等,这时epoll只会关注活跃连接,而不在死连接上浪费时间,但是selectpoll会扫描所有文件描述符,这个是个非常昂贵的开销。一个典型的应用就是图片服务器,它们希望为用户提供网页中大量图片的快速下载,采用长连接,但是这些大量连接在等待超时关闭前处于空闲状态,这种情况下,epoll依然能很好工作。

5 改进硬件环境

  硬件环境,服务器的硬件配置对站点代理的性能提升肯定是有的,但这里不作详细讨论。

6 结束语

  本文针对提高服务器并发处理能力若干方法进行了分析和总结,在实际的生产环境中,我们可以采用这里的部分方法,优化服务器的性能,达到最优性能,真正做到海量服务。

    原文作者:ljlstart
    原文地址: https://blog.csdn.net/ljlstart/article/details/51340515
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞