如何配置一个上万并发的服务器前端?

这个问题主要是服务器端的问题,五万并发并且有持续数据传送的情况下需要:

  • 什么样的机器(硬件)以及软件来处理连接请求?采用什么样的分发技术?
  • 它们处理连接的方式与常见的 HTTP 服务器有什么区别?
  • 操作系统应该采取什么样的优化来支持如此大量的数据连接?

另外,顺便问一下,对于这样的服务,网页前端通常能作出什么样的优化来减轻服务器的负担?

收藏 0 分享浏览 1622
3年前
跟帖
AKI_______
3年前

这个方面真是低手,但也来说几句。

  • 一般来说是lighttp或者nginx做负载均衡。简单来说是把请求分发到不同的机器上。
  • 没有区别
  • 操作系统的优化就不知道了。不过肯定是有的。

上万的话,大多得靠配置了。webserver到现在已经很完美了。

网页前端最好部署到另一个服务(CDN)上,跟你的核心服务器没关系。 优化目标无非就是:

  1. 减少文件大小,
  2. 减少请求数量。

方法就是:加各种标头啊,压缩代码,合并代码之类的。

再有就说predns啥的。

沙发
说几句
广告位 点击查看投放指南

我的收藏