用户通常需要了解通过 Internet 传送内容所涉及的庞大基础设施。在您和您正在浏览的服务器之间,互联网占据了数英里的距离。使这种情况更糟的是,达到前所未有的受欢迎程度的网站面临着管理持续上升的每月流量水平的挑战,使所有相关人员的体验更加困难。有些网站在一个月内的访问量比其他网站多;类似的网站在一年内收到更多。接收大量流量的网站可能会不知不觉地被迫进行频繁的服务器升级。,,这确保了网站的忠实用户不会对页面加载时间和可用性产生负面影响。另一方面,要管理某些网站收到的大量流量,需要的不仅仅是简单的硬件更改。因此,公司所有者、他们的用户体验设计师和他们的开发人员应该问自己的问题不仅是如何将日常速度保持在不影响可用性的水平上,而且还要为这种情况做好准备。您的网站将来可能会遇到的流量。,负载平衡是在众多服务器之间分配入站 Web 流量,以最大限度地提高资源的利用效率,并防止任何一台服务器同时承担过多的工作。可以最小化需求,并且可以通过将其分布在服务器网络中来加快响应时间。当使用负载平衡时,即使一台或多台服务器由于错误或正常维护而无法访问,应用程序也不一定会完全停止运行。相反,幸存的服务器会弥补不足并正常工作。如果您希望在现场拥有大量服务器或在云网络范例中使用分散的服务器,则这两个选项都可用。,在分布式计算云中,服务器可能位于不同地理区域的安全数据中心。即使自然灾害袭击了单个数据中心,在其他地方仍然可以访问足够多的服务器来管理工作量。负载平衡发生在私有云中的一组专用服务器上,这些服务器提供包罗万象的基础设施即服务 (IaaS) 包。这些服务器专为一个单一的商业客户分配。,您的互联网协议 (IP) 流量负载以及许多其他客户的流量负载在公共云中广泛分散的计算机网络上得到平衡。负载平衡在公共云中可能是最简单的,主要的云提供商提供大部分服务器资源。这是因为公共云几乎拥有无限的服务器资源。自然地,必须调查任何潜在的云服务提供商以前的工作,以确定该公司的客户是否真正享受按需无缝扩展。随着您的网站越来越受欢迎,您将需要升级当前的硬件或完全投资购买全新的计算机。,,在考虑可扩展性时,将整个流程迁移到云端是可选的,以获得所需的灵活性级别。Zeus 的简单负载均衡器和流量管理器版本在亚马逊的弹性计算云上可用,允许各种规模的企业在多个服务器之间动态分配他们的 Web 流量。这将使客户能够为常规流量提供现场服务,然后在需求高峰期临时扩展到云端。或者,客户可以在云中提供正常流量。,当网站每天收到数以千计的请求时,底层基础设施必须准备好管理如此大的流量,网站才能正常运行。在服务器级别,可以在两个不同级别执行处理大量网络流量所需的优化:,管理物理服务器上的大量流量负载的方法主要有两种,如下所示:, 线性缩放,将您的钱花在一台具有大量处理能力、RAM 和硬盘驱动器空间以及冗余的机器上。这适用于具有一些静态网页的普通网站。例如,需要具有 500 MHz 能力的处理器或能够加载 Web 服务器(如 Apache)的操作系统。它通过可靠的连接连接到 Internet,例如 E1(每秒 2 兆字节)或 E3(每秒 34 MB)。该物理服务器每天能够容纳数千名用户。,, 横向扩展和负载均衡,无论它们有多大,服务器始终具有必须遵守的固有容量上限。同样的原则也适用于在服务器上执行的程序(例如 Apache)。每天吸引大量访问者的网站应考虑购买虚拟专用服务器或专用服务器托管服务。WordPress 专家和开发人员随时准备回答有关使用我们的Temok托管服务的问题。,托管服务有很多选择(美国专用服务器或专用服务器托管、完全托管托管、共享托管和云托管等),但找到合适的服务可能具有挑战性。每个托管服务提供商都有不同的功能,并非所有功能都适合您的业务。因此,在选择托管服务提供商之前,最好认真考虑所有重要因素。,术语“负载平衡”是指在统称为“服务器池”的多个后端服务器之间分配传入网络流量的有效方法。处理峰值负载最有效的方法是设置额外的服务器并在这些服务器之间平均分配工作负载。,负载均衡器有效地执行以下操作:,让我们深入研究一些有关管理 Web 服务器上的过度负载的更详细信息。, 处理对 Web 域的请求,域名服务器(通常称为 DNS)可以减轻一些压力。(域名系统或 DNS 是一种提供域名与其对应 IP 地址之间转换的服务。)只要服务器收到请求,DNS 就会通过围绕可用 IP 地址进行循环来分散和分担负载。这样做是为了分配和分担负载。每台服务器都通过中央数据库访问主网站的页面。,,开关允许以几种不同的方式划分负载。每当对网站提出请求时,都会联系一台机器。然后将信息发送到可访问的服务器之一。冗余是使用此方法可以获得的主要好处。即使其中一台服务器出现故障,其余机器仍将继续运行,网站将始终可用。随着时间的推移逐渐提高容量也有好处,这是这里的一个额外优势。单击此处阅读我们最好的文章,其中包括了解差异的 Web 服务器 VS 应用程序服务器。, 自动缩放,自动缩放是云计算中使用的一种机制,可确保提供适当数量的实例以适应应用程序正在使用的负载。流量大时自动增加实例数以维持服务器性能,流量减少时自动降低实例数。此功能确保网站始终可访问,并使其能够动态扩展以响应网络流量的变化。活动级别每小时、每天或每周波动的网站将从实施此解决方案中获益最多。,用户每天都会写新评论,网站所有者会添加新页面、更改或删除以前的页面,以及在他们的列表中添加或删除内容。这些操作会导致在数据库表中创建“漏洞”。这些空白空间在删除数据条目后留下,但需要替换。这些类型的间隙会导致碎片化并导致更长的获取时间。如果数据库包含的“漏洞”占其总空间的 5% 以上,则必须对其进行修复。多个数据库连接、缓慢的查询和其他低效调用经常会严重影响应用程序服务器的性能。这些类型的调用需要定期优化。, Web 服务器监控和优化,为确保网站充分发挥其潜力,监控 KPI(关键绩效指标)非常重要,包括通过各种渠道(如帮助台、客户服务等)收集轶事和定性消费者反馈。如果网站收到大量流量,安排对 Web 服务器进行例行审核符合每个人的最佳利益。以下是部分配置:,通过使用 NGINX 等工具,网站可以扩展以应对高流量。NGINX 与主服务器一起部署,用作反向代理来管理发送到 Web 服务器的动态或静态请求。因为这个工具独一无二的处理能力可以处理很多连接,同时使用很少的资源,因为它是单线程服务器,内存和 CPU 使用量相对恒定,即使在高流量期间也是如此。在使用 NGINX 作为反向代理的服务器上使用 Engintron(cPanel 的一个插件)可以显着提高服务器的速度,尤其是在高峰流量期间。,Web 服务、反向代理、缓存、负载平衡和视频流是 NGINX 的开源软件可以完成的部分任务。它还能够作为 HTTP、TCP 和 UDP 服务器的反向代理和负载平衡器,以及电子邮件(IMAP 和 POP3)的代理服务器。在使用缓存时,网站的速度和素材的新鲜度之间总是需要权衡取舍,需要在两者之间找到理想的平衡点。,一些应用程序需要它们的数据库服务器具有更大的容量。在这种情况下,尽管流量急剧增加,但以 CPU 和 RAM 的形式为网站提供额外资源将有助于网站更顺畅地运行。一些数据库服务器需要他们的裸机和更轻的虚拟网络服务器。裸机服务器有自己的硬件,专为一个客户创建,并且专门为该客户服务。示例包括 MS SQL Server。同样,接收大量流量的网站可以通过增加其 Web 服务器可以访问的计算和内存资源来提高其速度和性能。,最后,负载平衡的目的是帮助组织更成功地管理网络流量和应用程序负载,从而为最终用户提供可靠且一致的体验。由于执行此功能的负载平衡器,可以获得以下优点。,, 流量高峰期间的可扩展性,企业可以通过负载平衡来控制流量变化和激增,从而允许他们调整必要的服务器数量以满足不断变化的需求。这使得企业可以通过客户突然增加的订单来增加收入。例如,电子商务网站应该预料到圣诞节购物和促销活动期间网络流量会增加。扩展服务器容量以平衡其负载的选项可能是新客户或保留客户的销售收益与不满意的消费者造成的重大损失之间的区别。, 减少停机时间的冗余,当访问网站的流量突然且无法预料地增加时,运行该网站的服务器崩溃并不罕见。但是,如果您可以在许多 Web 服务器上维护网站,您将能够减少单个服务器不可用可能造成的危害。通过负载平衡可以添加有助于实现工作负载现代化的自动化层,它允许您在其中一台服务器发生故障时自动将网络负载转移到正常运行的服务器上。您可以将一台服务器保持在活动状态以接受流量,而第二台服务器保持被动模式并准备在活动服务器发生故障时上线。这种安排让公司高枕无忧,因为他们的其中一台服务器将始终处于运行状态,, 维护的灵活性,通过暂时将流量重定向到未主动处理请求的服务器的能力,开发人员可以自由地对有问题的服务器进行维护工作。您可以将所有流量定向到单个服务器,同时将负载平衡器置于活动模式。之后,您的 IT 支持人员可能会为被动服务器提供软件更新和补丁,测试生产环境中的更改,并在一切正常时将服务器从被动状态切换为主动状态。, 主动故障检测,企业可以识别服务器中断并通过负载平衡来解决它们,负载平衡将资源分配给未受影响的服务器。这使您能够有效地管理服务器,尤其是当这些服务器分散在多个数据中心和云提供商时。对于软件负载平衡器尤其如此,它可以利用预测分析来识别可能的流量瓶颈,甚至在它们发生之前。,, DDoS 攻击缓解,在对抗分布式拒绝服务 (DDoS) 攻击时,负载均衡器将流量分散到多个服务器的能力被证明是无价的。如果 DDoS 攻击使单个服务器过载,负载平衡器会很有用,因为它们会将流量重新路由到其他服务器,从而最大限度地减少攻击面。通过以这种方式消除所有网络的潜在弱点,负载平衡使您的系统更能抵抗此类攻击。,多年来,负载平衡技术取得了显着进步,并且仍然是组织保证持续用户体验的重要手段。负载平衡为组织提供了扩展资源、满足客户期望和创造资金的新机会。这是对 IT 团队负载平衡的额外好处,包括更少的停机时间和高可用性。, ,用户通常需要了解通过 Internet 传送内容所涉及的庞大基础设施。在您和您正在浏览的服务器之间,互联网占据了数英里的距离。使这种情况更糟的是,达到前所未有的受欢迎程度的网站面临着管理持续上升的每月流量水平的挑战,使所有相关人员的体验更加困难。有些网站在一个月内的访问量比其他网站多;类似的网站在一年内收到更多。接收大量流量的网站可能会不知不觉地被迫进行频繁的服务器升级。,,
CDN网络中包含的功能实体包括内容缓存设备、内容交换机、内容路由器、CDN内容管理系统等组成。 中包含的功能实体包括内容缓存设备、内容交换机、内容路由器、CDN 内容管理系统等组成。 内容缓存为 CDN 网络节点,位于用户接入点,是面向最终用户的内容提供设备,可缓存静态 Web 内容和流媒体内容,实现内容的边缘传播和存储,以便用户的就近访问。 内容交换机处于用户接入集中点,可以均衡单点多个内容缓存设备的负载,并对内容进行缓存负载平衡及访问控制。 内容路由器负责将用户的请求调度到适当的设备上。内容路由通常通过负载均衡系统来实现,动态均衡各个内容缓存站点的载荷分配,为用户的请求选择最佳的访问站点,同时提高网站的可用性。内容路由器可根据多种因素制定路由,包括站点与用户的临近度、内容的可用性、网络负载、设备状况等。负载均衡系统是整个 CDN 的核心。负载均衡的准确性和效率直接决定了整个 CDN 的效率和性能。 内容管理系统负责整个 CDN 的管理,是可选部件,作用是进行内容管理,如内容的注入和发布、内容的分发、内容的审核、内容的服务等。
用户通常需要了解通过 Internet 传送内容所涉及的庞大基础设施。在您和您正在浏览的服务器之间,互联网占据了数英里的距离。使这种情况更糟的是,达到前所未有的受欢迎程度的网站面临着管理持续上升的每月流量水平的挑战,使所有相关人员的体验更加困难。有些网站在一个月内的访问量比其他网站多;类似的网站在一年内收到更多。接收大量流量的网站可能会不知不觉地被迫进行频繁的服务器升级。,,这确保了网站的忠实用户不会对页面加载时间和可用性产生负面影响。另一方面,要管理某些网站收到的大量流量,需要的不仅仅是简单的硬件更改。因此,公司所有者、他们的用户体验设计师和他们的开发人员应该问自己的问题不仅是如何将日常速度保持在不影响可用性的水平上,而且还要为这种情况做好准备。您的网站将来可能会遇到的流量。,负载平衡是在众多服务器之间分配入站 Web 流量,以最大限度地提高资源的利用效率,并防止任何一台服务器同时承担过多的工作。可以最小化需求,并且可以通过将其分布在服务器网络中来加快响应时间。当使用负载平衡时,即使一台或多台服务器由于错误或正常维护而无法访问,应用程序也不一定会完全停止运行。相反,幸存的服务器会弥补不足并正常工作。如果您希望在现场拥有大量服务器或在云网络范例中使用分散的服务器,则这两个选项都可用。,在分布式计算云中,服务器可能位于不同地理区域的安全数据中心。即使自然灾害袭击了单个数据中心,在其他地方仍然可以访问足够多的服务器来管理工作量。负载平衡发生在私有云中的一组专用服务器上,这些服务器提供包罗万象的基础设施即服务 (IaaS) 包。这些服务器专为一个单一的商业客户分配。,您的互联网协议 (IP) 流量负载以及许多其他客户的流量负载在公共云中广泛分散的计算机网络上得到平衡。负载平衡在公共云中可能是最简单的,主要的云提供商提供大部分服务器资源。这是因为公共云几乎拥有无限的服务器资源。自然地,必须调查任何潜在的云服务提供商以前的工作,以确定该公司的客户是否真正享受按需无缝扩展。随着您的网站越来越受欢迎,您将需要升级当前的硬件或完全投资购买全新的计算机。,,在考虑可扩展性时,将整个流程迁移到云端是可选的,以获得所需的灵活性级别。Zeus 的简单负载均衡器和流量管理器版本在亚马逊的弹性计算云上可用,允许各种规模的企业在多个服务器之间动态分配他们的 Web 流量。这将使客户能够为常规流量提供现场服务,然后在需求高峰期临时扩展到云端。或者,客户可以在云中提供正常流量。,当网站每天收到数以千计的请求时,底层基础设施必须准备好管理如此大的流量,网站才能正常运行。在服务器级别,可以在两个不同级别执行处理大量网络流量所需的优化:,管理物理服务器上的大量流量负载的方法主要有两种,如下所示:, 线性缩放,将您的钱花在一台具有大量处理能力、RAM 和硬盘驱动器空间以及冗余的机器上。这适用于具有一些静态网页的普通网站。例如,需要具有 500 MHz 能力的处理器或能够加载 Web 服务器(如 Apache)的操作系统。它通过可靠的连接连接到 Internet,例如 E1(每秒 2 兆字节)或 E3(每秒 34 MB)。该物理服务器每天能够容纳数千名用户。,, 横向扩展和负载均衡,无论它们有多大,服务器始终具有必须遵守的固有容量上限。同样的原则也适用于在服务器上执行的程序(例如 Apache)。每天吸引大量访问者的网站应考虑购买虚拟专用服务器或专用服务器托管服务。WordPress 专家和开发人员随时准备回答有关使用我们的Temok托管服务的问题。,托管服务有很多选择(美国专用服务器或专用服务器托管、完全托管托管、共享托管和云托管等),但找到合适的服务可能具有挑战性。每个托管服务提供商都有不同的功能,并非所有功能都适合您的业务。因此,在选择托管服务提供商之前,最好认真考虑所有重要因素。,术语“负载平衡”是指在统称为“服务器池”的多个后端服务器之间分配传入网络流量的有效方法。处理峰值负载最有效的方法是设置额外的服务器并在这些服务器之间平均分配工作负载。,负载均衡器有效地执行以下操作:,让我们深入研究一些有关管理 Web 服务器上的过度负载的更详细信息。, 处理对 Web 域的请求,域名服务器(通常称为 DNS)可以减轻一些压力。(域名系统或 DNS 是一种提供域名与其对应 IP 地址之间转换的服务。)只要服务器收到请求,DNS 就会通过围绕可用 IP 地址进行循环来分散和分担负载。这样做是为了分配和分担负载。每台服务器都通过中央数据库访问主网站的页面。,,开关允许以几种不同的方式划分负载。每当对网站提出请求时,都会联系一台机器。然后将信息发送到可访问的服务器之一。冗余是使用此方法可以获得的主要好处。即使其中一台服务器出现故障,其余机器仍将继续运行,网站将始终可用。随着时间的推移逐渐提高容量也有好处,这是这里的一个额外优势。单击此处阅读我们最好的文章,其中包括了解差异的 Web 服务器 VS 应用程序服务器。, 自动缩放,自动缩放是云计算中使用的一种机制,可确保提供适当数量的实例以适应应用程序正在使用的负载。流量大时自动增加实例数以维持服务器性能,流量减少时自动降低实例数。此功能确保网站始终可访问,并使其能够动态扩展以响应网络流量的变化。活动级别每小时、每天或每周波动的网站将从实施此解决方案中获益最多。,用户每天都会写新评论,网站所有者会添加新页面、更改或删除以前的页面,以及在他们的列表中添加或删除内容。这些操作会导致在数据库表中创建“漏洞”。这些空白空间在删除数据条目后留下,但需要替换。这些类型的间隙会导致碎片化并导致更长的获取时间。如果数据库包含的“漏洞”占其总空间的 5% 以上,则必须对其进行修复。多个数据库连接、缓慢的查询和其他低效调用经常会严重影响应用程序服务器的性能。这些类型的调用需要定期优化。, Web 服务器监控和优化,为确保网站充分发挥其潜力,监控 KPI(关键绩效指标)非常重要,包括通过各种渠道(如帮助台、客户服务等)收集轶事和定性消费者反馈。如果网站收到大量流量,安排对 Web 服务器进行例行审核符合每个人的最佳利益。以下是部分配置:,通过使用 NGINX 等工具,网站可以扩展以应对高流量。NGINX 与主服务器一起部署,用作反向代理来管理发送到 Web 服务器的动态或静态请求。因为这个工具独一无二的处理能力可以处理很多连接,同时使用很少的资源,因为它是单线程服务器,内存和 CPU 使用量相对恒定,即使在高流量期间也是如此。在使用 NGINX 作为反向代理的服务器上使用 Engintron(cPanel 的一个插件)可以显着提高服务器的速度,尤其是在高峰流量期间。,Web 服务、反向代理、缓存、负载平衡和视频流是 NGINX 的开源软件可以完成的部分任务。它还能够作为 HTTP、TCP 和 UDP 服务器的反向代理和负载平衡器,以及电子邮件(IMAP 和 POP3)的代理服务器。在使用缓存时,网站的速度和素材的新鲜度之间总是需要权衡取舍,需要在两者之间找到理想的平衡点。,一些应用程序需要它们的数据库服务器具有更大的容量。在这种情况下,尽管流量急剧增加,但以 CPU 和 RAM 的形式为网站提供额外资源将有助于网站更顺畅地运行。一些数据库服务器需要他们的裸机和更轻的虚拟网络服务器。裸机服务器有自己的硬件,专为一个客户创建,并且专门为该客户服务。示例包括 MS SQL Server。同样,接收大量流量的网站可以通过增加其 Web 服务器可以访问的计算和内存资源来提高其速度和性能。,最后,负载平衡的目的是帮助组织更成功地管理网络流量和应用程序负载,从而为最终用户提供可靠且一致的体验。由于执行此功能的负载平衡器,可以获得以下优点。,, 流量高峰期间的可扩展性,企业可以通过负载平衡来控制流量变化和激增,从而允许他们调整必要的服务器数量以满足不断变化的需求。这使得企业可以通过客户突然增加的订单来增加收入。例如,电子商务网站应该预料到圣诞节购物和促销活动期间网络流量会增加。扩展服务器容量以平衡其负载的选项可能是新客户或保留客户的销售收益与不满意的消费者造成的重大损失之间的区别。, 减少停机时间的冗余,当访问网站的流量突然且无法预料地增加时,运行该网站的服务器崩溃并不罕见。但是,如果您可以在许多 Web 服务器上维护网站,您将能够减少单个服务器不可用可能造成的危害。通过负载平衡可以添加有助于实现工作负载现代化的自动化层,它允许您在其中一台服务器发生故障时自动将网络负载转移到正常运行的服务器上。您可以将一台服务器保持在活动状态以接受流量,而第二台服务器保持被动模式并准备在活动服务器发生故障时上线。这种安排让公司高枕无忧,因为他们的其中一台服务器将始终处于运行状态,, 维护的灵活性,通过暂时将流量重定向到未主动处理请求的服务器的能力,开发人员可以自由地对有问题的服务器进行维护工作。您可以将所有流量定向到单个服务器,同时将负载平衡器置于活动模式。之后,您的 IT 支持人员可能会为被动服务器提供软件更新和补丁,测试生产环境中的更改,并在一切正常时将服务器从被动状态切换为主动状态。, 主动故障检测,企业可以识别服务器中断并通过负载平衡来解决它们,负载平衡将资源分配给未受影响的服务器。这使您能够有效地管理服务器,尤其是当这些服务器分散在多个数据中心和云提供商时。对于软件负载平衡器尤其如此,它可以利用预测分析来识别可能的流量瓶颈,甚至在它们发生之前。,, DDoS 攻击缓解,在对抗分布式拒绝服务 (DDoS) 攻击时,负载均衡器将流量分散到多个服务器的能力被证明是无价的。如果 DDoS 攻击使单个服务器过载,负载平衡器会很有用,因为它们会将流量重新路由到其他服务器,从而最大限度地减少攻击面。通过以这种方式消除所有网络的潜在弱点,负载平衡使您的系统更能抵抗此类攻击。,多年来,负载平衡技术取得了显着进步,并且仍然是组织保证持续用户体验的重要手段。负载平衡为组织提供了扩展资源、满足客户期望和创造资金的新机会。这是对 IT 团队负载平衡的额外好处,包括更少的停机时间和高可用性。, ,用户通常需要了解通过 Internet 传送内容所涉及的庞大基础设施。在您和您正在浏览的服务器之间,互联网占据了数英里的距离。使这种情况更糟的是,达到前所未有的受欢迎程度的网站面临着管理持续上升的每月流量水平的挑战,使所有相关人员的体验更加困难。有些网站在一个月内的访问量比其他网站多;类似的网站在一年内收到更多。接收大量流量的网站可能会不知不觉地被迫进行频繁的服务器升级。,您的互联网协议 (IP) 流量负载以及许多其他客户的流量负载在公共云中广泛分散的计算机网络上得到平衡。负载平衡在公共云中可能是最简单的,主要的云提供商提供大部分服务器资源。这是因为公共云几乎拥有无限的服务器资源。自然地,必须调查任何潜在的云服务提供商以前的工作,以确定该公司的客户是否真正享受按需无缝扩展。随着您的网站越来越受欢迎,您将需要升级当前的硬件或完全投资购买全新的计算机。,
负载平衡是网络或应用程序流量分布在服务器场或服务器池中的多个服务器上的过程。负载均衡器背后的基本思想是通过将客户端请求或流量路由到其他可能空闲的节点来避免计算节点过载。放置在客户端设备和后端服务器之间的网络设备或称为负载平衡器的软件。这些负责接收传入流量并将其路由到可以满足请求的服务器。,,负载平衡已成为企业跟上不断增长的需求并确保其应用程序为用户启动并运行的有效方式。今天的企业每分钟都会收到成百上千的客户对其网站和应用程序的请求。在旺季或几个小时内,这种流量可能会飙升得更多。服务器面临着跟上和响应高质量媒体的压力,包括照片、视频和其他应用程序数据。这些应用程序中的任何中断或停机都可能导致体验低于标准并拒绝用户,从而导致利润损失。,负载均衡器是网络中分析传入请求并将其转移到相关服务器的设备或进程。负载均衡器可以是网络中的物理设备、运行在专用硬件(虚拟负载均衡器)上的虚拟化实例,甚至是软件进程。它还可以集成到应用交付控制器 (ADC) 中——旨在提高一般应用性能和安全性的网络设备。,为了确保用户获得一致的体验,负载均衡器遵循开放系统互连 (OSI) 模型。OSI 是一套不依赖于底层内部结构或技术的系统通信功能标准。根据这个模型,负载平衡应该发生在两层,以获得最佳和一致的用户体验。,这些负载平衡器根据它们使用的 TCP 或 UDP 端口以及它们的源和目标的 IP 地址来决定如何路由流量数据包。L4 负载平衡器不检查数据包的实际内容,而是在称为网络地址转换的过程中将 IP 地址映射到正确的服务器。,,L7 负载均衡器作用于应用层,能够检查 HTTP 标头、SSL 会话 ID 和其他数据,以决定将传入请求路由到哪些服务器以及如何路由。由于它们需要额外的上下文来理解和处理客户端对服务器的请求,因此 L7 负载均衡器在计算上比 L4 负载均衡器更占用 CPU,但因此效率更高。,还有另一种类型的负载平衡称为全局服务器负载平衡。这将 L4 和 L7 负载均衡器的功能扩展到多个数据中心,以便在不对最终用户的服务产生负面影响的情况下分配大量流量。这些对于处理来自分布在不同地区的云数据中心的应用程序请求也特别有用。,负载平衡在 1990 年代作为硬件设备在网络上分配流量而受到重视。随着互联网技术和连接性的迅速提高,Web 应用程序变得更加复杂,它们的需求超出了单个服务器的能力。需要找到更好的方法来处理对类似资源的多个请求,并在服务器之间有效地分配它们。这就是负载均衡器的起源。,由于负载平衡允许 Web 应用程序避免依赖单个服务器,因此它还有助于轻松扩展这些应用程序,使其超出单个服务器所能支持的范围。很快,其他功能也得到了发展,包括提供持续健康检查的能力、基于应用程序内容的智能分发和其他专业功能。,,2000 年代初期 ADC 的兴起是应用程序负载平衡历史上的一个重要里程碑。ADC 是为提高应用程序性能而开发的网络设备,应用程序负载平衡成为实现这一目标的方法之一。但它们很快就会发展到涵盖更多应用服务,包括压缩、缓存、身份验证、Web 应用防火墙和其他安全服务。,随着云计算慢慢开始主导应用程序交付,ADC 也随之发展。从硬件设备开始,ADC 也采取了虚拟机的形式,其软件从传统硬件甚至纯软件负载平衡器中提取。软件 ADC 执行与其硬件对应物类似的任务,但也提供更多功能和灵活性。它们允许组织在云环境中快速扩展应用程序服务以满足需求高峰,同时保持安全性。,负载均衡器可以采用网络中的硬件设备的形式,也可以是纯软件定义的进程。无论它们以哪种形式出现,它们都通过根据各种条件将网络流量分配到不同的 Web 服务器来工作,以防止任何一台服务器过载。,想想负载平衡器,比如交通警察,将繁忙的交通重定向到不那么拥挤的车道以避免拥堵。负载平衡器有效地管理应用服务器和端点设备(如 PC、笔记本电脑或平板电脑)之间的无缝信息流。有问题的服务器可以在本地、数据中心或云中。如果没有负载平衡器,单个服务器可能会不堪重负,应用程序可能会变得无响应,从而导致响应延迟、使用体验不佳和收入损失。,,负载均衡器工作的确切机制取决于它们是硬件设备还是软件。,基于硬件的负载平衡器通过使用本地硬件和物理设备来分配网络负载。它们能够处理大量网络流量和高性能应用程序。硬件负载均衡器还可能包含内置虚拟化,将许多实例整合到同一设备中。,由于它们使用专门的处理器来运行软件,因此它们提供了快速的吞吐量,同时对网络或应用程序服务器的物理访问的需求提高了安全性。不利的一面是,硬件负载平衡器的成本可能很高,因为它需要购买物理机器和付费顾问来配置、编程和维护硬件。,另一方面,基于软件的负载均衡器可以提供与硬件负载均衡器相同的好处,同时替换昂贵的硬件。它们可以在任何标准设备上运行,从而节省空间和硬件成本。软件负载均衡器提供了更大的灵活性,可以根据不断变化的需求进行调整,并且可以通过添加更多软件实例来帮助您扩展容量。它们还可以轻松地在托管的异地解决方案或具有内部托管的混合模型中用于云上的负载平衡。,DNS 负载平衡是一种软件定义的负载平衡方法。在这里,客户端对域名系统 (DNS) 中的域的请求分布在各种服务器上。每次 DNS 系统响应新的客户端请求时,它都会发送不同版本的 IP 地址列表。这确保了 DNS 请求被平均分配到不同的服务器以处理整体负载。通过自动删除无响应的服务器,DNS 负载平衡允许自动故障转移或备份到工作服务器。,,网络负载平衡器使用多种方法或技术来管理和分配负载。它们在确定哪个应用程序服务器应该接收每个客户端请求时使用的算法不同。五种最常见的负载平衡方法是:, 循环赛,在这种方法中,传入的请求会周期性地转发到每个服务器。当它到达最后一个服务器时,从第一个服务器开始重复循环。它是最简单的实现方法之一,但可能不是最有效的,因为它假设所有服务器都具有相似的容量。该方法还有两个其他变体——加权循环和动态循环——可以针对这个假设进行调整。, IP 哈希,这是一种相对简单的负载平衡方法,其中客户端的 IP 地址确定哪个服务器接收其请求。它使用一种算法来生成唯一的散列密钥,或源和目标 IP 地址的加密版本。然后使用此密钥将客户端的请求分配给特定的服务器。, 最少的连接,在最少连接方法中,流量被转移到具有最少活动连接的服务器。此方法非常适合流量大的情况,有助于在所有可用服务器之间平均分配流量。, 最短响应时间,在最短响应时间方法中,流量被定向到满足两个条件的服务器——它应该具有最少的活动连接数量和最低的平均响应时间。,, 最小带宽,在这种方法中,负载均衡器查看服务器在过去 14 秒内的带宽消耗(以 Mbps 为单位)。选择消耗最少带宽的那个来发送客户端请求。,归根结底,负载均衡是为了帮助企业有效地管理网络流量和应用程序负载,以便为最终用户提供可靠、一致的体验。在这样做时,负载平衡器提供了以下好处。, 满足流量高峰的可扩展性,负载平衡可帮助企业掌握流量波动或峰值,并增加或减少服务器以满足不断变化的需求。这有助于企业利用客户需求的突然增加来增加收入。例如,电子商务网站可能会在假期和促销期间出现网络流量高峰。扩展服务器容量以平衡其负载的能力可能是新客户或保留客户的销售增长与不满意客户造成的重大流失之间的区别。, 冗余以最大程度地减少停机时间,网站服务器在出现前所未有的流量高峰时发生故障的情况并不少见。但是,如果您可以在多个 Web 服务器上维护网站,则可以限制任何单个服务器上的停机时间可能造成的损害。负载平衡可帮助您在某个服务器发生故障时自动将网络负载转移到工作服务器,从而增加一层自动化以使您的工作负载现代化。您可以将一台服务器保持在主动模式以接收流量,而另一台则保持在被动模式,准备好在主动模式失败时上线。这种安排为企业提供了保证,即一台服务器将始终处于活动状态以处理硬件故障实例。,, 执行维护的灵活性,暂时将流量转移到被动服务器的能力还允许开发人员灵活地对故障服务器执行维护工作。您可以将所有流量指向一台服务器并将负载均衡器设置为活动模式。然后,您的 IT 支持团队可以在无源服务器上执行软件更新和补丁程序,在生产环境中进行测试,并在一切正常后将服务器切换到活动状态。, 主动故障检测,负载平衡可帮助企业检测服务器中断并通过将资源分配给未受影响的服务器来绕过它们。这使您可以有效地管理服务器,尤其是当它们分布在多个数据中心和云提供商之间时。在软件负载均衡器的情况下尤其如此,它可以利用预测分析在潜在的流量瓶颈发生之前发现它们。, DDoS 攻击缓解,负载均衡器在服务器之间分配流量的能力也有助于防御分布式拒绝服务 (DDoS) 攻击。当单个服务器因DDoS 攻击而过载时,负载均衡器通过将流量重新路由到其他服务器并减少攻击面来提供帮助。通过这种方式,负载平衡消除了单点故障,并使您的网络能够抵御此类攻击。,负载平衡作为一项技术随着时间的推移而发展,并且仍然是企业提供不间断用户体验的重要方式。除了 IT 团队减少停机时间和高可用性的好处之外,负载平衡还为企业提供了扩展资源、满足客户需求和创造收入的新机会。, ,负载平衡是网络或应用程序流量分布在服务器场或服务器池中的多个服务器上的过程。负载均衡器背后的基本思想是通过将客户端请求或流量路由到其他可能空闲的节点来避免计算节点过载。放置在客户端设备和后端服务器之间的网络设备或称为负载平衡器的软件。这些负责接收传入流量并将其路由到可以满足请求的服务器。,这些负载平衡器根据它们使用的 TCP 或 UDP 端口以及它们的源和目标的 IP 地址来决定如何路由流量数据包。L4 负载平衡器不检查数据包的实际内容,而是在称为网络地址转换的过程中将 IP 地址映射到正确的服务器。,
CDN 的重要特征之一是它能够在面对常见的网络问题(包括硬件故障和网络拥塞)时保持网站内容在线。通过负载平衡 Internet 流量、使用智能故障转移以及跨多个数据中心维护服务器,CDN 旨在规避网络拥塞并抵御服务中断。,, 什么是负载均衡?CDN如何负载均衡流量?,负载均衡器的目的是在多个服务器之间平均分配网络流量。负载平衡可以基于硬件或软件。CDN 使用数据中心中的负载平衡在可用服务器池中分配传入请求,以确保以最有效的方式处理流量峰值。通过有效利用可用资源,负载平衡能够提高处理速度并有效利用服务器容量。对传入流量进行适当的负载平衡是缓解非典型 Internet 活动期间(例如,当网站遇到异常大量的访问者或在分布式拒绝服务攻击期间)发生的流量峰值的关键组成部分。,当服务器资源的可用性上下波动时,CDN 还使用负载平衡来快速有效地进行更改。如果服务器发生故障并发生故障转移,负载平衡器将重定向为故障服务器分配的流量,并按比例将其分配给其余服务器。这通过增加硬件故障不会中断流量的可能性来提供弹性和可靠性。当数据中心有新服务器上线时,负载均衡器会按比例分担其他服务器的负载,提高新硬件的利用率。基于软件的负载平衡服务允许 CDN 快速扩展负载平衡容量,而不会出现使用物理负载平衡硬件时出现的瓶颈。,什么是故障转移?服务器之间如何进行 CDN 故障转移?,在需要高度可靠性和接近连续可用性的计算机系统中,故障转移用于防止在服务器不可用时丢失流量。当服务器出现故障时,需要将流量重新路由到仍在运行的服务器。通过自动将任务卸载到备用系统或具有可用容量的另一台机器,智能故障转移可以防止对用户的服务中断。,, CDN 如何通过 Internet 可靠地提供内容?,CDN 就像一个 GPS 系统加上快速收费公路;CDN 将能够找到到达远方位置的最佳路径,并且能够使用自己的网络尽快找到到达那里的最佳路径。,当用户从诸如网页或 Web 应用程序之类的 Internet 属性加载内容时,会进行一系列连接以到达提供内容的位置。网络流量可以比喻为道路和高速公路系统;较小的地面街道将本地交通转移到同一地区,州际高速公路将交通转移到不同的州。当出现问题时,例如油罐车将主要路径上的州际高速公路的所有车道阻塞到不同的状态,交通必须找到另一条路径。就像穿越不同州的高速公路一样,交通通常必须跨越不同的网络才能到达最终目的地。如果特定网络中存在阻塞,则必须将流量重定向到不同的路径。此过程可能既耗时又低效。,假设旧金山的用户正在加载洛杉矶的网站。连接有很多步骤,但在此示例中,最重要的步骤之一是网络信号在前往最终目的地的途中通过位于圣何塞的电信提供商。当网络工程师不小心将咖啡倒在圣何塞的路由设备上时,提供商会离线,断开连接(发生了奇怪的事情)。当这种情况发生时,除非网络流量被重新路由以适应新的网络环境,否则用户将无法再加载他们的 Internet 内容。如果用户想要到达洛杉矶,现在需要通过不同的电信提供商提出请求。,现在流量不再能够通过预期的网络,它必须转而进入由不同组织维护的完全不同的网络。这种重新协商和切换网络的过程可能会在一个网络请求中发生多次,这样的实例可能会增加延迟,并可能将流量推到拥塞的路径上,从而导致延迟。一个足够大的 CDN 通常会通过将服务器放置在Internet 交换点 (IXP)和其他战略位置来控制自己的网络连接。这些优化的网络架构允许 CDN 提供商优化路由并减少延迟。,, CDN 如何使用 Anycast 网络来提高可靠性?,一些 CDN 将使用Anycast路由方法将 Internet 流量传输到特定的可用数据中心。这样做是为了确保改进响应时间,并防止任何一个数据中心在出现异常需求(例如在 DDoS 攻击期间)时被流量淹没。,使用 Anycast,多台机器可以共享同一个IP 地址。当请求发送到 Anycast IP 地址时,路由器会将其定向到网络上最近的机器。如果整个数据中心出现故障或因流量过大而无法运行,Anycast 网络可以响应中断,类似于负载均衡器在数据中心内的多台服务器之间传输流量的方式;数据从故障位置路由出去,而是路由到另一个仍然在线且正常运行的数据中心。,DDoS 攻击是目前对 Internet 资产可靠性的最大威胁之一。使用 Anycast 的 CDN 在缓解 DDoS 攻击方面具有额外的灵活性。在大多数现代 DDoS 攻击中,许多入侵计算机或“机器人”被用来形成所谓的僵尸网络。这些受感染的机器可以产生如此多的互联网流量,以至于它们可以压倒典型的单播连接机器。借助 Anycast 网络,部分僵尸网络攻击流量可以分布在多个数据中心,从而减少攻击的影响。, ,CDN 的重要特征之一是它能够在面对常见的网络问题(包括硬件故障和网络拥塞)时保持网站内容在线。通过负载平衡 Internet 流量、使用智能故障转移以及跨多个数据中心维护服务器,CDN 旨在规避网络拥塞并抵御服务中断。,什么是故障转移?服务器之间如何进行 CDN 故障转移?,