首页 星云 工具 资源 星选 资讯 热门工具
:

PDF转图片 完全免费 小红书视频下载 无水印 抖音视频下载 无水印 数字星空

locust多进程实现分布式压测遇到的问题

编程知识
2024年07月24日 21:04

多进程分布式的实现:

locust分布式时,需借助命令locust 一个一个启动worker,在使用中有点繁琐,
下面借助于多进程,按既定worker数量,一键启动;


from locust import FastHttpUser, task, User, events, HttpUser



#class WebsiteUser(FastHttpUser): 错误的使用!!!
class WebsiteUser(HttpUser):  #正确的使用
    tasks = [TaskSet]
    host = "https://www.baidu.com"
    wait_time = between(0, 0)

def processFun(cmd):
    os.system(cmd)


def start_by_process(tst_locust_file, slave_num, master_host='127.0.0.1', locust_web_port=8090, no_web=False,
                     user_num=10, user_rate=1, result_log='result.log', run_log='run.log'):
    p_lst = []
    if no_web:
        slave_cmd = f"locust -f {tst_locust_file}  --worker --master-host={master_host}"
        master_cmd = f"locust -f {tst_locust_file} --headless -u {user_num} -r {user_rate} --master"
    else:
        slave_cmd = f"locust -f {tst_locust_file}  --worker --master-host={master_host}"
        master_cmd = f"locust -f {tst_locust_file} --web-host {master_host} --web-port {locust_web_port} --master"
    master_cmd += f' --logfile {result_log} --loglevel INFO 1>{run_log} 2>&1'
    # 启动master
    process_master = multiprocessing.Process(target=processFun, args=(master_cmd,))
    process_master.start()
    p_lst.append(process_master)
    # 启动 worker
    for index_num in range(slave_num):
        process = multiprocessing.Process(target=processFun, args=(slave_cmd,))
        process.start()
        p_lst.append(process)

    # 阻塞等待
    for process in p_lst:
        process.join()
        
        
if __name__ == "__main__":
    tst_locust_path = 'wms/wms_test'
    slave_num = 3  # 计划所启动worker数量, 不可超过运行机的CPU数量
    master_host = '127.0.0.1'
    master_host = '192.168.1.102'
    locust_web_port = 8099  # locust web页面挂载端口
    no_web = False
    tst_locust_file = os.path.basename(__file__)  # 本脚本名
    os.chdir(os.getcwd().replace(tst_locust_path.replace('/', os.sep), ''))
    tst_locust_file = f'{tst_locust_path}/{tst_locust_file}'
    start_by_process(tst_locust_file, slave_num, master_host, locust_web_port, no_web=no_web)

问题:

在上述代码中,我使用了class WebsiteUser(FastHttpUser): 错误的使用!!!这个方式,来使用locust的User类,当执行压测时,work会因CPU过高而miss掉,导致压测终止.当切换成class WebsiteUser(HttpUser): #正确的使用时,可以正常执行locust的压测.

HttpUser和FastHttpUser介绍:

在Locust中,HttpUserFastHttpUser 是两种不同的用户行为模拟类,它们分别用于模拟不同的HTTP客户端行为。以下是这两种类的主要区别:

HttpUser

  • HttpUser 是Locust的基本HTTP用户模拟类,它使用requests库来发送HTTP请求。
  • HttpUser 支持多线程或多进程模式,具体取决于你的配置。
  • 它提供了丰富的功能和灵活性,包括支持重试、会话管理、以及使用requests库的所有特性。
  • 由于requests库本身是同步的,因此在高并发场景下,HttpUser可能会导致较高的CPU使用率,尤其是当请求之间没有足够的等待时间时。
  • HttpUser适用于大多数HTTP负载测试场景,特别是那些对复杂性和灵活性有较高要求的测试。

FastHttpUser

  • FastHttpUser 是一个较新的类,它使用httpx库来发送HTTP请求,这是一个异步的HTTP客户端库。
  • FastHttpUser 提供了更高的性能和更低的CPU使用率,因为它使用了异步I/O,可以在等待网络响应时执行其他任务。
  • 它特别适合于高并发的场景,可以显著减少CPU使用率,尤其是在大量并发用户的情况下。
  • FastHttpUser 相对于HttpUser来说,可能不支持requests库的所有高级特性,但在大多数情况下,基本的功能如GET、POST请求等都是支持的。
  • 如果你的目标是进行大规模并发测试,同时保持较低的CPU使用率,FastHttpUser是一个很好的选择。

总结

  • 如果你的测试场景需要高度定制化的请求设置或者你已经在使用requests库的高级功能,那么HttpUser可能更适合你。
  • 如果你希望在高并发场景下减少CPU使用率,并且能够接受一定的功能限制,那么FastHttpUser是一个更好的选择。

示例

以下是使用HttpUserFastHttpUser的简单示例:

HttpUser 示例

from locust import HttpUser, task, between

class MyHttpUser(HttpUser):
    wait_time = between(1, 5)

    @task
    def my_task(self):
        self.client.get("/some_endpoint")

FastHttpUser 示例

from locust import FastHttpUser, task, between

class MyFastHttpUser(FastHttpUser):
    wait_time = between(1, 5)

    @task
    def my_task(self):
        self.client.get("/some_endpoint")

请注意,在使用FastHttpUser时,你需要确保你的Locust版本支持该类。如果不确定,可以检查你的Locust版本或者查阅官方文档。

原因分析:

  1. 异步I/O与多进程的交互:
  • FastHttpUser使用httpx库来进行异步HTTP请求,而httpx是基于trio或anyio的异步I/O库。
  • 在多进程环境下,每个进程都有自己的事件循环,这可能导致每个进程中的异步I/O操作无法有效地与其他进程协调,从而增加了CPU的负担。
  1. 多进程与异步I/O的兼容性:
  • 多进程模式下,每个进程都有独立的内存空间和事件循环,这可能意味着每个进程都在单独运行其事件循环,而不是共享一个全局的事件循环。这种情况下,每个进程都在尝试同时执行大量的异步任务,可能会导致CPU使用率上升。
  1. 事件循环的调度:
  • 在FastHttpUser中,每个进程可能有自己的事件循环,而在多进程模式下,这些事件循环可能没有被有效地调度,导致CPU使用率增加。
  • httpx的异步特性通常在单进程中表现更好,因为它可以充分利用事件驱动模型的优势,但在多进程环境下,每个进程都需要维护自己的事件循环,这可能会导致额外的开销。
  1. 并发模型的不匹配:
  • FastHttpUser的设计初衷是为了利用异步I/O的优势来提高性能,特别是在高并发场景下。然而,在多进程模式下,这种优势可能会因为进程间的隔离和通信开销而被抵消。

总结: FastHttpUser更适合单进程下使用,HttpUser更适合多进程情况

From:https://www.cnblogs.com/liuyanhang/p/18321868
本文地址: http://shuzixingkong.net/article/391
0评论
提交 加载更多评论
其他文章 POJ3278 Catch That Cow
Catch That Cow Time Limit: 2000MS Memory Limit: 65536K Total Submissions: 222142 Accepted: 67092 Description Farmer John has been
POJ3278 Catch That Cow POJ3278 Catch That Cow POJ3278 Catch That Cow
第十二节 JMeter基础-中级地址信息【IF控制器】
文章介绍了在JMeter中核对收货地址信息的操作流程,并深入探讨了JMeter中的IF控制器、日志等组件的使用。特别强调了Groovy和Jexl3在表达式语言上的区别,以及它们在Java平台上的应用场景和语法特性。
第十二节 JMeter基础-中级地址信息【IF控制器】 第十二节 JMeter基础-中级地址信息【IF控制器】 第十二节 JMeter基础-中级地址信息【IF控制器】
记录荒废了三年的四年.net开发的第二次面试(进复试了)
这次面试的是小公司,深圳计通智能,面试分为初试和复试。使用腾讯视频会议完成。相比与上次面试,这次有所进步,进复试了。当然,这可能也与面试风格有关。这次面试着重与项目经历和技术,因此回答比较顺畅。 这一周干了什么 我先是研究了上次面试没回答出来,或者回答得不好的技术问题。然后顺着简历上的技术,又复习了
[WPF] 脱机环境实现支持拼音模糊搜索的AutoCompleteBox
AutoCompleteBox是一个常见的提高输入效率的组件,很多WPF的第三方控件库都提供了这个组件,但基本都是字符串的子串匹配,不支持拼音模糊匹配,例如无法通过输入ldh或liudehua匹配到刘德华。要实现拼音模糊搜索功能,通常会采用分词、数据库等技术对待匹配数据集进行预处理。某些场景受制于条
[WPF] 脱机环境实现支持拼音模糊搜索的AutoCompleteBox
C# 12 新增功能实操!
前言 今天咱们一起来探索并实践 C# 12 引入的全新功能! C#/.NET该如何自学入门? 注意:使用这些功能需要使用最新的 Visual Studio 2022 版本或安装 .NET 8 SDK 。 主构造函数 主构造函数允许你直接在类定义中声明构造函数参数,并自动生成相应的属性。 主构造函数参
C# 12 新增功能实操! C# 12 新增功能实操!
nginx的一些功能
一、四层(tcp/udp)代理 由于nginx默认是不支持四层代理的因此在安装的时候需要加上对应的模块with-stream ./configure --with-stream # 查看当前nginx安装了什么模块 root@proxy[05:52:09]:/usr/local/nginx $ sb
nginx的一些功能
全网最适合入门的面向对象编程教程:24 类和对象的 Python 实现-异常的捕获与处理:try/except 语句、文件读写示例、Exception 引用
本文主要介绍了在使用Python面向对象编程时,如何使用try/except语句捕获并处理异常,并辅以CSV文件读写为例进行讲解,同时说明了如何对Exception对象进行引用。
全网最适合入门的面向对象编程教程:24 类和对象的 Python 实现-异常的捕获与处理:try/except 语句、文件读写示例、Exception 引用 全网最适合入门的面向对象编程教程:24 类和对象的 Python 实现-异常的捕获与处理:try/except 语句、文件读写示例、Exception 引用 全网最适合入门的面向对象编程教程:24 类和对象的 Python 实现-异常的捕获与处理:try/except 语句、文件读写示例、Exception 引用
在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST
引言 蛋白质语言模型 (Protein Language Models, PLM) 已成为蛋白质结构与功能预测及设计的有力工具。在 2023 年国际机器学习会议 (ICML) 上,MILA 和英特尔实验室联合发布了 ProtST 模型,该模型是个可基于文本提示设计蛋白质的多模态模型。此后,ProtS
在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST 在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST 在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST