百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

使用过 Redis 做异步队列么,你是怎么用的?

mhr18 2025-03-28 18:31 22 浏览 0 评论

我使用过 Redis 做异步队列,并且在不同的场景下采用过不同的方式。Redis 因其高性能、易用性和丰富的数据结构,非常适合作为异步队列的解决方案。 以下是我使用 Redis 做异步队列的一些常见方式和经验:

1. 基于 List 数据结构的简单队列 (最常用)

这是最简单也是最常用的方式,利用 Redis 的 List 数据结构的 LPUSH/RPUSH (入队) 和 RPOP/LPOP (出队) 命令来实现 FIFO (先进先出) 或 LIFO (后进先出) 队列。

  • 原理:
    • 生产者 (Producer): 将任务数据序列化 (例如 JSON) 后,使用 LPUSH 或 RPUSH 命令将任务推入 Redis List 的队尾或队首。
    • 消费者 (Consumer): 使用 RPOP 或 LPOP 命令从 Redis List 的队尾或队首阻塞式地拉取任务。当 List 为空时,RPOP 或 LPOP 会阻塞连接,直到有新任务加入。
    • 队列: Redis 的 List 就是队列本身。
  • 代码示例 (Python 伪代码,使用 redis-py 库):
  • 生产者:
  • python复制代码
  • import redis import json redis_client = redis.Redis(host='localhost', port=6379, db=0) queue_name = 'my_task_queue' def enqueue_task(task_data): task_json = json.dumps(task_data) redis_client.lpush(queue_name, task_json) print(f"任务已入队: {task_data}") # 示例入队 enqueue_task({"task_type": "send_email", "email": "user@example.com", "content": "Hello!"}) enqueue_task({"task_type": "process_image", "image_path": "/path/to/image.jpg"})
  • 消费者:
  • python复制代码
  • import redis import json import time redis_client = redis.Redis(host='localhost', port=6379, db=0) queue_name = 'my_task_queue' def process_task(task_data): print(f"开始处理任务: {task_data}") time.sleep(2) # 模拟任务处理时间 print(f"任务处理完成: {task_data}") while True: task_json = redis_client.brpop(queue_name, timeout=1) # 阻塞式获取任务,超时时间 1 秒 if task_json: queue_name_returned, task_payload = task_json task_data = json.loads(task_payload.decode('utf-8')) process_task(task_data) else: # 超时,队列为空,可以做一些心跳检测或休眠 # print("队列为空,等待任务...") time.sleep(0.1)
  • 优点:
    • 简单易用: 实现非常简单,代码量少。
    • 高性能: Redis List 操作非常快。
    • 可靠性 (基本): Redis 提供了持久化机制 (RDB 或 AOF),可以保证队列数据在 Redis 服务重启后不会丢失 (但需要配置持久化)。
  • 缺点:
    • 可靠性 (进阶): 基本队列模式下,如果消费者在 RPOP 之后、处理任务之前崩溃,任务会丢失 (因为任务已经从队列中移除)。 没有消息确认机制 (ACK)。
    • 功能较简单: 只支持基本的 FIFO/LIFO 队列,不支持优先级、延迟队列等高级特性。
    • 单点故障: 如果 Redis 服务宕机,队列服务也会受到影响。 (可以通过 Redis Sentinel 或 Cluster 提高可用性)

2. 基于 List + 独立确认机制的可靠队列 (解决消息丢失问题)

为了解决基本队列的消息丢失问题,可以引入独立的消息确认机制 (ACK)。 思路是:消费者从队列中取出任务后,并不立即删除,而是将其移动到一个 “正在处理” 的 List 中。 任务处理成功后,消费者再从 “正在处理” List 中删除任务。 如果消费者崩溃或处理超时,任务会仍然留在 “正在处理” List 中,可以被其他消费者重新处理。

  • 原理:
    • 生产者: 与基本队列相同,将任务推入主队列 (例如 task_queue)。
    • 消费者:使用 RPOP 从主队列 task_queue 中取出任务。将取出的任务 原子性地 使用 LPUSH 推入一个 “正在处理队列” (例如 task_queue_processing)。 可以使用 Redis 的 MULTI/EXEC 事务或者 Lua 脚本保证原子性。处理任务。任务处理成功后,从 “正在处理队列” task_queue_processing 中删除该任务 (可以使用 LREM 命令,但需要注意任务内容重复的情况,更可靠的方式是在入队时生成唯一 ID,并使用 Sorted Set 存储正在处理的任务 ID,处理完成后根据 ID 删除)。如果任务处理失败或超时,可以将其重新放回主队列 task_queue 或放入一个 “死信队列” (Dead Letter Queue, DLQ) 进行后续处理或分析。
  • 代码示例 (Python 伪代码,简化版,没有完整错误处理和重试机制):
  • 消费者 (关键部分 - 确认机制):
  • python复制代码
  • import redis import json import time import uuid redis_client = redis.Redis(host='localhost', port=6379, db=0) queue_name = 'my_task_queue' processing_queue_name = 'my_task_queue_processing' def process_task(task_data): print(f"开始处理任务: {task_data}") time.sleep(2) # 模拟任务处理时间 print(f"任务处理完成: {task_data}") return True # 假设处理成功 while True: task_json = redis_client.brpop(queue_name, timeout=1) if task_json: queue_name_returned, task_payload = task_json task_data = json.loads(task_payload.decode('utf-8')) task_id = str(uuid.uuid4()) # 生成唯一任务 ID task_with_id = {"id": task_id, "data": task_data} task_json_with_id = json.dumps(task_with_id) # 原子性地将任务移动到 processing 队列 with redis_client.pipeline() as pipe: pipe.lpush(processing_queue_name, task_json_with_id) pipe.lpop(queue_name) # 实际上 brpop 已经 pop 了,这里可以省略,或者用 watch 机制更严谨 pipe.execute() try: success = process_task(task_data) if success: # 任务处理成功,从 processing 队列中移除 redis_client.lrem(processing_queue_name, 1, task_json_with_id) # 注意 lrem 的使用,更严谨的方式是用 Sorted Set + ID except Exception as e: print(f"任务处理失败: {e}") # 任务处理失败,可以考虑重试或放入 DLQ # ... (重试逻辑或 DLQ 处理) # 为了简单起见,这里先不处理失败情况,任务会留在 processing 队列中 else: time.sleep(0.1)
  • 优点:
    • 更高的可靠性: 通过确认机制,可以避免任务丢失,即使消费者崩溃,任务也能被重新处理。
    • 仍然高性能: Redis List 操作依然很快。
  • 缺点:
    • 实现更复杂: 需要手动实现确认机制,代码复杂度增加。
    • 需要处理失败和重试: 需要考虑任务处理失败的情况,并实现重试或死信队列机制。
    • “正在处理队列” 的管理: 需要定期检查 “正在处理队列”,处理超时未确认的任务 (例如,消费者崩溃后长时间未确认的任务)。

3. 基于 Sorted Set 的延迟队列/优先级队列

Redis 的 Sorted Set 数据结构可以用来实现延迟队列和优先级队列。

  • 延迟队列: 任务入队时,设置一个执行时间戳 (timestamp),使用时间戳作为 Sorted Set 的 score。 消费者轮询 Sorted Set,取出 score 小于等于当前时间戳的任务进行处理。
  • 优先级队列: 任务入队时,设置一个优先级,使用优先级作为 Sorted Set 的 score。 消费者从 Sorted Set 中按 score 升序 (或降序) 取出任务进行处理。
  • 延迟队列示例 (Python 伪代码):
  • 生产者:
  • python复制代码
  • import redis import json import time redis_client = redis.Redis(host='localhost', port=6379, db=0) queue_name = 'delayed_task_queue' def enqueue_delayed_task(task_data, delay_seconds): execute_time = time.time() + delay_seconds task_json = json.dumps(task_data) redis_client.zadd(queue_name, {task_json: execute_time}) print(f"延迟任务已入队,延迟 {delay_seconds} 秒: {task_data}") # 示例入队,延迟 10 秒执行 enqueue_delayed_task({"task_type": "send_reminder", "user_id": 123}, 10)
  • 消费者:
  • python复制代码
  • import redis import json import time redis_client = redis.Redis(host='localhost', port=6379, db=0) queue_name = 'delayed_task_queue' def process_task(task_data): print(f"开始处理延迟任务: {task_data}") time.sleep(2) # 模拟任务处理时间 print(f"延迟任务处理完成: {task_data}") while True: current_time = time.time() tasks = redis_client.zrangebyscore(queue_name, min=0, max=current_time, start=0, num=1, withscores=True) # 获取 score 小于等于当前时间的第一个任务 if tasks: task_json, execute_time = tasks[0] task_data = json.loads(task_json.decode('utf-8')) process_task(task_data) redis_client.zrem(queue_name, task_json) # 从 Sorted Set 中移除已处理的任务 else: # 没有到期任务,等待一段时间 time.sleep(1)
  • 优点:
    • 支持延迟队列和优先级队列: Sorted Set 的特性使其非常适合实现这些高级队列功能。
    • 高效的排序和查找: Sorted Set 的操作性能很高。
  • 缺点:
    • 实现相对复杂: 比基本 List 队列实现更复杂。
    • 轮询效率: 消费者需要轮询 Sorted Set,如果队列中任务不多,可能会有一定程度的资源浪费。 (可以结合 SLEEP 命令减少轮询频率)
    • 可靠性: 与基本 List 队列类似,需要考虑消息确认机制来提高可靠性。

4. 基于 Redis Streams 的更高级队列 (更强大的功能)

Redis 5.0 引入了 Streams 数据结构,它提供了更强大的消息队列功能,例如:

  • 持久化消息: 消息默认持久化存储。
  • 消息分组和消费者组: 支持消费者组,允许多个消费者共同消费同一个 Stream 的消息,提高并发处理能力。
  • 消息确认和重试: 内置了消息确认机制和重试机制。
  • 消息 ID 和游标: 可以根据消息 ID 或游标进行消息消费。

Redis Streams 更像是一个专业的、功能更完善的消息队列系统,比基于 List 或 Sorted Set 实现的队列更强大和可靠。 但相对来说,也更复杂一些。

总结和选择建议:

  • 简单任务、对可靠性要求不高: 基于 List 的简单队列 是最快速和简单的选择。
  • 需要基本可靠性、避免消息丢失: 基于 List + 独立确认机制的可靠队列 是一个不错的选择,需要手动实现确认逻辑。
  • 需要延迟队列或优先级队列: 基于 Sorted Set 的队列 是合适的选择。
  • 需要更强大、更可靠、功能更完善的消息队列: Redis Streams 是更专业的选择,但学习和使用成本也相对较高。

在实际使用中,我会根据以下因素选择合适的 Redis 队列方案:

  • 业务场景: 任务的类型、处理时间、对可靠性的要求、是否需要延迟或优先级等。
  • 开发成本: 实现和维护队列的复杂度。
  • 性能需求: 队列的吞吐量和延迟要求。
  • 运维成本: 队列的监控、管理和故障处理。

相关推荐

Redis合集-使用benchmark性能测试

采用开源Redis的redis-benchmark工具进行压测,它是Redis官方的性能测试工具,可以有效地测试Redis服务的性能。本次测试使用Redis官方最新的代码进行编译,详情请参见Redis...

Java简历总被已读不回?面试挂到怀疑人生?这几点你可能真没做好

最近看了几十份简历,发现大部分人不是技术差,而是不会“卖自己”——一、简历死穴:你写的不是经验,是岗位说明书!反面教材:ד使用SpringBoot开发项目”ד负责用户模块功能实现”救命写法:...

redission YYDS(redission官网)

每天分享一个架构知识Redission是一个基于Redis的分布式Java锁框架,它提供了各种锁实现,包括可重入锁、公平锁、读写锁等。使用Redission可以方便地实现分布式锁。red...

从数据库行锁到分布式事务:电商库存防超卖的九重劫难与破局之道

2023年6月18日我们维护的电商平台在零点刚过3秒就遭遇了严重事故。监控大屏显示某爆款手机SKU_IPHONE13_PRO_MAX在库存仅剩500台时,订单系统却产生了1200笔有效订单。事故复盘发...

SpringBoot系列——实战11:接口幂等性的形而上思...

欢迎关注、点赞、收藏。幂等性不仅是一种技术需求,更是数字文明对确定性追求的体现。在充满不确定性的网络世界中,它为我们建立起可依赖的存在秩序,这或许正是技术哲学最深刻的价值所在。幂等性的本质困境在支付系...

如何优化系统架构设计缓解流量压力提升并发性能?Java实战分享

如何优化系统架构设计缓解流量压力提升并发性能?Java实战分享在高流量场景下。首先,我需要回忆一下常见的优化策略,比如负载均衡、缓存、数据库优化、微服务拆分这些。不过,可能还需要考虑用户的具体情况,比...

Java面试题: 项目开发中的有哪些成长?该如何回答

在Java面试中,当被问到“项目中的成长点”时,面试官不仅想了解你的技术能力,更希望看到你的问题解决能力、学习迭代意识以及对项目的深度思考。以下是回答的策略和示例,帮助你清晰、有说服力地展示成长点:一...

互联网大厂后端必看!Spring Boot 如何实现高并发抢券逻辑?

你有没有遇到过这样的情况?在电商大促时,系统上线了抢券活动,结果活动刚一开始,服务器就不堪重负,出现超卖、系统崩溃等问题。又或者用户疯狂点击抢券按钮,最后却被告知无券可抢,体验极差。作为互联网大厂的后...

每日一题 |10W QPS高并发限流方案设计(含真实代码)

面试场景还原面试官:“如果系统要承载10WQPS的高并发流量,你会如何设计限流方案?”你:“(稳住,我要从限流算法到分布式架构全盘分析)…”一、为什么需要限流?核心矛盾:系统资源(CPU/内存/数据...

Java面试题:服务雪崩如何解决?90%人栽了

服务雪崩是指微服务架构中,由于某个服务出现故障,导致故障在服务之间不断传递和扩散,最终造成整个系统崩溃的现象。以下是一些解决服务雪崩问题的常见方法:限流限制请求速率:通过限流算法(如令牌桶算法、漏桶算...

面试题官:高并发经验有吗,并发量多少,如何回复?

一、有实际高并发经验(建议结构)直接量化"在XX项目中,系统日活用户约XX万,核心接口峰值QPS达到XX,TPS处理能力为XX/秒。通过压力测试验证过XX并发线程下的稳定性。"技术方案...

瞬时流量高并发“保命指南”:这样做系统稳如泰山,老板跪求加薪

“系统崩了,用户骂了,年终奖飞了!”——这是多少程序员在瞬时大流量下的真实噩梦?双11秒杀、春运抢票、直播带货……每秒百万请求的冲击,你的代码扛得住吗?2025年了,为什么你的系统一遇高并发就“躺平”...

其实很多Java工程师不是能力不够,是没找到展示自己的正确姿势。

其实很多Java工程师不是能力不够,是没找到展示自己的正确姿势。比如上周有个小伙伴找我,五年经验但简历全是'参与系统设计''优化接口性能'这种空话。我就问他:你做的秒杀...

PHP技能评测(php等级考试)

公司出了一些自我评测的PHP题目,现将题目和答案记录于此,以方便记忆。1.魔术函数有哪些,分别在什么时候调用?__construct(),类的构造函数__destruct(),类的析构函数__cal...

你的简历在HR眼里是青铜还是王者?

你的简历在HR眼里是青铜还是王者?兄弟,简历投了100份没反应?面试总在第三轮被刷?别急着怀疑人生,你可能只是踩了这些"隐形求职雷"。帮3630+程序员改简历+面试指导和处理空窗期时间...

取消回复欢迎 发表评论: