标签 Concurrent 下的文章

Go并行编程的“第一性原理”:Guy Steele 教你如何“不去想”并行

本文永久链接 – https://tonybai.com/2025/06/29/thinking-parallel-programming

大家好,我是Tony Bai。

在多核处理器已成为标配的今天,并行编程能力几乎是每一位后端工程师的必备技能。Go 语言凭借其简洁的 Goroutine 和 Channel 设计,极大地降低了并发编程的门槛,让我们能相对轻松地驾驭并发。但是,写出“能跑”的并发代码,和写出“优雅、高效、可维护”的并行程序之间,往往还隔着一层思维模式的窗户纸。

今天,我想和大家分享一位计算机科学巨匠——Guy L. Steele Jr.——关于并行编程的深刻洞见。在深入探讨之前,有必要简单介绍一下这位大神:他是 Scheme 语言的共同创造者,Common Lisp 标准的核心定义者,Java 语言设计的关键人物,也是 Sun/Oracle 专门为并行计算设计的 Fortress 语言的领导者。他的见解,源于横跨数十年、从学术到工业的深厚语言设计实践。

他早在多年前(其经典 PPT《How to Think about Parallel Programming—Not!》可以追溯到 2009 年甚至更早)就提出了一些颠覆传统认知,但至今依然闪耀着智慧光芒的核心思想。这些思想,对于我们 Gopher 来说,不啻为并行编程的“第一性原理”,能帮助我们从根本上理解如何更好地设计并行系统。

Steele 的核心论点是什么?一言以蔽之:

“编写并行应用程序的最佳方式,就是不必去考虑并行本身。”

这听起来是不是有点反直觉?别急,让我们慢慢拆解 Steele 的智慧。

并行编程的“敌人”:根深蒂固的“累加器思维”

Steele 犀利地指出,我们过去几十年在顺序编程中养成的许多习惯,正在成为并行编程的障碍。其中,“累加器 (Accumulators)”模式首当其冲被他判为“BAD”

什么是累加器模式?简单来说,就是通过一个共享状态(累加器),不断迭代地用新数据去更新这个状态。一个最经典的例子就是顺序求和:

// 典型的顺序累加求和
func sumSequential(nums []int) int64 {
    var total int64 = 0 // 我就是那个“累加器” total
    for _, n := range nums {
        total += int64(n) // 不断更新自己
    }
    return total
}

这段代码再熟悉不过了,对吧?但在 Steele 看来,这种写法是并行编程的“噩梦”。为什么?

  • 强烈的顺序依赖: 每一步的 total 都依赖于上一步的结果。这种串行依赖使得直接将其并行化变得异常困难。如果多个 Goroutine 同时去更新 total,就需要引入锁或其他同步机制,不仅增加了复杂性,还可能因为锁竞争而严重影响性能,甚至违背了并行的初衷。
  • 鼓励可变状态与副作用: 累加器本身就是一个可变状态,操作带有副作用。这在并行环境下是诸多问题的根源。

Steele 甚至略带调侃地说:DO 循环太上世纪五十年代了!… 当你写下 SUM = 0 并开始累加时,你就已经把自己“坑”了。

那么,我们应该如何摆脱这种“累加器思维”的桎梏呢?

Steele的药方:拥抱“分治”与“结合性”

Steele 提倡的核心思想是 “分治 (Divide-and-Conquer)” 和利用操作的 “代数性质 (Algebraic Properties)”,尤其是 “结合性 (Associativity)”

  1. 分治 (Divide-and-Conquer): 将大问题分解成若干个独立的、可以并行处理的子问题。每个子问题独立求解后,再将结果合并。这天然地契合了并行的思想。

  2. 结合性 (Associativity): 如果一个操作 ⊕ 满足结合律,即 (a ⊕ b) ⊕ c = a ⊕ (b ⊕ c),那么在合并子问题的结果时,合并的顺序就不重要了。这给予了并行执行极大的“自由度”。例如,加法 + 和乘法 * 都满足结合律。

让我们用 Go 来实践一下这种思想,改造上面的求和函数。

Go 实践 1:基于 Goroutine 和 Channel 的分块并行求和

我们可以将数组切分成若干块 (chunk),每个 Goroutine 负责计算一块的和,最后将各块的结果汇总。

import (
    "runtime"
    "sync"
)

func sumParallelChunks(nums []int, numChunks int) int64 {
    if len(nums) == 0 { return 0 }
    if numChunks <= 0 { numChunks = runtime.NumCPU() } // 默认使用CPU核心数作为块数
    if len(nums) < numChunks { numChunks = len(nums) }

    results := make(chan int64, numChunks)
    chunkSize := (len(nums) + numChunks - 1) / numChunks 

    for i := 0; i < numChunks; i++ {
        start := i * chunkSize
        end := (i + 1) * chunkSize
        if end > len(nums) { end = len(nums) }

        // 每个goroutine处理一个独立的块
        go func(chunk []int) {
            var localSum int64 = 0
            for _, n := range chunk { // 块内部仍然是顺序累加,但这是局部行为
                localSum += int64(n)
            }
            results <- localSum // 将局部结果发送到channel
        }(nums[start:end])
    }

    var total int64 = 0
    for i := 0; i < numChunks; i++ {
        total += <-results // 合并结果,加法是结合的!顺序不重要
    }
    return total
}

Go 实践 2:递归分治的并行求和 (更纯粹地体现分治)

对于分治思想,递归往往是更自然的表达:

// 辅助函数,保持接口一致性
func sumRecursiveParallelEntry(nums []int) int64 {
    // 设定一个阈值,小于此阈值则顺序计算,避免过多goroutine开销
    const threshold = 1024
    return sumRecursiveParallel(nums, threshold)
}

func sumRecursiveParallel(nums []int, threshold int) int64 {
    if len(nums) == 0 { return 0 }
    if len(nums) < threshold {
        return sumSequential(nums) // 小任务直接顺序计算
    }

    mid := len(nums) / 2

    var sumLeft int64
    var wg sync.WaitGroup
    wg.Add(1) // 我们需要等待左半部分的计算结果
    go func() {
        defer wg.Done()
        sumLeft = sumRecursiveParallel(nums[:mid], threshold)
    }()

    // 右半部分可以在当前goroutine计算,也可以再开一个goroutine
    sumRight := sumRecursiveParallel(nums[mid:], threshold)

    wg.Wait() // 等待左半部分完成

    return sumLeft + sumRight // 合并,加法是结合的
}

基准测试:并行真的更快吗?

理论归理论,实践是检验真理的唯一标准。我们为上述三个求和函数编写了基准测试,在一个典型的多核开发机上运行(例如,4 核 8 线程的 CPU)。我们使用一个包含 1000 万个整数的切片作为输入。

// benchmark_test.go
package main

import (
    "math/rand"
    "runtime"
    "testing"
    "time"
)

var testNums []int

func init() {
    rand.Seed(time.Now().UnixNano())
    testNums = make([]int, 10000000) // 10 million numbers
    for i := range testNums {
        testNums[i] = rand.Intn(1000)
    }
}

func BenchmarkSumSequential(b *testing.B) {
    for i := 0; i < b.N; i++ {
        sumSequential(testNums)
    }
}

func BenchmarkSumParallelChunks(b *testing.B) {
    numChunks := runtime.NumCPU()
    b.ResetTimer()
    for i := 0; i < b.N; i++ {
        sumParallelChunks(testNums, numChunks)
    }
}

func BenchmarkSumRecursiveParallel(b *testing.B) {
    for i := 0; i < b.N; i++ {
        sumRecursiveParallelEntry(testNums)
    }
}

典型的基准测试结果可能如下 (具体数字会因机器而异):

$go test -bench .
goos: darwin
goarch: amd64
pkg: demo
cpu: Intel(R) Core(TM) i5-8257U CPU @ 1.40GHz
BenchmarkSumSequential-8                 429       2784507 ns/op
BenchmarkSumParallelChunks-8             520       1985197 ns/op
BenchmarkSumRecursiveParallel-8          265       4420254 ns/op
PASS
ok      demo    4.612s

从结果可以看出:

  • sumSequential 作为基线,但顺序版本的速度并非最慢。
  • sumParallelChunks 显著快于顺序版本,它充分利用了多核 CPU 的优势,并在这个特定场景下可能因为更直接的控制和较少的递归开销而略胜一筹,但这取决于具体实现和输入规模。而sumRecursiveParallel虽是并行,但却因为较多的goroutine调度(数量大于机器核数)与递归的开销拖慢了执行的速度。

分治与性能:并非总是“更快”的银弹

看到上面的基准测试,你曾经认为的“分治 + 并行”总是能带来性能提升的结论是不成立的。然而,这里需要强调:分治策略本身是为了“能够”并行化,而不是保证在所有情况下都比聪明的顺序算法更快。

这是因为并行化是有成本的:

  1. 任务分解与合并开销: 将问题分解、分发给 Goroutine、以及最后合并结果都需要时间。
  2. Goroutine 创建与调度开销: 虽然 Go 的 Goroutine 很轻量,但创建和调度百万个 Goroutine 仍然有不可忽视的开销。这就是为什么在 sumRecursiveParallel 中我们设置了一个 threshold,当问题规模小于阈值时,退化为顺序执行。
  3. 通信开销: Channel 通信比直接的函数调用要慢。
  4. 同步开销: 如果子问题间不是完全独立,或者合并过程复杂,可能需要额外的同步(如 sync.WaitGroup 或互斥锁),这也会引入开销。

因此,“分治”的性能优势通常在以下情况才能显现:

  • 问题规模足够大: 大到足以摊平并行化的固定开销。
  • 子问题真正独立: 减少或避免同步需求。
  • 合并操作高效: 合并步骤不能成为新的瓶颈。
  • 有足够的并行资源: 即拥有足够的多核 CPU 来同时执行子任务。

如果问题规模很小,或者并行化引入的开销大于节省的时间,那么精心优化的顺序算法可能反而更快。Steele 的核心观点在于,采用分治和关注独立性的设计,使得你的程序具备了“可并行化”的潜力,当资源允许且问题规模合适时,就能获得加速。更重要的是,这种设计往往更清晰、更易于推理和维护。

“独立性”是核心,而非“并行”本身

Steele 强调:“问题的核心并非并行本身,而是独立性。”

如果我们能够将问题分解成独立的部分,并且定义出具有良好代数性质(如结合性)的合并操作,那么并行化就成了一件相对自然和简单的事情。语言和运行时可以更好地帮助我们调度这些独立的任务。

这里,你可能会觉得 Steele 的思想与另一位 Go 圈尽人皆知的思想领袖 Rob Pike 的名言“Concurrency is not Parallelism”有异曲同工之妙。确实如此!

他们都在强调开发者应将关注点从底层执行细节提升到更高层次的程序结构设计上。一个结构良好的程序,自然就具备了高效执行的潜力。

  • Pike 说: 不要去想“并行”(Parallelism)。去想“并发”(Concurrency)——如何把你的程序组织成一组可独立执行、通过通信来协作的组件(Goroutines)。
  • Steele 说: 不要去想“并行”(Parallelism)。去想“独立性”(Independence)——如何把你的问题分解成独立的子问题,并找到一个满足结合律的合并操作。

他们的思想完美互补:

  • Pike 的思想为我们提供了构建程序的“骨架”:我们使用 goroutine 和 channel 来搭建并发结构。
  • Steele 的思想则为我们填充了“血肉”:我们确保每个 goroutine 的工作是真正独立的,并且我们用来合并结果的操作是结合性的

例如,我们的并行求和示例,正是用 Goroutine(Pike 的工具)来执行独立的求和任务(Steele 的独立性原则),然后用 + 这个结合性操作来合并结果。一个优秀的 Gopher,脑中应该同时有这两个声音在对话。

Gopher 的思维重塑:从“怎么做”到“是什么”

Steele 的思想,鼓励我们从更本质的层面思考问题:

  1. 关注“是什么 (What)”而非“怎么做 (How)”: 就像数学家写 Σxᵢ 一样,先声明意图(求和),而不是一开始就陷入具体的循环和累加步骤。Fortran 90 的 SUM(X) 就是这种思想的体现。
  2. 寻找结合性的合并操作: 对于一个问题,思考能否将其分解,并找到一个满足结合律的合并方法。这往往需要对问题域有更深的理解。Steele 在 PPT 中展示了如何通过定义 WordState 及其结合性的 ⊕ 操作来并行化“字符串分词”问题,非常精彩。
  3. 拥抱不可变性与纯函数: 尽可能使子问题的处理函数是纯函数(无副作用,相同输入总有相同输出),这能极大地简化并行程序的推理。
  4. 可复现性至关重要: Steele 强调,为了调试,可复现性极其重要,甚至值得牺牲一些性能。具有结合性的操作通常更容易保证结果的可复现性(即使并行执行顺序不同,最终结果也应一致)。

小结:让并行“自然发生”——Go 做到了吗?

Guy L. Steele Jr. 的思想提醒我们,真正的并行编程高手,不是那些能玩转各种复杂锁和同步原语的“技巧大师”,而是那些能洞察问题本质,将其分解为独立单元,并用优雅的代数方式重新组合的人。他的理想是让并行性像内存管理(垃圾回收)一样,成为语言和运行时为我们处理好的事情,让开发者可以更专注于业务逻辑本身。

那么,Go 语言在“让并行自然发生”这条路上走了多远呢?

  • 显著进步: 相比于 C/C++/Java 等需要手动管理线程、锁、条件变量的语言,Go 通过 go 关键字启动 Goroutine,并通过 Channel 进行通信和同步,极大地简化了并发编程的门槛和心智负担。可以说,Go 让“思考独立性”和“实现基本并发”变得前所未有地容易。

  • 尚未完全“自动化”: 尽管如此,Go 的并行还远未达到像垃圾回收那样“开发者无感知”的程度。开发者仍然需要:

    • 主动设计并行策略: 如何分解问题(如分块、递归分治),如何选择合适的并发原语(Channel, WaitGroup, Mutex)。
    • 管理并发单元: 决定启动多少 Goroutine,如何处理它们的生命周期和错误。
    • 关注数据竞争: 虽然 Channel 有助于避免数据竞争,但如果共享了内存且没有正确同步,数据竞争依然是 Gopher 需要面对的问题(Go 的 race detector 是一个好帮手)。
    • 理解并选择合并策略: 如何设计具有良好代数性质的合并操作,这仍依赖于开发者的洞察力。
  • 与其他语言的比较:

    • Erlang/Elixir (Actor Model): 在进程隔离和消息传递方面与 Go 的 CSP 有相似的哲学,也致力于简化并发。它们在容错和分布式方面有独特优势。
    • 函数式语言 (Haskell, Clojure): 它们强调的不可变性和纯函数天然适合并行化,并提供了一些高级的并行集合与抽象。
    • Rust: 通过其所有权系统和 Send/Sync trait,在编译期提供了强大的内存安全和线程安全保证。其 async/await 提供了另一种并发模型。Rust 在追求极致性能和安全性的同时,其并发的学习曲线也相对陡峭。

Go 的优势在于其务实的平衡: 它提供了足够简单且强大的并发原语,使得开发者能够以较低的成本实现高效的并发和并行,尤其适合构建网络服务和分布式系统。它鼓励开发者思考任务的独立性,但将“如何并行”的许多细节交由开发者根据具体场景来设计。

最终,要达到 Steele 的理想境界——让并行编程像呼吸一样自然,还需要语言、运行时甚至硬件层面的持续进化。但 Go 毫无疑问地在这个方向上迈出了坚实而重要的一大步,它为我们 Gopher 提供了一套强大的工具,去实践“不去想并行(细节),而去思考独立性与组合”的编程智慧。

你对 Guy Steele 的这些观点有什么看法?在你的 Go 并行编程实践中,是否也曾遇到过“累加器思维”带来的困扰,或者通过“分治”获得了更好的解决方案?欢迎在评论区分享你的经验和思考!

参考资料地址 – https://www.infoq.com/presentations/Thinking-Parallel-Programming/


你的Go技能,是否也卡在了“熟练”到“精通”的瓶颈期?

  • 想写出更地道、更健壮的Go代码,却总在细节上踩坑?
  • 渴望提升软件设计能力,驾驭复杂Go项目却缺乏章法?
  • 想打造生产级的Go服务,却在工程化实践中屡屡受挫?

继《Go语言第一课》后,我的《Go语言进阶课》终于在极客时间与大家见面了!

我的全新极客时间专栏 《Tony Bai·Go语言进阶课》就是为这样的你量身打造!30+讲硬核内容,带你夯实语法认知,提升设计思维,锻造工程实践能力,更有实战项目串讲。

目标只有一个:助你完成从“Go熟练工”到“Go专家”的蜕变! 现在就加入,让你的Go技能再上一个新台阶!


商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

使用Go实现可用select监听的队列

1. 背景与选型

《基于Redis Cluster的分布式锁实现以互斥方式操作共享资源》一文一样,今天要说的Go队列方案也是有一定项目背景的。

5G消息方兴未艾!前一段时间从事了一段时间5G消息网关的研发,但凡涉及类似消息业务的网关,我们一般都离不开队列这种数据结构的支持。这个5G消息网关项目采用的是Go技术栈开发,那么我们应该如何为它选择一个与业务模型匹配且性能不差的实现呢?

如今一提到消息队列,大家第一个想到的一定是kafka,kafka的确是一款优秀的分布式队列中间件,但对于我们这个系统来说,它有些“重”,部署和运维都有门槛,并且项目组里也没有能很好维护它的专家,毕竟“可控”是技术选择的一个重要因素。除此之外,我们更想在Go技术栈的生态中挑选,但kafka是Java实现的。

Go圈里在性能上能与kafka“掰掰手腕”的成熟选手不多,nats以及其主持持久化的子项目nats-streaming算是其中两个。不过nats的消息送达模型是:At-least-once-delivery,即至少送一次(而没有kafka的精确送一次的送达模型)。一旦消费者性能下降,给nats server返回的应答超时,nats就会做消息的重发处理:即将消息重新加入到队列中。这与我们的业务模型不符,即便nats提供了发送超时的设定,但我们还是无法给出适当的timeout时间。Go圈里的另一个高性能分布式消息队列nsq采用的也是“至少送一次”的消息送达模型,因此也无法满足我们的业务需求。

我们的业务决定了我们需要的队列要支持“多生产者多消费者”模型,Go语言内置的channel也是一个不错的候选。经过多个Go版本的打磨和优化,channel的send和recv操作性能在一定数量goroutine的情况下已经可以满足很多业务场景的需求了。但channel还是不完全满足我们的业务需求。我们的系统要求尽可能将来自客户端的消息接收下来并缓存在队列中。即便下游发送性能变慢,也要将客户消息先收下来,而不是拒收或延迟响应。而channel本质上是一个具有“静态大小”的队列并且Go的channel操作语义会在channel buffer满的情况下阻塞对channel的继续send,这就与我们的场景要求有背离,即便我们使用buffered channel,我们也很难选择一个合适的len值,并且一旦buffer满,它与unbuffered channel行为无异。

这样一来,我们便选择自己实现一个简单的、高性能的满足业务要求的队列,并且最好能像channel那样可以被select监听到数据ready,而不是给消费者带去“心智负担” :消费者采用轮询的方式查看队列中是否有数据。

2. 设计与实现方案

要设计和实现这样一个队列结构,我们需要解决三个问题:

  • 实现队列这个数据结构;
  • 实现多goroutine并发访问队列时对消费者和生产者的协调;
  • 解决消费者使用select监听队列的问题。

我们逐一来看!

1) 基础队列结构实现来自一个未被Go项目采纳的技术提案

队列是最基础的数据结构,实现一个“先进先出(FIFO)”的练手queue十分容易,但实现一份能加入标准库、资源占用小且性能良好的queue并不容易。Christian Petrin在2018年10月份曾发起一份关于Go标准库加入queue实现的技术提案,提案对基于array和链表的多种queue实现进行详细的比对,并最终给出结论:impl7是最为适宜和有竞争力的标准库queue的候选者。虽然该技术提案目前尚未得到accept,但impl7足可以作为我们的内存队列的基础实现。

2) 为impl7添加并发支持

在性能敏感的领域,我们可以直接使用sync包提供的诸多同步原语来实现goroutine并发安全访问,这里也不例外,一个最简单的让impl7队列实现支持并发的方法就是使用sync.Mutex实现对队列的互斥访问。由于impl7并未作为一个独立的repo存在,我们将其代码copy到我们的实现中(queueimpl7.go),并将其包名由queueimpl7改名为queue:

// github.com/bigwhite/experiments/blob/master/queue-with-select/safe-queue1/queueimpl7.go

// Package queueimpl7 implements an unbounded, dynamically growing FIFO queue.
// Internally, queue store the values in fixed sized slices that are linked using
// a singly linked list.
// This implementation tests the queue performance when performing lazy creation of
// the internal slice as well as starting with a 1 sized slice, allowing it to grow
// up to 16 by using the builtin append function. Subsequent slices are created with
// 128 fixed size.
package queue

// Keeping below as var so it is possible to run the slice size bench tests with no coding changes.
var (
        // firstSliceSize holds the size of the first slice.
        firstSliceSize = 1

        // maxFirstSliceSize holds the maximum size of the first slice.
        maxFirstSliceSize = 16

        // maxInternalSliceSize holds the maximum size of each internal slice.
        maxInternalSliceSize = 128
)
... ...

下面我们就来为以queueimpl7为底层实现的queue增加并发访问支持:

// github.com/bigwhite/experiments/blob/master/queue-with-select/safe-queue1/safe-queue.go

package queue

import (
    "sync"
)

type SafeQueue struct {
    q *Queueimpl7
    sync.Mutex
}

func NewSafe() *SafeQueue {
    sq := &SafeQueue{
        q: New(),
    }

    return sq
}

func (s *SafeQueue) Len() int {
    s.Lock()
    n := s.q.Len()
    s.Unlock()
    return n
}

func (s *SafeQueue) Push(v interface{}) {
    s.Lock()
    defer s.Unlock()

    s.q.Push(v)
}

func (s *SafeQueue) Pop() (interface{}, bool) {
    s.Lock()
    defer s.Unlock()
    return s.q.Pop()
}

func (s *SafeQueue) Front() (interface{}, bool) {
    s.Lock()
    defer s.Unlock()
    return s.q.Front()
}

我们建立一个新结构体SafeQueue,用于表示支持并发访问的Queue,该结构只是在queueimpl7的Queue的基础上嵌入了sync.Mutex。

3) 支持select监听

到这里支持并发的queue虽然实现了,但在使用上还存在一些问题,尤其是对消费者而言,它只能通过轮询的方式来检查队列中是否有消息。而Go并发范式中,select扮演着重要角色,如果能让SafeQueue像普通channel那样能支持select监听,那么消费者在使用时的心智负担将大大降低。于是我们得到了下面第二版的SafeQueue实现:

// github.com/bigwhite/experiments/blob/master/queue-with-select/safe-queue2/safe-queue.go

package queue

import (
    "sync"
    "time"
)

const (
    signalInterval = 200
    signalChanSize = 10
)

type SafeQueue struct {
    q *Queueimpl7
    sync.Mutex
    C chan struct{}
}

func NewSafe() *SafeQueue {
    sq := &SafeQueue{
        q: New(),
        C: make(chan struct{}, signalChanSize),
    }

    go func() {
        ticker := time.NewTicker(time.Millisecond * signalInterval)
        defer ticker.Stop()
        for {
            select {
            case <-ticker.C:
                if sq.q.Len() > 0 {
                    // send signal to indicate there are message waiting to be handled
                    select {
                    case sq.C <- struct{}{}:
                        //signaled
                    default:
                        // not block this goroutine
                    }
                }
            }
        }

    }()

    return sq
}

func (s *SafeQueue) Len() int {
    s.Lock()
    n := s.q.Len()
    s.Unlock()
    return n
}

func (s *SafeQueue) Push(v interface{}) {
    s.Lock()
    defer s.Unlock()

    s.q.Push(v)
}

func (s *SafeQueue) Pop() (interface{}, bool) {
    s.Lock()
    defer s.Unlock()
    return s.q.Pop()
}

func (s *SafeQueue) Front() (interface{}, bool) {
    s.Lock()
    defer s.Unlock()
    return s.q.Front()
}

从上面代码看到,每个SafeQueue的实例会伴随一个goroutine,该goroutine会定期(signalInterval)扫描其所绑定的队列实例中当前消息数,如果大于0,则会向SafeQueue结构中新增的channel发送一条数据,作为一个“事件”。SafeQueue的消费者则可以通过select来监听该channel,待收到“事件”后调用SafeQueue的Pop方法获取队列数据。下面是一个SafeQueue的简单使用示例:

// github.com/bigwhite/experiments/blob/master/queue-with-select/main.go
package main

import (
    "fmt"
    "sync"
    "time"

    queue "github.com/bigwhite/safe-queue/safe-queue2"
)

func main() {
    var q = queue.NewSafe()
    var wg sync.WaitGroup

    wg.Add(2)
    // 生产者
    go func() {
        for i := 0; i < 1000; i++ {
            time.Sleep(time.Second)
            q.Push(i + 1)

        }
        wg.Done()
    }()

    // 消费者
    go func() {
    LOOP:
        for {
            select {
            case <-q.C:
                for {
                    i, ok := q.Pop()
                    if !ok {
                        // no msg available
                        continue LOOP
                    }

                    fmt.Printf("%d\n", i.(int))
                }
            }

        }

    }()

    wg.Wait()
}

从支持SafeQueue的原理可以看到,当有多个消费者时,只有一个消费者能得到“事件”并开始消费。如果队列消息较少,只有一个消费者可以启动消费,这个机制也不会导致“惊群”;当队列中有源源不断的消费产生时,与SafeQueue绑定的goroutine可能会连续发送“事件”,多个消费者都会收到事件并启动消费行为。在这样的实现下,建议消费者在收到“事件”后持续消费,直到Pop的第二个返回值返回false(代表队列为空),就像上面示例中的那样。

这个SafeQueue的性能“中规中矩”,比buffered channel略好(Go 1.16 darwin下跑的benchmark):

$go test -bench .
goos: darwin
goarch: amd64
pkg: github.com/bigwhite/safe-queue/safe-queue2
cpu: Intel(R) Core(TM) i5-8257U CPU @ 1.40GHz
BenchmarkParallelQueuePush-8                10687545           110.9 ns/op        32 B/op          1 allocs/op
BenchmarkParallelQueuePop-8                 18185744            55.58 ns/op        0 B/op          0 allocs/op
BenchmarkParallelPushBufferredChan-8        10275184           127.1 ns/op        16 B/op          1 allocs/op
BenchmarkParallelPopBufferedChan-8          10168750           128.8 ns/op        16 B/op          1 allocs/op
BenchmarkParallelPushUnBufferredChan-8       3005150           414.9 ns/op        16 B/op          1 allocs/op
BenchmarkParallelPopUnBufferedChan-8         2987301           402.9 ns/op        16 B/op          1 allocs/op
PASS
ok      github.com/bigwhite/safe-queue/safe-queue2  11.209s

注:BenchmarkParallelQueuePop-8因为是读取空队列,所以没有分配内存,实际情况是会有内存分配的。另外并发goroutine的模拟差异可能导致有结果差异。

3. 扩展与问题

上面实现的SafeQueue是一个纯内存队列,一旦程序停止/重启,未处理的消息都将消失。一个传统的解决方法是采用wal(write ahead log)在推队列之前将消息持久化后写入文件,在消息出队列后将消息状态也写入wal文件中。这样重启程序时,从wal中恢复消息到各个队列即可。我们也可以将wal封装到SafeQueue的实现中,在SafeQueue的Push和Pop时自动操作wal,并对SafeQueue的使用者透明,不过这里有一个前提,那就是队列消息的可序列化(比如使用protobuf)。另外SafeQueue还需提供一个对外的wal消息恢复接口。大家可以考虑一下如何实现这些。

另外在上述的SafeQueue实现中,我们在给SafeQueue增加select监听时引入两个const:

const (
    signalInterval = 200
    signalChanSize = 10
)

对于SafeQueue的使用者而言,这两个默认值可能不满足需求,那么我们可以将SafeQueue的New方法做一些改造,采用“功能选项(functional option)”的模式为用户提供设置这两个值的可选接口,这个“作业”也留给大家了^_^。

本文所有示例代码可以在这里下载 – https://github.com/bigwhite/experiments/tree/master/queue-with-select。


“Gopher部落”知识星球正式转正(从试运营星球变成了正式星球)!“gopher部落”旨在打造一个精品Go学习和进阶社群!高品质首发Go技术文章,“三天”首发阅读权,每年两期Go语言发展现状分析,>每天提前1小时阅读到新鲜的Gopher日报,网课、技术专栏、图书内容前瞻,六小时内必答保证等满足你关于Go语言生态的所有需>求!部落目前虽小,但持续力很强。在2021年上半年,部落将策划两个专题系列分享,并且是部落独享哦:

  • Go技术书籍的书摘和读书体会系列
  • Go与eBPF系列

欢迎大家加入!

Go技术专栏“改善Go语⾔编程质量的50个有效实践”正在慕课网火热热销中!本专栏主要满足>广大gopher关于Go语言进阶的需求,围绕如何写出地道且高质量Go代码给出50条有效实践建议,上线后收到一致好评!欢迎大家订
阅!

img{512x368}

我的网课“Kubernetes实战:高可用集群搭建、配置、运维与应用”在慕课网热卖>中,欢迎小伙伴们订阅学习!

img{512x368}

我爱发短信:企业级短信平台定制开发专家 https://tonybai.com/。smspush : 可部署在企业内部的定制化短信平台,三网覆盖,不惧大并发接入,可定制扩展; 短信内容你来定,不再受约束, 接口丰富,支持长短信,签名可选。2020年4月8日,中国三大电信运营商联合发布《5G消息白皮书》,51短信平台也会全新升级到“51商用消息平台”,全面支持5G RCS消息。

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格5$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻)归档仓库 – https://github.com/bigwhite/gopherdaily

我的联系方式:

  • 微博:https://weibo.com/bigwhite20xx
  • 微信公众号:iamtonybai
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • “Gopher部落”知识星球:https://public.zsxq.com/groups/51284458844544

微信赞赏:
img{512x368}

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

如发现本站页面被黑,比如:挂载广告、挖矿等恶意代码,请朋友们及时联系我。十分感谢! Go语言第一课 Go语言进阶课 Go语言精进之路1 Go语言精进之路2 Go语言第一课 Go语言编程指南
商务合作请联系bigwhite.cn AT aliyun.com

欢迎使用邮件订阅我的博客

输入邮箱订阅本站,只要有新文章发布,就会第一时间发送邮件通知你哦!

这里是 Tony Bai的个人Blog,欢迎访问、订阅和留言! 订阅Feed请点击上面图片

如果您觉得这里的文章对您有帮助,请扫描上方二维码进行捐赠 ,加油后的Tony Bai将会为您呈现更多精彩的文章,谢谢!

如果您希望通过微信捐赠,请用微信客户端扫描下方赞赏码:

如果您希望通过比特币或以太币捐赠,可以扫描下方二维码:

比特币:

以太币:

如果您喜欢通过微信浏览本站内容,可以扫描下方二维码,订阅本站官方微信订阅号“iamtonybai”;点击二维码,可直达本人官方微博主页^_^:
本站Powered by Digital Ocean VPS。
选择Digital Ocean VPS主机,即可获得10美元现金充值,可 免费使用两个月哟! 著名主机提供商Linode 10$优惠码:linode10,在 这里注册即可免费获 得。阿里云推荐码: 1WFZ0V立享9折!


View Tony Bai's profile on LinkedIn
DigitalOcean Referral Badge

文章

评论

  • 正在加载...

分类

标签

归档



View My Stats