依赖Kafka的Go单元测试例解

本文永久链接 – https://tonybai.com/2024/01/08/go-unit-testing-deps-on-kafka

Kafka是Apache基金会开源的一个分布式事件流处理平台,是Java阵营(最初为Scala)中的一款杀手级应用,其提供的高可靠性、高吞吐量和低延迟的数据传输能力,让其到目前为止依旧是现代企业级应用系统以及云原生应用系统中使用的重要中间件。

在日常开发Go程序时,我们经常会遇到一些依赖Kafka的代码,如何对这些代码进行测试,尤其是单测是摆在Go开发者前面的一个现实问题!

有人说用mock,是个路子。但看过我的《单测时尽量用fake object》一文的童鞋估计已经走在了寻找kafka fake object的路上了!Kafka虽好,但身形硕大,不那么灵巧。找到一个合适的fake object不容易。在这篇文章中,我们就来聊聊如何测试那些依赖kafka的代码,再往本质一点说,就是和大家以找找那些合适的kafka fake object。

1. 寻找fake object的策略

在《单测时尽量用fake object》一文中,我们提到过,如果测试的依赖提供了tiny版本或某些简化版,我们可以直接使用这些版本作为fake object的候选,就像etcd提供了用于测试的自身简化版的实现(embed)那样。

但Kafka并没有提供tiny版本,我们也只能选择《单测时尽量用fake object》一文提到的另外一个策略,那就是利用容器来充当fake object,这是目前能搞到任意依赖的fake object的最简单路径了。也许以后WASI(WebAssembly System Interface)成熟了,让wasm脱离浏览器并可以在本地系统上飞起,到时候换用wasm也不迟。

下面我们就按照使用容器的策略来找一找适合的kafka container。

2. testcontainers-go

我们第一站就来到了testcontainers-go。testcontainers-go是一个Go语言开源项目,专门用于简化创建和清理基于容器的依赖项,常用于Go项目的单元测试、自动化集成或冒烟测试中。通过testcontainers-go提供的易于使用的API,开发人员能够以编程方式定义作为测试的一部分而运行的容器,并在测试完成时清理这些资源。

注:testcontainers不仅提供Go API,它还覆盖了主流的编程语言,包括:Java、.NET、Python、Node.js、Rust等。

在几个月之前,testcontainers-go项目还没有提供对Kafka的直接支持,我们需要自己使用testcontainers.GenericContainer来自定义并启动kafka容器。2023年9月,以KRaft模式运行的Kafka容器才被首次引入testcontainers-go项目

目前testcontainers-go使用的kafka镜像版本是confluentinc/confluent-local:7.5.0Confluent是在kafka背后的那家公司,基于kafka提供商业化支持。今年初,Confluent还收购了Immerok,将apache的另外一个明星项目Flink招致麾下。

confluent-local并不是一个流行的kafka镜像,它只是一个使用KRaft模式的零配置的、包含Confluent Community RestProxy的Apache Kafka,并且镜像是实验性的,仅应用于本地开发工作流,不应该用在支持生产工作负载。

生产中最常用的开源kafka镜像是confluentinc/cp-kafka镜像,它是基于开源Kafka项目构建的,但在此基础上添加了一些额外的功能和工具,以提供更丰富的功能和更易于部署和管理的体验。cp-kafka镜像的版本号并非kafka的版本号,其对应关系需要cp-kafka镜像官网查询。

另外一个开发领域常用的kafka镜像是bitnami的kafka镜像。Bitnami是一个提供各种开源软件的预打包镜像和应用程序栈的公司。Bitnami Kafka镜像是基于开源Kafka项目构建的,是一个可用于快速部署和运行Kafka的Docker镜像。Bitnami Kafka镜像与其内部的Kakfa的版本号保持一致。

下面我们就来看看如何使用testcontainers-go的kafka来作为依赖kafka的Go单元测试用例的fake object。

这第一个测试示例改编自testcontainers-go/kafka module的example_test.go:

// testcontainers/kafka_setup/kafka_test.go

package main

import (
    "context"
    "fmt"
    "testing"

    "github.com/testcontainers/testcontainers-go/modules/kafka"
)

func TestKafkaSetup(t *testing.T) {
    ctx := context.Background()

    kafkaContainer, err := kafka.RunContainer(ctx, kafka.WithClusterID("test-cluster"))
    if err != nil {
        panic(err)
    }

    // Clean up the container
    defer func() {
        if err := kafkaContainer.Terminate(ctx); err != nil {
            panic(err)
        }
    }()

    state, err := kafkaContainer.State(ctx)
    if err != nil {
        panic(err)
    }

    if kafkaContainer.ClusterID != "test-cluster" {
        t.Errorf("want test-cluster, actual %s", kafkaContainer.ClusterID)
    }
    if state.Running != true {
        t.Errorf("want true, actual %t", state.Running)
    }
    brokers, _ := kafkaContainer.Brokers(ctx)
    fmt.Printf("%q\n", brokers)
}

在这个例子中,我们直接调用kafka.RunContainer创建了一个名为test-cluster的kafka实例,如果没有通过WithImage向RunContainer传入自定义镜像,那么默认我们将启动一个confluentinc/confluent-local:7.5.0的容器(注意:随着时间变化,该默认容器镜像的版本也会随之改变)。

通过RunContainer返回的kafka.KafkaContainer我们可以获取到关于kafka容器的各种信息,比如上述代码中的ClusterID、kafka Broker地址信息等。有了这些信息,我们后续便可以与以容器形式启动的kafka建立连接并做数据的写入和读取操作了。

我们先来看这个测试的运行结果,与预期一致:

$ go test
2023/12/16 21:45:52 github.com/testcontainers/testcontainers-go - Connected to docker:
  ... ...
  Resolved Docker Host: unix:///var/run/docker.sock
  Resolved Docker Socket Path: /var/run/docker.sock
  Test SessionID: 19e47867b733f4da4f430d78961771ae3a1cc66c5deca083b4f6359c6d4b2468
  Test ProcessID: 41b9ef62-2617-4189-b23a-1bfa4c06dfec
2023/12/16 21:45:52 Creating container for image docker.io/testcontainers/ryuk:0.5.1
2023/12/16 21:45:53 Container created: 8f2240042c27
2023/12/16 21:45:53 Starting container: 8f2240042c27
2023/12/16 21:45:53 Container started: 8f2240042c27
2023/12/16 21:45:53 Waiting for container id 8f2240042c27 image: docker.io/testcontainers/ryuk:0.5.1. Waiting for: &{Port:8080/tcp timeout:<nil> PollInterval:100ms}
2023/12/16 21:45:53 Creating container for image confluentinc/confluent-local:7.5.0
2023/12/16 21:45:53 Container created: a39a495aed0b
2023/12/16 21:45:53 Starting container: a39a495aed0b
2023/12/16 21:45:53 Container started: a39a495aed0b
["localhost:1037"]
2023/12/16 21:45:58 Terminating container: a39a495aed0b
2023/12/16 21:45:58 Container terminated: a39a495aed0b
PASS
ok      demo    6.236s

接下来,在上面用例的基础上,我们再来做一个Kafka连接以及数据读写测试:

// testcontainers/kafka_consumer_and_producer/kafka_test.go

package main

import (
    "bytes"
    "context"
    "errors"
    "net"
    "strconv"
    "testing"
    "time"

    "github.com/testcontainers/testcontainers-go/modules/kafka"

    kc "github.com/segmentio/kafka-go" // kafka client
)

func createTopics(brokers []string, topics ...string) error {
    // to create topics when auto.create.topics.enable='false'
    conn, err := kc.Dial("tcp", brokers[0])
    if err != nil {
        return err
    }
    defer conn.Close()

    controller, err := conn.Controller()
    if err != nil {
        return err
    }
    var controllerConn *kc.Conn
    controllerConn, err = kc.Dial("tcp", net.JoinHostPort(controller.Host, strconv.Itoa(controller.Port)))
    if err != nil {
        return err
    }
    defer controllerConn.Close()

    var topicConfigs []kc.TopicConfig
    for _, topic := range topics {
        topicConfig := kc.TopicConfig{
            Topic:             topic,
            NumPartitions:     1,
            ReplicationFactor: 1,
        }
        topicConfigs = append(topicConfigs, topicConfig)
    }

    err = controllerConn.CreateTopics(topicConfigs...)
    if err != nil {
        return err
    }

    return nil
}

func newWriter(brokers []string, topic string) *kc.Writer {
    return &kc.Writer{
        Addr:                   kc.TCP(brokers...),
        Topic:                  topic,
        Balancer:               &kc.LeastBytes{},
        AllowAutoTopicCreation: true,
        RequiredAcks:           0,
    }
}

func newReader(brokers []string, topic string) *kc.Reader {
    return kc.NewReader(kc.ReaderConfig{
        Brokers:  brokers,
        Topic:    topic,
        GroupID:  "test-group",
        MaxBytes: 10e6, // 10MB
    })
}

func TestProducerAndConsumer(t *testing.T) {
    ctx := context.Background()

    kafkaContainer, err := kafka.RunContainer(ctx, kafka.WithClusterID("test-cluster"))
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }

    // Clean up the container
    defer func() {
        if err := kafkaContainer.Terminate(ctx); err != nil {
            t.Fatalf("want nil, actual %v\n", err)
        }
    }()

    state, err := kafkaContainer.State(ctx)
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }

    if state.Running != true {
        t.Errorf("want true, actual %t", state.Running)
    }

    brokers, err := kafkaContainer.Brokers(ctx)
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }

    topic := "test-topic"
    w := newWriter(brokers, topic)
    defer w.Close()
    r := newReader(brokers, topic)
    defer r.Close()

    err = createTopics(brokers, topic)
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }
    time.Sleep(5 * time.Second)

    messages := []kc.Message{
        {
            Key:   []byte("Key-A"),
            Value: []byte("Value-A"),
        },
        {
            Key:   []byte("Key-B"),
            Value: []byte("Value-B"),
        },
        {
            Key:   []byte("Key-C"),
            Value: []byte("Value-C"),
        },
        {
            Key:   []byte("Key-D"),
            Value: []byte("Value-D!"),
        },
    }

    const retries = 3
    for i := 0; i < retries; i++ {
        ctx, cancel := context.WithTimeout(context.Background(), 10*time.Second)
        defer cancel()

        // attempt to create topic prior to publishing the message
        err = w.WriteMessages(ctx, messages...)
        if errors.Is(err, kc.LeaderNotAvailable) || errors.Is(err, context.DeadlineExceeded) {
            time.Sleep(time.Millisecond * 250)
            continue
        }

        if err != nil {
            t.Fatalf("want nil, actual %v\n", err)
        }
        break
    }

    var getMessages []kc.Message
    for i := 0; i < len(messages); i++ {
        m, err := r.ReadMessage(context.Background())
        if err != nil {
            t.Fatalf("want nil, actual %v\n", err)
        }
        getMessages = append(getMessages, m)
    }

    for i := 0; i < len(messages); i++ {
        if !bytes.Equal(getMessages[i].Key, messages[i].Key) {
            t.Errorf("want %s, actual %s\n", string(messages[i].Key), string(getMessages[i].Key))
        }
        if !bytes.Equal(getMessages[i].Value, messages[i].Value) {
            t.Errorf("want %s, actual %s\n", string(messages[i].Value), string(getMessages[i].Value))
        }
    }
}

我们使用segmentio/kafka-go这个客户端来实现kafka的读写。关于如何使用segmentio/kafka-go这个客户端,可以参考我之前写的《Go社区主流Kafka客户端简要对比》。

这里我们在TestProducerAndConsumer这个用例中,先通过testcontainers-go的kafka.RunContainer启动一个Kakfa实例,然后创建了一个topic: “test-topic”。我们在写入消息前也可以不单独创建这个“test-topic”,Kafka默认启用topic自动创建,并且segmentio/kafka-go的高级API:Writer也支持AllowAutoTopicCreation的设置。不过topic的创建需要一些时间,如果要在首次写入消息时创建topic,此次写入可能会失败,需要retry。

向topic写入一条消息(实际上是一个批量Message,包括四个key-value pair)后,我们调用ReadMessage从上述topic中读取消息,并将读取的消息与写入的消息做比较。

注:近期发现kafka-go的一个可能导致内存暴涨的问题,在kafka ack返回延迟变大的时候,可能触发该问题。

下面是执行该用例的输出结果:

$ go test
2023/12/17 17:43:54 github.com/testcontainers/testcontainers-go - Connected to docker:
  Server Version: 24.0.7
  API Version: 1.43
  Operating System: CentOS Linux 7 (Core)
  Total Memory: 30984 MB
  Resolved Docker Host: unix:///var/run/docker.sock
  Resolved Docker Socket Path: /var/run/docker.sock
  Test SessionID: f76fe611c753aa4ef1456285503b0935a29795e7c0fab2ea2588029929215a08
  Test ProcessID: 27f531ee-9b5f-4e4f-b5f0-468143871004
2023/12/17 17:43:54 Creating container for image docker.io/testcontainers/ryuk:0.5.1
2023/12/17 17:43:54 Container created: 577309098f4c
2023/12/17 17:43:54 Starting container: 577309098f4c
2023/12/17 17:43:54 Container started: 577309098f4c
2023/12/17 17:43:54 Waiting for container id 577309098f4c image: docker.io/testcontainers/ryuk:0.5.1. Waiting for: &{Port:8080/tcp timeout:<nil> PollInterval:100ms}
2023/12/17 17:43:54 Creating container for image confluentinc/confluent-local:7.5.0
2023/12/17 17:43:55 Container created: 1ee11e11742b
2023/12/17 17:43:55 Starting container: 1ee11e11742b
2023/12/17 17:43:55 Container started: 1ee11e11742b
2023/12/17 17:44:15 Terminating container: 1ee11e11742b
2023/12/17 17:44:15 Container terminated: 1ee11e11742b
PASS
ok      demo    21.505s

我们看到默认情况下,testcontainer能满足与kafka交互的基本需求,并且testcontainer提供了一系列Option(WithXXX)可以对container进行定制,以满足一些扩展性的要求,但是这需要你对testcontainer提供的API有更全面的了解。

除了开箱即用的testcontainer之外,我们还可以使用另外一种方便的基于容器的技术:docker-compose来定制和启停我们需要的kafka image。接下来,我们就来看看如何使用docker-compose建立fake kafka object。

3. 使用docker-compose建立fake kafka

3.1 一个基础的基于docker-compose的fake kafka实例模板

这次我们使用bitnami提供的kafka镜像,我们先建立一个“等价”于上面“testcontainers-go”提供的kafka module的kafka实例,下面是docker-compose.yml:

// docker-compose/bitnami/plaintext/docker-compose.yml

version: "2"

services:
  kafka:
    image: docker.io/bitnami/kafka:3.6
    network_mode: "host"
    volumes:
      - "kafka_data:/bitnami"
    environment:
      # KRaft settings
      - KAFKA_CFG_NODE_ID=0
      - KAFKA_CFG_PROCESS_ROLES=controller,broker
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=0@localhost:9093
      # Listeners
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://:9092
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_INTER_BROKER_LISTENER_NAME=PLAINTEXT
      # borrow from testcontainer
      - KAFKA_CFG_BROKER_ID=0
      - KAFKA_CFG_OFFSETS_TOPIC_REPLICATION_FACTOR=1
      - KAFKA_CFG_OFFSETS_TOPIC_NUM_PARTITIONS=1
      - KAFKA_CFG_TRANSACTION_STATE_LOG_MIN_ISR=1
      - KAFKA_CFG_GROUP_INITIAL_REBALANCE_DELAY_MS=0
      - KAFKA_CFG_LOG_FLUSH_INTERVAL_MESSAGES=9223372036854775807
volumes:
  kafka_data:
    driver: local

我们看到其中一些配置“借鉴”了testcontainers-go的kafka module,我们启动一下该容器:

$ docker-compose up -d
[+] Running 2/2
 ✔ Volume "plaintext_kafka_data"  Created                                                                                    0.0s
 ✔ Container plaintext-kafka-1    Started                                                                                    0.1s

依赖该容器的go测试代码与前面的TestProducerAndConsumer差不多,只是在开始处去掉了container的创建过程:

// docker-compose/bitnami/plaintext/kafka_test.go

func TestProducerAndConsumer(t *testing.T) {
    brokers := []string{"localhost:9092"}
    topic := "test-topic"
    w := newWriter(brokers, topic)
    defer w.Close()
    r := newReader(brokers, topic)
    defer r.Close()

    err := createTopics(brokers, topic)
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }
    time.Sleep(5 * time.Second)
    ... ...
}

运行该测试用例,我们看到预期的结果:

go test
write message ok  Value-A
write message ok  Value-B
write message ok  Value-C
write message ok  Value-D!
PASS
ok      demo    15.143s

不过对于单元测试来说,显然我们不能手动来启动和停止kafka container,我们需要为每个用例填上setup和teardown,这样也能保证用例间的相互隔离,于是我们增加了一个docker_compose_helper.go文件,在这个文件中我们提供了一些帮助testcase启停kafka的helper函数:

// docker-compose/bitnami/plaintext/docker_compose_helper.go

package main

import (
    "fmt"
    "os/exec"
    "strings"
    "time"
)

// helpler function for operating docker container through docker-compose command

const (
    defaultCmd     = "docker-compose"
    defaultCfgFile = "docker-compose.yml"
)

func execCliCommand(cmd string, opts ...string) ([]byte, error) {
    cmds := cmd + " " + strings.Join(opts, " ")
    fmt.Println("exec command:", cmds)
    return exec.Command(cmd, opts...).CombinedOutput()
}

func execDockerComposeCommand(cmd string, cfgFile string, opts ...string) ([]byte, error) {
    var allOpts = []string{"-f", cfgFile}
    allOpts = append(allOpts, opts...)
    return execCliCommand(cmd, allOpts...)
}

func UpKakfa(composeCfgFile string) ([]byte, error) {
    b, err := execDockerComposeCommand(defaultCmd, composeCfgFile, "up", "-d")
    if err != nil {
        return nil, err
    }
    time.Sleep(10 * time.Second)
    return b, nil
}

func UpDefaultKakfa() ([]byte, error) {
    return UpKakfa(defaultCfgFile)
}

func DownKakfa(composeCfgFile string) ([]byte, error) {
    b, err := execDockerComposeCommand(defaultCmd, composeCfgFile, "down", "-v")
    if err != nil {
        return nil, err
    }
    time.Sleep(10 * time.Second)
    return b, nil
}

func DownDefaultKakfa() ([]byte, error) {
    return DownKakfa(defaultCfgFile)
}

眼尖的童鞋可能看到:在UpKakfa和DownKafka函数中我们使用了硬编码的“time.Sleep”来等待10s,通常在镜像已经pull到本地后这是有效的,但却不是最精确地等待方式,testcontainers-go/wait中提供了等待容器内程序启动完毕的多种策略,如果你想用更精确的等待方式,可以了解一下wait包。

基于helper函数,我们改造一下TestProducerAndConsumer用例:

// docker-compose/bitnami/plaintext/kafka_test.go
func TestProducerAndConsumer(t *testing.T) {
    _, err := UpDefaultKakfa()
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }

    t.Cleanup(func() {
        DownDefaultKakfa()
    })
    ... ...
}

我们在用例开始处通过UpDefaultKakfa使用docker-compose将kafka实例启动起来,然后注册了Cleanup函数,用于在test case执行结束后销毁kafka实例。

下面是新版用例的执行结果:

$ go test
exec command: docker-compose -f docker-compose.yml up -d
write message ok  Value-A
write message ok  Value-B
write message ok  Value-C
write message ok  Value-D!
exec command: docker-compose -f docker-compose.yml down -v
PASS
ok      demo    36.402s

使用docker-compose的最大好处就是可以通过docker-compose.yml文件对要fake的object进行灵活的定制,这种定制与testcontainers-go的差别就是你无需去研究testcontiners-go的API。

下面是使用tls连接与kafka建立连接并实现读写的示例。

3.2 建立一个基于TLS连接的fake kafka实例

Kafka的配置复杂是有目共睹的,为了建立一个基于TLS连接,我也是花了不少时间做“试验”,尤其是listeners以及证书的配置,不下点苦功夫读文档还真是配不出来。

下面是一个基于bitnami/kafka镜像配置出来的基于TLS安全通道上的kafka实例:

// docker-compose/bitnami/tls/docker-compose.yml

# config doc:  https://github.com/bitnami/containers/blob/main/bitnami/kafka/README.md

version: "2"

services:
  kafka:
    image: docker.io/bitnami/kafka:3.6
    network_mode: "host"
    #ports:
      #- "9092:9092"
    environment:
      # KRaft settings
      - KAFKA_CFG_NODE_ID=0
      - KAFKA_CFG_PROCESS_ROLES=controller,broker
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=0@localhost:9094
      # Listeners
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,SECURED://:9093,CONTROLLER://:9094
      - KAFKA_CFG_ADVERTISED_LISTENERS=SECURED://:9093
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,SECURED:SSL,PLAINTEXT:PLAINTEXT
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_INTER_BROKER_LISTENER_NAME=SECURED
      # SSL settings
      - KAFKA_TLS_TYPE=PEM
      - KAFKA_TLS_CLIENT_AUTH=none
      - KAFKA_CFG_SSL_ENDPOINT_IDENTIFICATION_ALGORITHM=
      # borrow from testcontainer
      - KAFKA_CFG_BROKER_ID=0
      - KAFKA_CFG_OFFSETS_TOPIC_REPLICATION_FACTOR=1
      - KAFKA_CFG_OFFSETS_TOPIC_NUM_PARTITIONS=1
      - KAFKA_CFG_TRANSACTION_STATE_LOG_MIN_ISR=1
      - KAFKA_CFG_GROUP_INITIAL_REBALANCE_DELAY_MS=0
      - KAFKA_CFG_LOG_FLUSH_INTERVAL_MESSAGES=9223372036854775807
    volumes:
      # server.cert, server.key and ca.crt
      - "kafka_data:/bitnami"
      - "./kafka.keystore.pem:/opt/bitnami/kafka/config/certs/kafka.keystore.pem:ro"
      - "./kafka.keystore.key:/opt/bitnami/kafka/config/certs/kafka.keystore.key:ro"
      - "./kafka.truststore.pem:/opt/bitnami/kafka/config/certs/kafka.truststore.pem:ro"
volumes:
  kafka_data:
    driver: local

这里我们使用pem格式的证书和key,在上面配置中,volumes下面挂载的kafka.keystore.pem、kafka.keystore.key和kafka.truststore.pem分别对应了以前在Go中常用的名字:server-cert.pem(服务端证书), server-key.pem(服务端私钥)和ca-cert.pem(CA证书)。

这里整理了一个一键生成的脚本docker-compose/bitnami/tls/kafka-generate-cert.sh,我们执行该脚本生成所有需要的证书并放到指定位置(遇到命令行提示,只需要一路回车即可):

$bash kafka-generate-cert.sh
.........++++++
.............................++++++
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [XX]:
State or Province Name (full name) []:
Locality Name (eg, city) [Default City]:
Organization Name (eg, company) [Default Company Ltd]:
Organizational Unit Name (eg, section) []:
Common Name (eg, your name or your server's hostname) []:
Email Address []:

Please enter the following 'extra' attributes
to be sent with your certificate request
A challenge password []:
An optional company name []:
Signature ok
subject=/C=XX/L=Default City/O=Default Company Ltd
Getting Private key
.....................++++++
.........++++++
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [XX]:
State or Province Name (full name) []:
Locality Name (eg, city) [Default City]:
Organization Name (eg, company) [Default Company Ltd]:
Organizational Unit Name (eg, section) []:
Common Name (eg, your name or your server's hostname) []:
Email Address []:

Please enter the following 'extra' attributes
to be sent with your certificate request
A challenge password []:
An optional company name []:
Signature ok
subject=/C=XX/L=Default City/O=Default Company Ltd
Getting CA Private Key

接下来,我们来改造用例,使之支持以tls方式建立到kakfa的连接:

//docker-compose/bitnami/tls/kafka_test.go

func createTopics(brokers []string, tlsConfig *tls.Config, topics ...string) error {
    dialer := &kc.Dialer{
        Timeout:   10 * time.Second,
        DualStack: true,
        TLS:       tlsConfig,
    }

    conn, err := dialer.DialContext(context.Background(), "tcp", brokers[0])
    if err != nil {
        fmt.Println("creating topic: dialer dial error:", err)
        return err
    }
    defer conn.Close()
    fmt.Println("creating topic: dialer dial ok")
    ... ...
}

func newWriter(brokers []string, tlsConfig *tls.Config, topic string) *kc.Writer {
    w := &kc.Writer{
        Addr:                   kc.TCP(brokers...),
        Topic:                  topic,
        Balancer:               &kc.LeastBytes{},
        AllowAutoTopicCreation: true,
        Async:                  true,
        //RequiredAcks:           0,
        Completion: func(messages []kc.Message, err error) {
            for _, message := range messages {
                if err != nil {
                    fmt.Println("write message fail", err)
                } else {
                    fmt.Println("write message ok", string(message.Topic), string(message.Value))
                }
            }
        },
    }

    if tlsConfig != nil {
        w.Transport = &kc.Transport{
            TLS: tlsConfig,
        }
    }
    return w
}

func newReader(brokers []string, tlsConfig *tls.Config, topic string) *kc.Reader {
    dialer := &kc.Dialer{
        Timeout:   10 * time.Second,
        DualStack: true,
        TLS:       tlsConfig,
    }

    return kc.NewReader(kc.ReaderConfig{
        Dialer:   dialer,
        Brokers:  brokers,
        Topic:    topic,
        GroupID:  "test-group",
        MaxBytes: 10e6, // 10MB
    })
}

func TestProducerAndConsumer(t *testing.T) {
    var err error
    _, err = UpDefaultKakfa()
    if err != nil {
        t.Fatalf("want nil, actual %v\n", err)
    }

    t.Cleanup(func() {
        DownDefaultKakfa()
    })

    brokers := []string{"localhost:9093"}
    topic := "test-topic"

    tlsConfig, _ := newTLSConfig()
    w := newWriter(brokers, tlsConfig, topic)
    defer w.Close()
    r := newReader(brokers, tlsConfig, topic)
    defer r.Close()
    err = createTopics(brokers, tlsConfig, topic)
    if err != nil {
        fmt.Printf("create topic error: %v, but it may not affect the later action, just ignore it\n", err)
    }
    time.Sleep(5 * time.Second)
    ... ...
}

func newTLSConfig() (*tls.Config, error) {
    /*
       // 加载 CA 证书
       caCert, err := ioutil.ReadFile("/path/to/ca.crt")
       if err != nil {
               return nil, err
       }

       // 加载客户端证书和私钥
       cert, err := tls.LoadX509KeyPair("/path/to/client.crt", "/path/to/client.key")
       if err != nil {
               return nil, err
       }

       // 创建 CertPool 并添加 CA 证书
       caCertPool := x509.NewCertPool()
       caCertPool.AppendCertsFromPEM(caCert)
    */
    // 创建并返回 TLS 配置
    return &tls.Config{
        //RootCAs:      caCertPool,
        //Certificates: []tls.Certificate{cert},
        InsecureSkipVerify: true,
    }, nil
}

在上述代码中,我们按照segmentio/kafka-go为createTopics、newWriter和newReader都加上了tls.Config参数,此外在测试用例中,我们用newTLSConfig创建一个tls.Config的实例,在这里我们一切简化处理,采用InsecureSkipVerify=true的方式与kafka broker服务端进行握手,既不验证服务端证书,也不做双向认证(mutual TLS)。

下面是修改代码后的测试用例执行结果:

$ go test
exec command: docker-compose -f docker-compose.yml up -d
creating topic: dialer dial ok
creating topic: get controller ok
creating topic: dial control listener ok
create topic error: EOF, but it may not affect the later action, just ignore it
write message error: [3] Unknown Topic Or Partition: the request is for a topic or partition that does not exist on this broker
write message ok  Value-A
write message ok  Value-B
write message ok  Value-C
write message ok  Value-D!
exec command: docker-compose -f docker-compose.yml down -v
PASS
ok      demo    38.473s

这里我们看到:createTopics虽然连接kafka的各个listener都ok,但调用topic创建时,返回EOF,但这的确不影响后续action的执行,不确定这是segmentio/kafka-go的问题,还是kafka实例的问题。另外首次写入消息时,也因为topic或partition未建立而失败,retry后消息正常写入。

通过这个例子我们看到,基于docker-compose建立fake object有着更广泛的灵活性,如果做好容器启动和停止的精准wait机制的话,我可能会更多选择这种方式。

4. 小结

本文介绍了如何在Go编程中进行依赖Kafka的单元测试,并探讨了寻找适合的Kafka fake object的策略。

对于Kafka这样的复杂系统来说,找到合适的fake object并不容易。因此,本文推荐使用容器作为fake object的策略,并分别介绍了使用testcontainers-go项目和使用docker-compose作为简化创建和清理基于容器的依赖项的工具。相对于刚刚加入testcontainers-go项目没多久的kafka module而言,使用docker-compose自定义fake object更加灵活一些。但无论哪种方法,开发人员都需要对kafka的配置有一个较为整体和深入的理解。

文中主要聚焦使用testcontainers-go和docker-compose建立fake kafka的过程,而用例并没有建立明确的sut(被测目标),比如针对某个函数的白盒单元测试。

文本涉及的源码可以在这里下载。


“Gopher部落”知识星球旨在打造一个精品Go学习和进阶社群!高品质首发Go技术文章,“三天”首发阅读权,每年两期Go语言发展现状分析,每天提前1小时阅读到新鲜的Gopher日报,网课、技术专栏、图书内容前瞻,六小时内必答保证等满足你关于Go语言生态的所有需求!2024年,Gopher部落将进一步聚焦于如何编写雅、地道、可读、可测试的Go代码,关注代码质量并深入理解Go核心技术,并继续加强与星友的互动。欢迎大家加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格5$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

Go语言之父的反思:我们做对了什么,做错了什么

本文永久链接 – https://tonybai.com/2024/01/07/what-we-got-right-what-we-got-wrong

在《2023年Go语言盘点:稳中求新,稳中求变》和《Go测试的20个实用建议》两篇文章中,我都提到过已经退居二线的Go语言之父Rob PikeGo开源14周年的那天亲自在GopherCon Australia 2023上发表了“What We Got Right, What We Got Wrong”的主题演讲来回顾Go诞生以来的得与失。近期Rob Pike终于将这次演进的文字稿发布了出来GopherCon Australia也在油管上发布了这个演进的视频。Rob Pike的观点对所有Gopher都是极具参考价值的,因此在这篇博文中,我将Rob Pike的这次演讲稿翻译成中文,供大家参考(结合文字稿和视频),我们一起来领略和学习大师的观点。


这是2023年11月10日我在悉尼GopherConAU 2023会议上的闭幕演讲(视频),那一天也是Go开源14周年的日子。本文中穿插着演示文稿中使用的幻灯片。

介绍

大家好!

首先,我要感谢Katie和Chewy让我有幸为此次GopherConAU大会做闭幕演讲。


2009年11月10日

今天是2023年11月10日,Go作为开源项目推出14周年的纪念日。

2009年11月10日那天,加州时间下午3点(如果没记错的话),Ken Thompson、Robert Griesemer、Russ Cox、Ian Taylor、Adam Langley、Jini Kim和我满怀期待地看着网站上线。之后,全世界都知道我们在做什么了。

14年后的今天,有很多事情值得回顾。我想借此机会谈谈自那一天以来学到的一些重要经验。即使是最成功的项目,在反思之后,也会发现一些事情本可以做得更好。当然,也有一些事情事后看来似乎是成功的关键所在。

首先,我必须明确的是,这里的观点只代表我个人,不代表Go团队和Google。无论是过去还是现在,Go都是由一支专注的团队和庞大的社区付出巨大努力的结果。所以,如果你同意我的任何说法,请感谢他们。如果你不同意,请责怪我,但请保留你的意见。

鉴于本次演讲的题目,许多人可能期待我会分析语言中的优点和缺点。当然,我会做一些分析,但还会有更多内容,原因有几个。

首先,编程语言的好坏很大程度上取决于观点而不是事实,尽管许多人对Go或任何其他语言的最微不足道的功能都存在争论。

另外,关于换行符的位置、nil的工作方式、导出的大小写表示法、垃圾回收、错误处理等话题已经有了大量的讨论。这些话题肯定有值得讨论的地方,但几乎没什么是还没有被讨论过的。

但我要讨论的不仅仅是语言本身的真正原因是,语言并不是整个项目的全部。我们最初的目标不是创造一种新的编程语言,而是创造一种更好的编写软件的方式。我们对所使用的语言有意见——无论使用什么语言,每个人都是如此——但是我们遇到的基本问题与这些语言的特性没有太大关系,而是与在谷歌使用这些语言构建软件的过程有关。


T恤上的第一只Gopher

新语言的创建提供了探索其他想法的新路径,但这只是一个推动因素,而不是真正的重点。如果当时我正在工作的二进制文件不需要45分钟来构建
,Go语言就不会出现。但那45分钟不是因为编译器慢(因为它不慢),也不是因为它所用的语言不好(因为它也不差)。缓慢是由其他因素造成的。

我们想解决的就是这些因素:构建现代服务器软件的复杂性:控制依赖性、与人员不断变化的大型团队一起编程、可维护性、高效测试、多核CPU和网络的有效利用等等。

简而言之,Go不仅仅是一种编程语言。当然,它是一种编程语言,这是它的定义。但它的目的是帮助提供一种更好的方式来开发高质量的软件,至少与14多年前的我们的环境相比。

时至今日,这仍然是它的宗旨。Go是一个使构建生产软件更容易、更高效的项目。

几周前,当我开始准备这次演讲时,我只有一个题目,除此之外别无其他。为了激发我的思路,我在Mastodon上向人们征求意见。不少人给予了回复。我注意到了一种趋势:人们认为我们做错的事情都在语言本身,而我们做对的事情都在语言周边,比如gofmt、部署和测试等。事实上,我觉得这令人鼓舞。我们试图做的事情似乎已经产生了效果。

但值得承认的是,我们在早期并没有明确真正的目标。我们可能觉得这些目标是不言自明的。为了弥补这一缺陷,我在2013年的SPLASH会议上发表了一场题为《谷歌的Go语言:面向软件工程的语言设计》的演讲。


Go at Google

那场演讲和相关的博客文章可能是对Go语言为何而生的最好诠释。

今天的演讲是SPLASH演讲的后续,回顾了我们在构建语言之后所学到的经验教训,并且可以更广泛地应用于更大的图景。

那么……来谈谈一些教训。

首先,当然,我们有:

The Gopher

以Go Gopher吉祥物开始可能看起来是一个奇怪的起点,但Go gopher是Go成功的最早因素之一。在发布Go之前,我们就知道我们想要一个吉祥物来装饰周边商品——每个项目都需要周边商品——Renee French主动提出为我们制作一个这样的吉祥物。在这一点上,我们做得非常正确。

下面最早的Gopher毛绒玩具的图片:


The Gopher

这是Gopher的照片,它的第一个原型不太成功。


Gopher和它进化程度较低的祖先

Gopher是一个吉祥物,它也是荣誉徽章,甚至是世界各地Go程序员的身份标志。此时此刻,你正在参加一个名为GopherCon的会议,这是众多GopherCon会议中的一个。拥有一个从第一天就准备好分享信息的容易识别、有趣的生物,对Go的成长至关重要。它天真又聪明——它可以构建任何东西!


Gopher建造机器人(Renee French 绘图)

它为社区参与该项目奠定了基调,这是卓越的技术与真正的乐趣相结合的基调。最重要的是,Gopher是社区的一面旗帜,一面团结起来的旗帜,尤其是在早期,当Go还是编程界的新贵时。

这是几年前Gopher参加巴黎会议的照片,看看他们多兴奋!


巴黎的Gopher观众(Brad Fitzpatrick摄)

尽管如此,在知识共享署名许可(Creative Commons Attribution license)下发布Gopher的设计也许不是最好的选择。一方面,它鼓励人们以有趣的方式重新组合他,这反过来又有助于培养社区精神。


Gopher model sheet

Renee创建了一个“模型表”来帮助艺术家在保持其精神原貌的同时进行艺术创作。

一些艺术家利用这些特征制作了自己版本的Gopher并获得了乐趣;Renee和我最喜欢的版本是日本设计师@tottie的和游戏程序员@tenntennen的:


@tottie的Gopher


@tenntennen 的gopher

但许可证的“归属”部分常常会导致令人沮丧的争论,或者导致Renee的创作不属于她,也不符合原作的精神。而且,说实话,这种归属往往只是不情愿地得到尊重,或者根本没有得到尊重。例如,我怀疑@tenntennen是否因他的Gopher插图被使用而获得补偿或是得到承认。


gophervans.com: Boo!

因此,如果让我们重来一次,我们会认真思考确保吉祥物忠于其理想的最佳方法。维护吉祥物是一件很难的事,而且解决方案仍然难以捉摸。

但更多的是技术性的事情。

做的对的事情

这里有一份我认为我们在客观上做对了的事情的清单,特别是在回顾的时候。并不是每一个编程语言项目都做了这些事情,但清单中的每一件对Go的最终成功都至关重要。我会试着言简意赅,因为这些话题都已为人所熟知。

1. 语言规范(Specification)

我们从正式的语言规范开始。这不仅可以在编写编译器时锁定行为,还可以使多个编译器实现共存并就该行为达成一致。编译器本身并不是一个规范。你测试编译器的依据是什么?


Web上的Go语言规范

哦,顺便说一句,该规范的初稿是在这里编写的,位于悉尼达令港一栋建筑的18层。我们正在Go的家乡庆祝Go的生日。

2. 多种实现

Go有多个编译器实现,它们都实现相同的语言规范。有了规范就可以更容易地实现这一点。

有一天,伊恩·泰勒(Ian Taylor)发邮件通知我们,在阅读了我们的语言规范草案后,他自己编写了一个编译器,这让我们感到惊讶!

Subject: A gcc frontend for Go
From: Ian Lance Taylor
Date: Sat, Jun 7, 2008 at 7:06 PM
To: Robert Griesemer, Rob Pike, Ken Thompson

One of my office-mates pointed me at http://.../go_lang.html .  It
seems like an interesting language, and I threw together a gcc
frontend for it.  It's missing a lot of features, of course, but it
does compile the prime sieve code on the web page.

这的确令人兴奋,但更多的编译器实现也随之而来了,所有这些都因正式规范的存在而成为可能。


很多编译器

拥有多个编译器帮助我们改进了语言并完善了规范,并为那些不太喜欢我们类似Plan-9的业务方式的其他人提供了替代环境。稍后会详细介绍。如今有很多兼容的实现,这很棒!

3. 可移植性

我们使Go应用的交叉编译变得轻而易举,程序员可以在他们喜欢的任何平台上工作,并交付到任何需要的平台。使用Go可能比使用任何其他语言更容易达成这一点。很容易将编译器视为运行它的机器的本地编译器,但没有理由这么认为。打破这个假设具有重要意义,这对许多开发者来说都是新鲜事。


可移植性

4. 兼容性

我们努力使语言达到1.0版本的标准,然后通过兼容性保证将其固定下来,这对Go的采用产生了非常明显的影响!我不理解为什么大多数其他项目一直在抵制这样做。是的,保持强大兼容性的确需要付出成本,但它可以阻止功能特性停滞,而在这个几乎没有其他东西保持稳定的世界里,不必担心新版本的Go会破坏你的项目,这足以令人感到欣喜!


Go兼容性承诺

5. 标准库

尽管它的增长在某种程度上是偶然的,因为在一开始没有其他地方可以安装Go代码,但拥有一个坚实、制作精良的标准库,其中包含编写21世纪服务器代码所需的大部分内容,这是一个重大资产。在我们积累了足够的经验来理解还应该提供什么之前,它使整个社区都使用相同的工具包。这非常有效,并有助于防止出现不同版本的库,从而帮助统一社区。


标准库

6. 工具

我们确保该语言易于解析,从而支持工具构建。起初我们认为Go需要一个IDE,但易于构建工具意味着,随着时间的推移,IDE将会出现在Go上。他们和gopls一起做到了,而且他们非常棒。


工具

我们还为编译器提供了一套辅助工具,例如自动化测试、覆盖率和代码审查(code vetting)。当然还有go命令,它集成了整个构建过程,也是许多项目构建和维护其Go代码所需的一切。


快速构建

此外,Go获得了快速构建的声誉,这也没有什么坏处。

7. Gofmt

我将gofmt作为一个单独的项目从工具中拿出来,因为它是一个不仅在Go上而且在整个编程社区上留下了印记的工具。在Robert编写gofmt之前(顺便说一句,他从一开始就坚持这样做),自动格式化程序的质量不高,因此大多未被使用。


gofmt谚语

gofmt的成功表明了代码自动格式化可以做得很好,今天几乎每种值得使用的编程语言都有一个标准格式化程序。我们不再为空格和换行符争论,这节省了大量时间了,这也让那些花在定义标准格式和编写这段相当困难的代码实现格式自动化上的时间显得超值。

此外,gofmt还使无数其他工具成为可能,例如简化器、分析器甚至是代码覆盖率工具。因为gofmt的内容成为了任何人都可以使用的库,所以你可以解析程序、编辑AST,然后打印完美的字节输出,供人类和机器使用。

谢谢,罗伯特。

不过,恭喜你就够了。接下来,我们来谈谈一些更有争议的话题。

并发性

并发有争议吗?嗯,在我2002年加入谷歌的那年肯定有。John Ousterhout曾说过:线程很糟糕。许多人都同意他的观点,因为线程似乎非常难以使用。


John Ousterhout不喜欢线程

谷歌的软件几乎总是避免使用它们,可以说是彻底禁止使用,而制定这一禁令的工程师引用了Ousterhout的言论。这让我很困扰。自20世纪70年代以来,我一直在做类似的并发事情,有时候甚至没有意识到,在我看来这很强大。但经过反思,很明显Ousterhout犯了两个错误。首先,他的结论超出了他有兴趣使用线程的领域,其次,他主要是在抱怨使用笨拙的低级包如pthread之类的线程,而不是抱怨这一基本思想。

像这样混淆解决方案和问题是世界各地工程师常犯的错误。有时,提出的解决方案比它解决的问题更难,并且很难看到有更简单的路径。但我离题了。

根据经验,我知道有更好的方法来使用线程,或者无论我们选择怎么称呼它们,我甚至在Go语言出现之前就曾就此发表过演讲。


Newsqueak中的并发

但我并不孤单,其他许多语言、论文甚至书籍都表明,并发编程可以做得很好,不仅我知道这一点。它只是还没有在主流中流行起来,Go的诞生部分地就是为了解决这个问题。在那次臭名昭著的45分钟构建中,我试图向一个非线程二进制文件添加一个线程,这非常困难,因为我们使用了错误的工具。

回顾过去,我认为可以公平地说,Go在让编程界相信并发是一种强大工具方面发挥了重要作用,特别是在多核网络世界中,它可以比pthread做得更好。如今,大多数主流语言都对并发提供了很好地支持。


Google 3.0

另外,Go的并发版本在导致它出现的语言线中有些新颖,因为它使goroutine变得平淡无奇。没有协程,没有任务,没有线程,没有名称,只有goroutine。我们发明了“goroutine”这个词,因为没有适合的现有术语。时至今日,我仍然希望Unix的拼写命令可以学会它。

顺便说一句,因为我经常被问到,让我花一分钟时间谈谈async/await。看到async/await模型及其相关风格成为许多语言选择支持并发的方式,我有点难过,但它肯定是对pthreads的巨大改进。

与goroutine、channel和select相比,async/await对语言实现者来说更容易也更小,可以更容易地内建或后移植到现有平台中。但它将一些复杂性推回给了程序员,通常会导致Bob Nystrom所著名的“彩色函数”。


你的函数是什么颜色的

我认为Go表明了CSP这种不同但更古老的模型可以完美地嵌入到过程化语言中,没有这种复杂性。我甚至看到它几次作为库实现。但它的实现,如果做得好,需要显著的运行时复杂性,我可以理解为什么一些人更倾向于不在他们的系统中内置它。不管你提供什么并发模型,重要的是只提供一次,因为一个环境提供多个并发实现可能会很麻烦。Go当然通过把它放在语言中而不是库中解决了这个问题。

关于这些问题可能要讲整场演讲,但目前就这些吧。

并发的另一个价值在于,它使Go看起来像是全新的东西。如我所说,一些其他语言在之前已经支持了它,但它们从未进入主流,而Go对并发的支持是吸引初学者采用的一个主要因素,它吸引了以前没有使用过并发但对其可能性感兴趣的程序员。

这就是我们犯下两个大错误的地方。


耳语的Gopher(Cooperating Sequential Processes)

首先,并发很有趣,我们很高兴拥有它,但我们设想的使用案例大多是服务器相关的,意在在net/http等关键库中完成,而不是在每个程序的所有地方完成。当许多程序员使用它时,他们努力研究它如何真正帮助他们。我们应该一开始就解释清楚,语言中的并发支持真正带到桌面的是更简单的服务器软件。这个问题空间对许多人很重要,但并非所有尝试Go的人都是如此,这点指导不足是我们的责任。

相关的第二点是,我们用了太长时间来澄清并行和并发之间的区别——支持在多核机器上并行执行多个计算,以及一种组织代码的方式,以便很好地执行并行计算。


并发不是并行

无数程序员试图通过使用goroutine来并行化他们的代码以使其更快,但经常对结果中的速度降低感到困惑。仅当基础问题本质上是并行的时候,例如服务HTTP请求,并发代码才会通过并行化而变快。我们在解释这一点上做得很糟糕,结果让许多程序员感到困惑,可能还赶走了一些人。

为了解决这个问题,我在2012年Waza上给Heroku的开发者大会做了一个题为“并发不是并行”的演讲。这是一次很有趣的演讲,但它应该更早发生。

对此表示歉意。但好处仍然存在:Go帮助普及了并发性作为构建服务器软件的一种方式。

接口

很明显,接口与并发都是Go中与众不同的思想。它们是Go对面向对象设计的答案,采用最初关注行为的风格,尽管新来者一直在努力使结构体承担这一角色。

使接口动态化,无需提前宣布哪些类型实现了它们,这困扰了一些早期评论者,并且仍然恼火一小部分人,但它对Go培育的编程风格很重要。大部分标准库都是建立在它们的基础之上的,而更广泛的主题如测试和管理依赖也高度依赖于它们慷慨的“欢迎所有人”的天性。

我觉得接口是Go中设计最好的部分之一。

除了一些早期关于接口定义中是否应该包括数据的讨论之外,它们在讨论的第一天就已经成形。


GIF 解码器:Go接口的练习(Rob Pike和Nigel Tao 2011)

在这个问题上还有一个故事要讲。

在Robert和我的办公室里那著名的第一天,我们讨论了关于多态性应该怎么处理的问题。Ken和我从C语言中知道qsort可以作为一个困难的测试用例,所以我们三个人开始讨论用我们这种初具雏形的语言如何实现一个类型安全的排序例程(routine)。

Robert和我几乎同时产生了同样的想法:在类型上使用方法来提供排序所需的操作。这个概念很快发展成了一个想法,即值类型拥有作为方法定义的行为,一组方法可以提供函数可以操作的接口。Go的接口几乎立即就出现了。


sort.Interface

有一点没人经常提到:Go的sort函数是作为一个在接口上操作的函数实现的。这与大多数人熟悉的面向对象编程风格不同,但这是一个非常强大的想法。

这个想法对我们来说非常激动人心,它可能成为一个基础的编程构造,这令我们陶醉。当Russ Cox加入时,他很快指出了I/O如何完美地融入这个想法,标准库的发展非常迅速,在很大程度上依赖于三个著名的接口:空接口(interface{})、Writer和Reader,每个接口平均包含两个第三个方法。那些微小的方法对Go来说是惯用法,无处不在。

接口的工作方式不仅成为Go的一个显著特性,它们也成为我们思考库、泛型和组合的方式。这是让人兴奋的事情。

但我们在这个问题上停止讨论可能是一个错误。

你看,我们之所以走上这条路,至少在一定程度上是因为我们看到泛型编程太容易鼓励一种倾向于在算法之前首先关注类型的思考方式。过早抽象而不是有机设计。容器而不是函数。

我们在语言中正确定义了通用容器——map,切片,数组,channel——而不给程序员访问它们所包含的泛型。这可以说是一个错误。我们相信,我认为仍然正确的是,大多数简单的编程任务可以很好地由这些类型来处理。但有一些不能,语言提供的和用户可以控制的之间的障碍肯定困扰了一些人。

简而言之,尽管我不会改变接口的任何工作方式,但它们以需要十多年时间才能纠正的方式影响了我们的思维。Ian Taylor从一开始就推动我们面对这个问题,但在接口作为Go编程基石的情况下,这是相当困难的。

评论者经常抱怨我们应该使用泛型,因为它们“很简单”,在某些语言中可能确实如此,但接口的存在意味着任何新的多态形式都必须考虑到它们。找到一种可以与语言的其余部分很好地协同工作的前进方法需要多次尝试,几次中止的实现,以及许多小时、天数和周数的讨论。最终,在Phil Wadler的带领下,我们召集了一些类型理论家来提供帮助。即使在语言中有了可靠的泛型模型,作为方法集存在的接口也仍然存在一些遗留问题。


泛型版sort

如你所知,最终的答案是设计一个可以吸收更多多态形式的接口泛化,从“方法集合”过渡到“类型集合”。这是一个微妙但深刻的举措,大多数社区似乎都可以接受,尽管我怀疑抱怨声永远不会停止。

有时候要花很多年的时间来弄清楚一些事情,或者甚至弄清楚你并不能完全弄明白它。但你还是要继续前进。

顺便说一句,我希望我们有一个比“泛型”更好的术语,它起源于表示一种不同的数据结构中心多态风格。“参数多态”是Go提供的该功能的正确术语,这是一个准确的术语,但它难听。于是我们依然说“泛型”,尽管它不太恰当。

编译器

困扰编程语言社区的一件事是,早期的Go编译器是用C语言编写的。在他们看来,正确的方式是使用LLVM或类似的工具包,或者用Go语言本身编写编译器,这称为自举。我们没有做这两者中的任何一种,原因有几个。

首先,自举一种新语言要求至少其编译器的第一步必须用现有语言完成。对我们来说,C语言是显而易见的选择,因为Ken已经编写了C编译器,并且其内部结构可以很好地作为Go编译器的基础。此外,用自己的语言编写编译器,同时开发该语言,往往会产生一种适合编写编译器的语言,但这不是我们想要的语言。

早期的编译器工作良好,它可以很好地引导语言。但从某种意义上说,它有点奇怪,实际上它是一个Plan 9风格的编译器,使用旧的编译器编写思想,而不是新的思想,如静态单一赋值(SSA)。生成的代码平庸,内部不太漂亮。但它是务实高效的,编译器代码本身体积适中,对我们来说也很熟悉,这使得我们在尝试新想法时可以快速进行更改。一个关键步骤是添加自动增长的分段堆栈。这很容易添加到我们的编译器中,但是如果我们使用像LLVM这样的工具包,考虑到ABI和垃圾收集器支持所需的更改,将这种更改集成到完整的编译器套件中是不可行的。

另一个工作良好的区域是交叉编译,这直接来自原始Plan 9编译器套件的工作方式。

按照我们的方式行事,无论多么非正统,都有助于我们快速前进。有些人对这一选择感到冒犯,但这对当时的我们来说是正确的选择。


Go 1.5之后的Go编译器架构

对于Go 1.5版本,Russ Cox编写了一个工具,可以半自动将编译器从C转换为Go。到那时,语言已经完成,编译器导向的语言设计的担忧也就无关紧要了。有一些关于这个过程的在线演讲值得一看。我在2016年的GopherCon上做了一个关于汇编器的演讲,这在我毕生追求可移植性的过程中是一个高点。


Go汇编器设计(GopherCon 2016)

我们从C开始做了正确的事情,但最终将编译器翻译为Go,使我们能够将Go所具有的所有优势带到其开发中,包括测试、工具、自动重写、性能分析等。当前的编译器比原始编译器干净得多,并且可以生成更好的代码。但是,当然,这就是自举的工作原理。

请记住,我们的目标不仅仅是一种语言,而是更多。

我们不寻常的做法绝不是对LLVM或语言社区中任何人的侮辱。我们只是使用了最适合我们任务的工具。当然,今天有一个LLVM托管的Go编译器,以及许多其他应该有的编译器。

项目管理

我们从一开始就知道,要成功,Go必须是一个开源项目。但我们也知道,在弄清楚关键的思想和有一个工作的实现之前,私下开发会更高效。头两年对澄清我们在试图实现什么,而不受干扰,是必不可少的。

向开源的转变是一个巨大的改变,也很具教育意义。来自社区的投入是压倒性的。与社区的接触花费了大量的时间和精力,尤其是对Ian,不知怎么他找到时间来回答任何人提出的每一个问题。但它也带来了更多。我仍然惊叹在Alex Brainman的指导下,社区完全独立完成的Windows移植的速度。那很神奇。

我们花了很长时间来理解转向开源项目的影响,以及如何管理它。

特别是,公平地说,我们花了太长时间来理解与社区合作的最佳方式。本次演讲的一个主题是我们的沟通不足——即使我们认为我们正在进行良好沟通——由于误解和不匹配的期望,大量时间被浪费了。本可以做得更好。

但是,随着时间的推移,我们说服了社区中的至少那一部分和我们在一起的人,我们的一些想法,虽然与常见的开源方式不同,但具有价值。最重要的是我们坚持通过强制代码审查和对细节的穷尽关注来维护高质量代码


Mission Control (drawing by Renee French)

一些项目的工作方式不同,它们快速接受代码,然后在提交后进行清理。Go项目则相反,力图将质量放在第一位。我相信这是更有效的方式,但它将更多的工作推回社区,如果他们不理解其价值,他们就不会感到应有的欢迎。在这方面还有很多东西要学习,但我相信现在的情况已经好多了。

顺便说一句,有一个历史细节不是广泛为人知的。该项目使用过4个不同的内容管理系统:SVN、Perforce、Mercurial和Git。Russ Cox做了一份艰巨的工作,保留了所有历史,所以即使今天,Git仓库也包含了在SVN中做出的最早的更改。我们都认为保留历史很有价值,我要感谢他做了这项艰苦的工作。

还有一点。人们经常认为谷歌会告诉Go团队该做什么。这绝对不是真的。谷歌对Go的支持非常慷慨,但它不制定议程。社区的投入要大得多。谷歌内部有一个巨大的Go代码库,团队用它来测试和验证版本,但这是通过从公共仓库导入谷歌完成的,而不是反过来。简而言之,核心Go团队由谷歌支付薪水,但他们是独立的。

包管理

Go的包管理开发过程做得并不好。我相信,语言本身的包设计非常出色,并且在我们讨论的第一年左右的时间里消耗了大量的时间。如果你感兴趣的话,我之前提到的SPLASH演讲详细解释了它为什么会这样工作。

一个关键点是使用纯字符串来指定导入语句中的路径,从而提供了我们正确认为很重要的灵活性。但从只有一个“标准库”到从网络导入代码的转变是坎坷的。


修复云(Renee French 绘制)

有两个问题。

首先,我们这些Go核心团队的成员很早就熟悉Google的工作方式,包括它的monorepo(单一代码仓库)和每个人都在负责构建。但是我们没有足够的经验来使用具有大量包版本的包管理器以及尝试解决依赖关系图的非常困难的问题。直到今天,很少有人真正理解技术的复杂性,但这并不能成为我们未能从一开始就解决这些问题的借口。这尤其令人尴尬,因为我曾是一个失败项目的技术负责人,为谷歌的内部构建做类似的事情,我应该意识到我们面临的是什么。


deps.dev

我在deps.dev上的工作是一种忏悔。

其次,让社区参与帮助解决依赖管理问题的初衷是好的,但当最终设计出来时,即使有大量的文档和有关理论的文章,社区中的许多人仍然感到受到了轻视。


pkg.go.dev

这次失败给团队上了一课,让他们知道如何真正与社区互动,并且自此取得了很大的进步。

不过,现在事情已经解决了,新的设计在技术上非常出色,并且似乎对大多数用户来说效果很好。只是时间太长,而且道路崎岖不平。

文档和示例

我们事先没有得到的另一件事是文档。我们写了很多文档,并认为我们做得很好,但很快就发现社区想要的文档级别与我们的预期不同。


修理图灵机的Gopher(Renee French 绘图)

关键缺失的一部分是最简单函数的示例。我们曾以为只需说明某个东西的功能就足够了,但我们花费了太长时间才接受到展示如何使用它的价值更大。


可执行的例子

不过,我们已经吸取了教训。现在文档中有很多示例,大部分是由开源贡献者提供的。我们很早就做的一件事就是让它们在网络上可执行。我在2012年的Google I/O大会上做了一次演讲,展示了并发的实际应用,Andrew Gerrand 编写了一段可爱的Web goo,使得直接从浏览器运行代码片段成为可能。我怀疑这是第一次这样做,但Go是一种编译语言,很多观众以前从未见过这个技巧。然后该技术被部署到博客和在线包文档中。


Go playground

也许更重要的是我们对Go Playground的支持,这是一个免费的开放沙箱,供人们尝试,甚至开发代码。

结论

我们已经走了很长一段路。

回顾过去,很明显很多事情都做得对,并且它们都帮助Go取得了成功。但还有很多事情可以做得更好,重要的是要承认这些问题并从中学习。对于任何托管重要开源项目的人来说,双方都有教训。

我希望我对这些教训及其原因的历史回顾会有所帮助,也许可以作为对那些反对我们正在做的事情和我们如何做的人的一种道歉/解释。


GopherConAU 2023 吉祥物,作者:Renee French

但在推出 14 年后,我们终于来了。公平地说,总的来说这是一个非常好的地方。

很大程度上是因为通过设计和开发Go作为一种编写软件的方式(而不仅仅是作为一种编程语言)做出的决定,我们已经到达了一个新的地方。

我们到达这里的部分原因包括:

  • 一个强大的标准库,可实现服务器代码所需的大部分基础知识
  • 并发作为该语言的“一等公民”
  • 基于组合而不是继承的方法
  • 澄清依赖管理的打包模型
  • 集成的快速构建和测试工具
  • 严格一致的代码格式
  • 注重可读性而非聪明性
  • 兼容性保证

最重要的是,得益于令人难以置信的乐于助人且多元化的Gophers社区的支持。


多元化的社区(@tenntennen 绘图)

也许这些问题最有趣的结果是,无论是谁编写的Go代码的外观和工作原理都是一样的,基本上没有使用该语言的不同子集的派系,并且保证随着时间的推移代码可继续编译和运行。对于主要编程语言来说,这可能是第一次。

我们绝对做对了。

谢谢。


“Gopher部落”知识星球旨在打造一个精品Go学习和进阶社群!高品质首发Go技术文章,“三天”首发阅读权,每年两期Go语言发展现状分析,每天提前1小时阅读到新鲜的Gopher日报,网课、技术专栏、图书内容前瞻,六小时内必答保证等满足你关于Go语言生态的所有需求!2024年,Gopher部落将进一步聚焦于如何编写雅、地道、可读、可测试的Go代码,关注代码质量并深入理解Go核心技术,并继续加强与星友的互动。欢迎大家加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格5$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

如发现本站页面被黑,比如:挂载广告、挖矿等恶意代码,请朋友们及时联系我。十分感谢! Go语言第一课 Go语言精进之路1 Go语言精进之路2 Go语言编程指南
商务合作请联系bigwhite.cn AT aliyun.com

欢迎使用邮件订阅我的博客

输入邮箱订阅本站,只要有新文章发布,就会第一时间发送邮件通知你哦!

这里是 Tony Bai的个人Blog,欢迎访问、订阅和留言! 订阅Feed请点击上面图片

如果您觉得这里的文章对您有帮助,请扫描上方二维码进行捐赠 ,加油后的Tony Bai将会为您呈现更多精彩的文章,谢谢!

如果您希望通过微信捐赠,请用微信客户端扫描下方赞赏码:

如果您希望通过比特币或以太币捐赠,可以扫描下方二维码:

比特币:

以太币:

如果您喜欢通过微信浏览本站内容,可以扫描下方二维码,订阅本站官方微信订阅号“iamtonybai”;点击二维码,可直达本人官方微博主页^_^:
本站Powered by Digital Ocean VPS。
选择Digital Ocean VPS主机,即可获得10美元现金充值,可 免费使用两个月哟! 著名主机提供商Linode 10$优惠码:linode10,在 这里注册即可免费获 得。阿里云推荐码: 1WFZ0V立享9折!


View Tony Bai's profile on LinkedIn
DigitalOcean Referral Badge

文章

评论

  • 正在加载...

分类

标签

归档



View My Stats