标签 AI 下的文章

构建高效的AI智能体[译]

本文永久链接 – https://tonybai.com/2025/03/11/building-effective-agents

近来,人工智能领域再次风起云涌,各种能力超强的大模型、创新概念和工具层出不穷,让人目不暇接。从DeepSeek发布的开源MoE 模型DeepSeek-V3和令人惊艳的具备深度思考能力的推理模型DeepSeek R1,到声称是“世界上第一个通用AI智能体(Agent)”的Manus以及其开源复刻品OpenManus,再到Anthropic推出让业界大牛程序员Steve Yegge都感到惊叹的Claude Code代码辅助编写Agent工具以及其使用的模型上下文协议(MCP),以及Docker之父Solomon Hykes的Dagger项目转型构建AI Agent工具,无不预示着AI Agent时代的加速到来。

在这一波澜壮阔的技术浪潮中,如何构建高效、可靠且易于维护的AI Agent系统,成为了开发者们共同关注的焦点。Anthropic作为大模型领域的领军企业之一,其在构建AI Agent方面的经验和见解,无疑具有重要的参考价值。

本文翻译自Anthropic官方博客文章《Building Effective AI Agents》,旨在分享Anthropic在与客户合作以及自身实践中总结出的AI Agent构建经验。原文深入探讨了Agentic Systems的概念、架构、常见模式、最佳实践以及工具开发等关键问题,并提供了实用的建议和案例。

选择翻译这篇文章,不仅仅是因为它内容翔实、具有指导意义,更是出于“翻译中学习,学习中翻译”的初衷。通过对原文的翻译,同时也是一次深入学习和理解AI Agent构建技术的绝佳机会。希望本文的翻译能够为广大中文读者提供有益的参考,共同探索AI Agent的无限可能。

注:原文发表于2024年12月中旬,网络上有过很多中文译版,如果你曾阅读过那些文章,你大可忽略本篇文章。

以下是文章正文。


在过去的一年里,我们与数十个团队合作,在各个行业构建大型语言模型 (LLM) 智能体 (Agents)。最成功的那些实现并没有使用复杂的框架或专用库。相反,他们都是使用简单、可组合的模式进行构建的。

在这篇文章中,我们将分享与客户合作和自行构建智能体过程中所学到的知识,并为开发者提供构建高效智能体的实用建议。

什么是智能体?

“智能体(Agent)” 可以有多种定义方式。一些客户将智能体定义为完全自主的系统,它们可以在较长时间内独立运行,使用各种工具来完成复杂的任务。另一些客户则使用该术语来描述遵循预定义工作流的更规范性的实现。在Anthropic,我们将所有这些变体归类为智能体系统(agentic systems),但在工作流(workflows)智能体(agents)之间做了重要的架构区分:

  • 工作流是通过预定义的代码路径编排LLM和工具的系统。
  • 智能体则是LLM动态指导自身流程和工具使用的系统,控制它们完成任务的方式。

下面,我们将详细探讨这两种类型的智能体系统。在附录1(“智能体的实践应用”)中,我们描述了客户发现使用这些系统特别有价值的两个领域。

何时(以及何时不)使用智能体

在使用LLM构建应用程序时,我们建议找到尽可能简单的解决方案,并且仅在需要时才增加复杂性。这可能意味着根本不需要构建智能体系统。智能体系统通常会牺牲延迟和成本来换取更好的任务性能,你应该考虑这种权衡何时有意义。

当需要更多复杂性时,工作流为定义明确的任务提供可预测性和一致性,而当需要大规模的灵活性和模型驱动的决策时,智能体是更好的选择。然而,对于许多应用程序来说,使用检索和上下文示例优化单个LLM调用通常就足够了。

何时以及如何使用框架

有许多框架可以更容易地实现智能体系统,包括:

  • LangChain的LangGraph
  • Amazon Bedrock的AI Agent framework
  • Rivet,一个拖放式GUI LLM工作流构建器;以及
  • Vellum,另一个用于构建和测试复杂工作流的GUI工具。

这些框架通过简化标准低级任务(如调用LLM、定义和解析工具以及将调用链接在一起)使入门变得容易。然而,它们通常会创建额外的抽象层,这可能会掩盖底层的提示和响应,使它们更难调试。它们还可能诱使在更简单的设置就足够的情况下增加复杂性。

我们建议开发者首先直接使用LLM API:许多模式可以在几行代码中实现。如果你确实使用了框架,请确保你了解底层代码。对底层内容的错误假设是客户错误的常见来源。

请参阅我们的cookbook 以获取一些示例实现。

构建块(Building Blocks)、工作流和智能体

在本节中,我们将探讨我们在生产中看到的智能体系统的常见模式。我们将从基础构建块——增强型LLM——开始,并逐步增加复杂性,从简单的组合工作流到自主智能体。

构建块:增强型LLM

智能体系统的基本构建块是经过增强的LLM,增强功能包括检索、工具和记忆。我们目前的模型可以主动使用这些功能——生成自己的搜索查询、选择合适的工具以及确定要保留的信息。


图:增强型LLM

我们建议重点关注实现的两个关键方面:根据你的特定用例定制这些功能,并确保它们为你的LLM提供简单、文档齐全的接口。虽然有很多方法可以实现这些增强,但有一种方法是通过我们最近发布的Model Context Protocol,它允许开发者通过简单的客户端实现 与不断增长的第三方工具生态系统集成。

在本文的其余部分,我们将假设每次LLM调用都可以访问这些增强功能。

工作流:提示链(Prompt Chaining)

提示链将任务分解为一系列步骤,其中每个LLM调用处理前一个调用的输出。你可以在任何中间步骤上添加程序化检查(参见下图中的“Gate”),以确保流程仍在正轨上。


图:提示链工作流

何时使用此工作流: 当任务可以轻松干净地分解为固定的子任务时,此工作流非常理想。主要目标是通过使每个LLM调用成为更简单的任务来权衡延迟以获得更高的准确性。

提示链有用的示例:

  • 生成营销文案,然后将其翻译成不同的语言。
  • 编写文档大纲,检查大纲是否符合特定条件,然后根据大纲编写文档。

工作流:路由(Routing)

路由对输入进行分类并将其定向到专门的后续任务。此工作流允许分离关注点,并构建更专业的提示。如果没有此工作流,针对一种类型的输入进行优化可能会损害其他输入的性能。


图:路由工作流

何时使用此工作流: 路由适用于存在不同类别的复杂任务,这些类别最好单独处理,并且可以使用LLM或更传统的分类模型/算法准确地进行分类。

路由有用的示例:

  • 将不同类型的客户服务查询(一般问题、退款请求、技术支持)定向到不同的下游流程、提示和工具。
  • 将简单/常见问题路由到较小的模型(如Claude 3.5 Haiku),将困难/不常见问题路由到功能更强大的模型(如Claude 3.5 Sonnet),以优化成本和速度。

工作流:并行化(Parallelization)

LLM有时可以并行处理多个任务,并以编程方式聚合它们的输出。这种工作流(并行化)体现在两个关键变体中:

  • 分段(Sectioning):将任务分解为并行运行的独立子任务。
  • 投票(Voting):多次运行同一任务以获得不同的输出。


图:并行化工作流

何时使用此工作流: 当可以将划分的子任务并行化以提高速度,或者需要多个视角或尝试以获得更高置信度的结果时,并行化是有效的。对于具有多个考虑因素的复杂任务,LLM通常在每个考虑因素由单独的LLM调用处理时表现更好,从而可以集中关注每个特定方面。

并行化有用的示例:

  • 分段
    • 实现防护措施,其中一个模型实例处理用户查询,而另一个模型实例筛选不当内容或请求。这往往比让同一个LLM调用同时处理护栏和核心响应效果更好。
    • 自动评估LLM性能,其中每个LLM调用评估模型在给定提示上的性能的不同方面。
  • 投票
    • 审查一段代码是否存在漏洞,其中几个不同的提示会审查代码,如果发现问题则标记。
    • 评估给定内容是否不当,其中多个提示评估不同的方面或需要不同的投票阈值来平衡误报和漏报。

工作流:编排器-工作者(Orchestrator-Workers)

在编排器-工作者工作流中,中央LLM动态分解任务,将它们委托给工作者LLM,并综合它们的结果。


图:编排器-工作者工作流

何时使用此工作流: 此工作流非常适合你无法预测所需子任务的复杂任务(例如,在编码中,需要更改的文件数量以及每个文件中更改的性质可能取决于任务)。虽然在拓扑上相似,但它与并行化工作流的关键区别在于其灵活性——子任务不是预先定义的,而是由编排器根据特定输入确定的。

编排器-工作器有用的示例:

  • 每次对多个文件进行复杂更改的编码产品。
  • 搜索任务涉及收集和分析来自多个来源的信息以获取可能的相关信息。

工作流:评估器-优化器(Evaluator-Optimizer)

在评估器-优化器工作流中,一个LLM调用生成响应,而另一个LLM调用提供循环评估和反馈。


图:评估器-优化器工作流

何时使用此工作流: 当我们有明确的评估标准,并且迭代改进提供可衡量的价值时,此工作流特别有效。良好匹配的两个迹象是,首先,当人类阐明他们的反馈时,LLM响应可以得到明显改善;其次,LLM可以提供此类反馈。这类似于人类作家在撰写精美文档时可能经历的迭代写作过程。

评估器-优化器有用的示例:

  • 文学翻译,其中存在翻译器LLM最初可能无法捕捉到的细微差别,但评估器LLM可以提供有用的批评。
  • 复杂的搜索任务,需要多轮搜索和分析才能收集全面的信息,评估器决定是否需要进一步搜索。

智能体(Agents)

随着LLM在关键功能(理解复杂输入、参与推理和规划、可靠地使用工具以及从错误中恢复)方面的成熟,智能体正在生产中出现。智能体通过人类用户的命令或交互式讨论开始其工作。一旦任务明确,智能体就会独立计划和操作,可能会返回给人类以获取更多信息或判断。在执行期间,智能体在每个步骤中从环境中获得“真实情况”(例如工具调用结果或代码执行)以评估其进度。然后,智能体可以在检查点或遇到障碍时暂停以获取人类反馈。任务通常在完成后终止,但通常也包含停止条件(例如最大迭代次数)以保持控制。

智能体可以处理复杂的任务,但它们的实现通常很简单。它们通常只是LLM在循环中根据环境反馈使用工具。因此,清晰而周到地设计工具集及其文档至关重要。我们在附录2(“提示工程你的工具”)中扩展了工具开发的最佳实践。


图:自主智能体

何时使用智能体: 智能体可用于难以或无法预测所需步骤数量的开放式问题,以及你无法硬编码固定路径的问题。LLM可能会运行多个回合,你必须对其决策制定有一定程度的信任。智能体的自主性使其成为在受信任环境中扩展任务的理想选择。

智能体的自主性意味着更高的成本,以及潜在的复合错误。我们建议在沙盒环境中进行广泛测试,并采取适当的护栏。

智能体有用的示例:

以下示例来自我们自己的实现:


图:编码智能体的高层次抽象流程

组合和定制这些模式

这些构建块不是规定性的。它们是开发人员可以塑造和组合以适应不同用例的常见模式。与任何LLM功能一样,成功的关键在于衡量性能并迭代实现。再次强调:你应该考虑仅在可以证明改进结果时才增加复杂性

总结

LLM领域的成功不在于构建最复杂的系统。它在于构建适合你需求的系统。从简单的提示开始,通过全面的评估优化它们,并且仅在更简单的解决方案不足时才添加多步骤智能体系统。

在实施智能体时,我们尝试遵循三个核心原则:

  1. 在智能体的设计中保持简单性
  2. 通过明确显示智能体的规划步骤来优先考虑透明度
  3. 通过彻底的工具文档和测试来仔细设计你的智能体-计算机接口(ACI)。

框架可以帮助你快速入门,但在转向生产时,请毫不犹豫地减少抽象层并使用基本组件进行构建。通过遵循这些原则,你可以创建不仅强大而且可靠、可维护并受到用户信任的智能体。

致谢

本文由Erik Schluntz和Barry Zhang撰写。这项工作借鉴了我们在Anthropic构建智能体的经验以及客户分享的宝贵见解,我们对此深表感谢。

附录1:智能体的实际应用

我们与客户的合作揭示了AI智能体的两个特别有前景的应用,它们展示了上述模式的实用价值。这两个应用都说明了智能体如何为需要对话和行动、具有明确的成功标准、启用反馈循环以及集成有意义的人类监督的任务增加最大价值。

A. 客户支持

客户支持将熟悉的聊天机器人界面与通过工具集成增强的功能相结合。这非常适合更开放式的智能体,因为:

  • 支持交互自然地遵循对话流程,同时需要访问外部信息和操作;
  • 可以集成工具来提取客户数据、订单历史记录和知识库文章;
  • 可以以编程方式处理诸如发放退款或更新工单之类的操作;以及
  • 可以通过用户定义的解决方案明确衡量成功。

一些公司已经通过基于使用量的定价模型证明了这种方法的可行性,该模型仅对成功的解决方案收费,表明对他们智能体的有效性充满信心。

B. 编码智能体

软件开发领域已经显示出LLM功能的巨大潜力,其功能从代码完成发展到自主解决问题。智能体特别有效,因为:

  • 代码解决方案可以通过自动化测试进行验证;
  • 智能体可以使用测试结果作为反馈来迭代解决方案;
  • 问题空间定义明确且结构化;以及
  • 可以客观地衡量输出质量。

在我们自己的实现中,智能体现在可以根据拉取请求描述本身解决SWE-bench Verified 基准测试中的真实GitHub问题。然而,虽然自动化测试有助于验证功能,但人工审查对于确保解决方案与更广泛的系统要求保持一致仍然至关重要。

附录2:提示工程你的工具

无论你构建哪种智能体系统,工具都可能是智能体的重要组成部分。工具 使Claude能够通过在我们的API中指定其确切结构和定义来与外部服务和API交互。当Claude响应时,如果它计划调用工具,它将在API响应中包含一个工具使用块。工具定义和规范应该像你的整体提示一样受到提示工程的重视。在这个简短的附录中,我们将描述如何提示工程化你的工具。

通常有几种方法可以指定相同的操作。例如,你可以通过编写diff或重写整个文件来指定文件编辑。对于结构化输出,你可以在markdown或JSON中返回代码。在软件工程中,像这样的差异是表面上的,并且可以从一种格式无损地转换为另一种格式。然而,某些格式比其他格式更难让LLM编写。编写diff需要在编写新代码之前知道块头(chunk header)中更改的行数。在JSON中编写代码(与markdown相比)需要对换行符和引号进行额外的转义。

我们对决定工具格式的建议如下:

  • 给模型足够的token来“思考”,然后再将自己逼入绝境。
  • 保持格式接近模型在互联网文本中自然看到的内容。
  • 确保没有格式“开销”,例如必须准确计算数千行代码,或对它编写的任何代码进行字符串转义。

一个经验法则是考虑在人机界面(HCI)上投入了多少精力,并计划在创建良好的智能体-计算机界面 (ACI) 上投入同样多的精力。以下是关于如何做到这一点的一些想法:

  • 设身处地为模型着想。根据描述和参数,是否明显知道如何使用此工具,或者你是否需要仔细考虑?如果是这样,那么对于模型来说可能也是如此。一个好的工具定义通常包括示例用法、边缘情况、输入格式要求以及与其他工具的明确边界。
  • 你如何更改参数名称或描述以使事情更明显?将其视为为你团队中的初级开发人员编写出色的文档字符串。在使用许多类似的工具时,这一点尤其重要。
  • 测试模型如何使用你的工具:在我们的workbench中运行许多示例输入,以查看模型犯了哪些错误,并进行迭代。
  • 防呆(Poka-yoke) 你的工具。更改参数以使其更难出错。

在为SWE-bench 构建我们的智能体时,我们实际上花了更多时间优化我们的工具而不是整体提示。例如,我们发现,在智能体移出根目录后,使用相对文件路径的工具会出现错误。为了解决这个问题,我们将工具更改为始终需要绝对文件路径——并且我们发现模型完美地使用了这种方法。


Gopher部落知识星球在2025年将继续致力于打造一个高品质的Go语言学习和交流平台。我们将继续提供优质的Go技术文章首发和阅读体验。并且,2025年将在星球首发“Go陷阱与缺陷”和“Go原理课”专栏!此外,我们还会加强星友之间的交流和互动。欢迎大家踊跃提问,分享心得,讨论技术。我会在第一时间进行解答和交流。我衷心希望Gopher部落可以成为大家学习、进步、交流的港湾。让我相聚在Gopher部落,享受coding的快乐! 欢迎大家踊跃加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格6$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily
  • Gopher Daily Feed订阅 – https://gopherdaily.tonybai.com/feed

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

2024年Go语言盘点:排名历史新高,团队新老传承

本文永久链接 – https://tonybai.com/2024/01/06/the-2024-review-of-go-programming-language

2024年底,由于感染了甲流,我在家卧床休息了两天,原定于2024年进行的Go语言盘点写作因此被迫推迟。不过,我始终相信:迟到但不会缺席。在2025年元旦的第一天,我终于开始了这篇博客的撰写。

时间过得真快,《2023年Go语言盘点:稳中求新,稳中求变》依然历历在目。转眼之间,一年365天过去了,发生了许多事情,甚至有些记忆已在脑海中模糊或消逝。在这里,我将带你盘点那些关于Go的重要时刻,唤起你对Go的美好回忆。

回顾整个2024年,如果非要用一句话来形容Go语言的状态,我会选择:Go完成了技术成熟度曲线中的“稳步爬升复苏期”,开始进入“生产成熟期”。这一点在Go的排名中得到了直接体现,并在Go社区的活跃度方面得到了间接的印证。而Go的年中换帅似乎也预示着这是一个新的起点!在过去一年中,得益于Go团队和社区的共同努力,Go发布了许多值得关注的新特性。

接下来,我将为大家逐一详细介绍!

1. Go排名创历史新高

说到编程语言排名,程序员们首先想到的就是TIOBE!在2024年的TIOBE排行榜上,尽管Go语言没有像AI时代的霸主语言Python那样耀眼,但跻身前十并站稳第七名这一成绩也足以让其他语言羡慕不已!


图:2024年12月TIOBE排名TOP 10

而从2009年开源至今,Go在TIOBE排名走势如下:


图:2010年-2024年TIOBE排行榜Go语言走势

了解Go历史的朋友都知道,Go语言真正具备生产级成熟度是从2015年的Go 1.5版本开始的。按照技术成熟度曲线的划分,2015年之前及其后的一段时间可以视为技术萌芽期。从曲线中可以看出,2017年时达到了期望膨胀期的峰值。此后,Go经历了一段“漫长”的泡沫破裂低谷期以及稳步爬升的复苏期。从2023年开始,到2024年末,Go语言复苏的速度日益加快!目前来看,如无意外,Go将进入技术成熟度曲线的下一阶段:生产成熟期!我曾提到过:绝大多数主流编程语言将在其诞生后的第15至第20年间大步前进。按照这个编程语言的一般规律,刚刚迈过开源第15个年头的Go刚刚迈进自己的黄金5-10年。

当然,单看TIOBE单一榜单似乎说服力不足,我们再来看看今年的Github octoverse报告。在这份报告中,Go依旧稳居github热门编程语言前10(如下图),这一位置已经保持了三年多了!


图:2024年Github最热门编程语言排行榜

此外,在2024年年中发布的“IEEE Spectrum 2024编程语言排行榜”中,Go在Spectrum排名和Trending排名中分列第8位和第7位。

除了排行榜之外,通过Reddit中编程语言论坛的活跃度也可以看出Go语言在全球的受欢迎程度和用户广度。以下是2025年1月1日Reddit上最活跃的9门编程语言子论坛的实时状态截图:


图:2025.1.1 Reddit编程语言子论坛状态对比

我们看到Go子论坛在成员数量和某一时刻的在线人数上都表现良好。此外,如果你是长期关注Reddit Go论坛的Gopher,一定注意到自2024年初以来,Go论坛的人气迅速增长,日均帖子数相比前两年显著增加,其中很多都是新加入Go阵营的初学者!

注:Rust的人气是真高啊,online人数断崖领先!

编程语言技术大会是衡量语言流行度和受欢迎程度的另一重要风向标。自从全球从新冠疫情中恢复后,GopherCon逐渐在各地线下恢复,到了2024年基本回到了疫情前的状态,甚至在一些地方的GopherCon还超越了以往的受欢迎程度。例如,2024年GopherCon欧洲大会破例举办了两次。此外,首届在非洲举行的GopherCon Africa也于2024年10月份在肯尼亚首都内罗毕成功举行!唯一的遗憾是GopherChina在2024年缺席,这或许与国内的经济形势有关。

Go的增长趋势来的有些快,不知道是否是得益于AI应用的快速发展!但就像Go团队前成员Jaana Dogan(Rakyll)所说的那样:

Go将成为AI时代重要的AI应用开发语言!AI大模型三强:OpenAI、Claude和Google都提供了对Go SDK的官方支持:

  • OpenAI Go SDK – https://github.com/openai/openai-go
  • Claude GO SDK – https://github.com/anthropics/anthropic-sdk-go
  • Google AI Go SDK – https://github.com/google/generative-ai-go

此外,提到Go和AI大模型,我们不得不提及一个重量级的开源项目——Ollama,它可以说是当前私有部署和使用开源大模型的事实标准!在2024年的用户调查报告中,Go团队还特别关注了用户对使用Go开发AI应用的需求,并将AI应用开发视为Go应用的下一个重要赛道。此外,Russ Cox也积极参与这一领域,开源了专用于开源项目运营维护的AI机器人:Oscar,同时探索Go在AI领域的应用。

如果说Go的排名再创新高让Gopher和Go社区对Go充满了更多自信,那么Go团队的换帅则向整个编程语言界展示了团队的传承与发展!

2. Go团队换帅展示团队传承

对于Go团队来说,2024年的最大的事件不是Go 1.22Go 1.23的发布,而是团队换帅

2024年中旬,Go团队的技术负责人Russ Cox宣布,他将于2024年9月1日起卸任Go项目的技术领导职务。自2008年参与Go项目以来,Russ于2012年成为其技术负责人。在过去的12年里,他引领Go语言从一个实验性项目成长为当今最受欢迎的编程语言之一。在他的带领下,Go凭借简洁的语法、高效的并发模型和强大的标准库赢得了众多开发者的青睐,并在云计算、微服务和DevOps等领域得到了广泛应用。

Russ分享了他卸任的想法,表示这一决定是经过深思熟虑的,是自然发展的结果。他认为,尽管长期稳定的领导对大型项目至关重要,但领导层的变动也能为项目注入新的活力和视角。他强调,定期更换领导者是非常重要的,这有助于引入新思想并防止项目陷入停滞。

接替Russ Cox的是Austin Clements,他将成为新的Go技术负责人,同时领导Google的Go团队和整个Go项目。Austin自2014年起就在Google从事与Go相关的工作,拥有丰富的经验和深厚的技术背景。同时,Cherry Mui将接手负责编译器和运行时等“Go核心”领域的工作。Cherry自2016年加入Google,在Go的核心开发领域表现出色。Russ Cox对这两位新领导给予了高度评价,称赞他们具备卓越的判断力以及对Go语言和其运行系统的广泛而深入的理解。

通过9月份到12月份的角色过期期的观察来看,两位“新负责人”的表现是中规中矩,沿袭了Russ Cox之前确定的Go项目管理框架,Cherry Mui在Go core领域表现的十分积极,这从”Go compiler and runtime meeting notes“的记录中可见一斑!

第333期GoTime播客中,两位新leader也初步分享了他们对后续Go演进的一些想法。

Austin强调,虽然Go保持着稳定和简洁,但它必须继续演进。他的首要目标之一是改善Go的可扩展性,无论是在开发过程中还是在背后的工程流程中。他希望通过提高透明度和扩大社区参与度,赋能社区,创建一个能够更好整合用户反馈的平台(可能是一个论坛),使贡献者能够开发与核心团队目标一致的工具和解决方案。在性能改进方面,Austin长期致力于优化Go的垃圾回收系统,目前正在试验一种新算法,幽默地称其为“绿茶”,旨在优化资源使用,进一步提升Go在越来越大系统上的扩展能力。

Cherry则指出,Go的用户基础正在快速增长,而核心团队的资源却有限。她的任务是确保Go平台能够支持这一日益增长的社区,无论是通过构建更好的API还是平台,帮助用户在Go的基础上开发更强大的工具和解决方案。在技术扩展性方面,Cherry也表达了自己的关注。随着计算能力的提升,核心数量和内存容量不断增加,Go需要适应,以高效处理更大的工作负载。Cherry表示,她非常期待与社区中的工程师合作,解决这些挑战,保持Go简单且可扩展的声誉。

从两位领导的想法与目标中,我们可以看到Go团队传承的文化。对于这样的“换帅”,Go社区应充满信心。

注:GoTime博客在完成其第340期内容后,因平台方Changelog的变动宣布停播了!

3. Go Release新特性一览

对于已经过了15个生日的Go来说,其演进的节奏已经非常稳定和成熟了。2024年,Go平稳地发布了两个重要版本:Go 1.22和Go 1.23。下面我们就来简单浏览一下这两个版本的主要新特性。

3.1 Go 1.22主要新特性

语言特性

  • loopvar语义修正:for循环中通过短声明定义的循环变量,由整个循环共享一个实例变为每次迭代定义一个实例。这是 Go 语言发展历史上第一次真正的填语义层面的“坑”。
  • for range支持整型表达式:for range循环可以遍历整型范围,如for i := range 10。

编译器和运行时

  • PGO优化增强:基于PGO的构建可以实现更高比例的调用去虚拟化(devirtualize),带来性能提升。
  • 编译器优化:编译器可以更多地运用devirtualize和inline技术进行优化。
  • 运行时优化:运行时可以使基于类型的垃圾收集的元数据更接近每个堆对象,从而降低CPU和内存开销。

工具链

  • go work支持vendor:go work命令可以管理vendor目录,并且支持使用go build -mod=vendor构建。
  • go mod init改进:不再尝试导入其他vendor工具(比如Gopkg)的配置文件。
  • go test -cover改进: 对于没有测试文件的包,会报告覆盖率为0.0%。

标准库

  • math/rand/v2: 标准库第一个V2版本包。
  • 增强http.ServeMux的表达能力: 新版ServeMux支持静态路由、通配符、主机匹配和变量捕获。

3.2 Go 1.23 主要新特性

语言特性

  • 自定义函数迭代器:for range语句支持遍历用户自定义的集合类型,需要定义满足特定签名的迭代器函数。
  • 别名中增加泛型参数:支持在类型别名定义中使用类型参数,如:
type MySlice[T any] = []T

编译器与运行时

  • PGO构建速度提升: 该版本优化后,PGO带来的编译开销显著降低。
  • 限制对linkname的使用: Go 1.23禁止使用linkname指令引用标准库中未标记的内部符号。

工具链

  • Telemetry (遥测): go工具链程序收集性能和使用数据的系统,且支持go telemetry on|off|local命令。
  • go env -changed: go env子命令增加-changed选项,可以查看当前Go环境中设置的Go环境变量值与默认值有差异的项的值。
  • go mod tidy -diff: go mod tidy增加-diff选项,只打印更新信息但不做实际更新。
  • go.mod中增加godebug指示符: 可以通过该指示符设置特定的GODEBUG选项。

标准库

  • Timer/Ticker变化: Timer和Ticker的GC不再需要Stop方法,Stop/Reset后不再接收旧值。
  • structs包: 添加一个零size的类型HostLayout,用于控制编译器对结构体类型的布局方式。
  • unique包: 新增了unique包,用于处理唯一值的集合。
  • iter包: 新增了iter包,并增加了函数迭代器相关的实用函数到maps、slices等包中。

更多更详细关于Go新特性的内容,请阅读《Go 1.22中值得关注的几个变化》和《Go 1.23中值得关注的几个变化》。

4. 2025展望

按照Go演进的一贯风格,我本不该对Go抱有过多期待^_^,但还是忍不住想说几句。

Go已经稳稳地占据了云计算领域的头部后端编程语言地位,在多个编程语言排行榜上名列前茅,Go社区也在健康快速地发展。然而,机遇与风险总是并存。

虽然Go在云原生、Web服务、微服务、API和CLI开发方面拥有明显优势,但也面临着来自Rust等语言的挑战。Go需要进一步巩固其在这些优势领域的地位,同时探索一些能够发挥自身优势的新方向,例如AI应用开发等。

同时,我们期待新一代Go团队领导者,尤其是来自Go编译器和运行时组的领导者们,能够深入打磨和优化Go语言的编译器、运行时性能以及语言互操作性。毕竟,谁不喜欢那种因性能自然增长而带来的愉悦感,以及借助其他语言优势生态快速完成功能的灵活性呢!

最后,感谢Go团队和Go社区在Go语言演进发展上做出的贡献,希望Go越走越好!


Gopher部落知识星球在2024年将继续致力于打造一个高品质的Go语言学习和交流平台。我们将继续提供优质的Go技术文章首发和阅读体验。同时,我们也会加强代码质量和最佳实践的分享,包括如何编写简洁、可读、可测试的Go代码。此外,我们还会加强星友之间的交流和互动。欢迎大家踊跃提问,分享心得,讨论技术。我会在第一时间进行解答和交流。我衷心希望Gopher部落可以成为大家学习、进步、交流的港湾。让我相聚在Gopher部落,享受coding的快乐! 欢迎大家踊跃加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格5$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily
  • Gopher Daily Feed订阅 – https://gopherdaily.tonybai.com/feed

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

如发现本站页面被黑,比如:挂载广告、挖矿等恶意代码,请朋友们及时联系我。十分感谢! Go语言第一课 Go语言进阶课 AI原生开发工作流实战 Go语言精进之路1 Go语言精进之路2 Go语言第一课 Go语言编程指南
商务合作请联系bigwhite.cn AT aliyun.com

欢迎使用邮件订阅我的博客

输入邮箱订阅本站,只要有新文章发布,就会第一时间发送邮件通知你哦!

这里是 Tony Bai的个人Blog,欢迎访问、订阅和留言! 订阅Feed请点击上面图片

如果您觉得这里的文章对您有帮助,请扫描上方二维码进行捐赠 ,加油后的Tony Bai将会为您呈现更多精彩的文章,谢谢!

如果您希望通过微信捐赠,请用微信客户端扫描下方赞赏码:

如果您希望通过比特币或以太币捐赠,可以扫描下方二维码:

比特币:

以太币:

如果您喜欢通过微信浏览本站内容,可以扫描下方二维码,订阅本站官方微信订阅号“iamtonybai”;点击二维码,可直达本人官方微博主页^_^:
本站Powered by Digital Ocean VPS。
选择Digital Ocean VPS主机,即可获得10美元现金充值,可 免费使用两个月哟! 著名主机提供商Linode 10$优惠码:linode10,在 这里注册即可免费获 得。阿里云推荐码: 1WFZ0V立享9折!


View Tony Bai's profile on LinkedIn
DigitalOcean Referral Badge

文章

评论

  • 正在加载...

分类

标签

归档



View My Stats