标签 docker 下的文章

体验Gemini Deep Research:以Go语言未来演进方向分析为例

本文永久链接 – https://tonybai.com/2025/03/16/gemini-deep-research-experience

基于大模型的AI已进入深度思考时代,以DeepSeek R1模型为代表的开源模型给主流AI厂商带来了巨大压力。其实早在2024年12月份,Google就在一篇名为“Try Deep Research and our new experimental model in Gemini, your AI assistant”中发布了自己的Deep Research产品:Gemini Deep Research

Gemini Deep Research不仅仅是一个简单的搜索引擎,而是一个智能研究助理。用户只需输入研究主题,Deep Research即可自动完成以下工作:

  • 自动制定研究计划:根据主题的复杂性,Deep Research会生成一个多步骤的研究计划。
  • 深度网络信息分析:Deep Research会像人类研究员一样,在网络上进行多轮搜索、分析、筛选,并根据已获取的信息不断调整搜索策略。
  • 生成综合报告:最终,Deep Research会生成一份结构化的报告,包含关键发现、主要观点以及原始资料链接。
  • 支持交互式提问:用户可以对报告内容进行追问,Deep Research会进一步解释或补充信息。

不过最初发布时,免费用户体验受到了限制。2025.3.13 Google更新了其AI产品gemini的功能特性,并宣布在Gemini 2.0 Flash Thinking等模型上增加Deep Research功能(并且相对于早期的功能又有了能力上的增强)。现在即便你是免费用户,只要打开Gemini应用的主页面,就能看到下面带有Deep Research功能选项的对话输入框:

并且,在Gemini app页面上免费用户可以使用的模型都支持Deep Research,虽然每月依然有使用次数限制:

作为Gemini AI助手的一项重要特性,基于大窗口增强后的Deep Research利用Gogle强大的信息搜索能力以及AI强大的信息处理能力,可为用户提供深度、全面的研究报告,大幅提高了研究效率。

在信息爆炸的时代,我们这些技术人员面临着持续学习和快速掌握新技术、新趋势的巨大挑战。传统的研究方法往往耗时费力,如何在海量信息中高效提取关键信息,已成为提升技术竞争力的关键要素。

本文将以”Go语言未来5-10年的演进方向及核心团队发力重点”这一主题为例,分享我对增强版Gemini Deep Research的抢先体验。

实战体验:Go语言未来演进方向研究

为了测试Deep Research的实际效果,我选择了一个对Go开发者非常关心的话题:

“Go语言未来5-10年的演进方向以及Go核心团队的发力重点会在哪里?”

研究过程

启动研究

在Gemini对话框中输入上述主题,并在左上角选择”Deep Research”模型,然后提交。

Gemini会首先会自动生成研究计划,如下图,并等待你的确认:

确认方案,并等待研究完成

你可以修改方案,也可以点击“开始研究”,一旦选择后者,Deep Research就会自动开始进行研究(包括反复的数据搜索、分析结果等)。在研究过程中,Gemini会显示当前的研究进度,例如”正在分析相关信息”、”正在生成报告”等,下面是研究过程的一些截图:






… …

整个过程大约持续了10-15分钟(具体时间取决于主题的复杂性)。

获取研究报告

研究完成后,Gemini生成了一份详细的报告,结构完整,内容丰富。Gemini支持将报告导出到Google Doc,之后你便可以基于Google Doc查看、编辑或下载这份研究报告了。Gemini为我生成的这份报告放在了这里。如果你访问不了,我在本文附录也放了一份报告结果,请参考。

下面我们再简单看一下报告质量。

研究报告内容与质量分析

这次Gemini针对我提出的题目生成的报告包含以下主要章节:

  • Go语言的持久相关性与未来轨迹
  • 近期重要进展分析(Go 1.24及未来)
  • 核心团队的优先事项解读:解读发力重点
  • 未来5-10年Go语言的演进方向
  • Go的应用:应对现代挑战
  • Go未来面临的挑战和考虑因素
  • 结论:规划Go未来十年的发展方向
  • 相关统计表格和参考文献

从全面性来看,该报告涵盖了Go语言发展的多个维度,从技术细节(如泛型、性能优化、WebAssembly支持)到宏观趋势(如云计算、边缘计算、AI/ML集成),再到社区和生态系统的发展,内容全面而不失重点。

该报告不仅是信息的简单堆砌,而是对信息进行了深入的分析和整合,不乏一定的深度。例如,报告准确地指出了Go核心团队在性能优化、并发、WebAssembly等方面的持续投入,并分析了这些投入背后的战略意图。

报告还给出了引用的信息的确切来源,包括Go官方博客、技术文章、社区讨论等,初步看了一眼,信息来源相关性强,且地址可靠。比如:报告中提到的Go 1.24的新特性、核心团队的优先事项等,都与官方信息保持一致。

报告也提出了一些有价值的洞察,例如Go在边缘计算和物联网领域的潜力、在AI/ML领域可能的发展方向等,为读者提供了前瞻性的视角。

报告结构非常清晰,语言流畅,易于理解。即使是对Go语言不太熟悉的读者,也能通过报告快速了解Go语言的未来发展趋势。

该报告的撰写质量估计已经超过了许多有多年Go开发经验的资深工程师所能提供的分析。如果一个技术人员亲自去调研和总结这些内容,没有3-5天的时间投入是很难完成的。

体验结论

通过此次体验,我们可以深刻地感受到Gemini Deep Research的强大功能和巨大潜力:

  • 效率提升:Deep Research将原本需要数小时甚至数天的研究工作缩短至几分钟,极大地提高了研究效率。
  • 信息全面性:Deep Research能够从多个来源获取信息,并进行综合分析,避免了人工研究可能存在的遗漏和偏见。
  • 深度洞察:Deep Research不仅是信息的搬运工,它能够对信息进行深入分析,提炼出有价值的洞察。
  • 持续学习:Deep Research处于不断进化中,未来将会变得越来越强大。

Gemini Deep Research等深度研究工具的出现与演进,标志着AI驱动的研究新时代的到来。它将改变我们获取信息、分析信息、利用信息的方式,为各行各业带来巨大的变革。对于技术团队来说,Deep Research无疑是一个强大的工具,可以帮助我们更快地学习、更深入地思考、更高效地工作。

附录

Go语言未来5-10年的演进方向及核心团队发力重点

1. 引言:Go的持久相关性与未来轨迹

自2009年公开宣布,并于2012年发布1.0版本以来,Go语言已在现代软件开发领域占据重要地位,尤其是在云基础设施和可扩展系统方面 1。其设计初衷是为了解决大规模软件开发的复杂性 6,强调简洁、高效和并发性 1。Go语言的用户群体显著增长,表明其采用率和相关性不断提高 10。这种增长凸显了理解其未来演进以及Go核心团队优先事项的必要性。本报告将分析近期发展、社区讨论以及Go项目关键人物的见解,以预测未来5到10年Go语言的发展轨迹,重点关注核心团队的努力方向。

Go语言最初的创建动机是为了解决Google在软件基础设施方面面临的实际问题,例如C++在构建现代服务器软件时遇到的构建缓慢、依赖管理失控和并发编程困难等挑战 1。这种以解决实际问题为导向的设计思路深深植根于Go语言的基因中,可以预见,未来Go核心团队将继续关注实际应用,并致力于满足开发人员的需求。

Go语言用户群体的持续增长以及主要科技公司的广泛采用,为Go语言的未来发展奠定了坚实的基础 10。来自各种调查的数据一致显示,越来越多的开发人员正在使用Go语言,并且有学习Go语言的意愿。诸如Google、Netflix、Uber和Dropbox等公司 3 在其关键基础设施中对Go语言的依赖,突显了Go语言的成熟性和适用于大规模项目的能力,这无疑将确保核心团队和社区对Go语言的持续投入和发展。

2. 近期重要进展分析:Go 1.24及未来

2025年2月发布的Go 1.24版本是一个重要的里程碑,它揭示了Go核心团队当前的优先事项 17。此版本的主要特性包括:

  • 完全支持泛型类型别名,增强了代码的灵活性并减少了冗余 17。这解决了社区长期以来的一个需求 8。
  • 运行时性能得到提升,在一系列代表性基准测试中,CPU开销平均降低了2-3%。这些改进包括基于Swiss Tables的新map实现、更高效的小对象内存分配以及新的内部互斥锁实现 10。
  • 通过go:wasmexport指令将Go函数导出到Wasm,并支持构建为WASI反应器/库,增强了WebAssembly (Wasm) 的功能 17。这标志着Go语言正日益关注将其应用范围扩展到传统的服务器端应用之外 21。
  • go.mod中新增了管理工具依赖的机制 18,并且go vet命令通过新的测试分析器得到了改进 18。这些变化旨在改善开发人员的体验和代码质量。
  • 标准库新增了FIPS 140-3合规性机制、用于目录限制文件系统访问的新os.Root类型以及比runtime.SetFinalizer更灵活的runtime.AddCleanup函数用于清理操作 1。这些新增功能增强了Go在安全性、系统编程和资源管理方面的能力。
  • 用于测试并发代码的实验性testing/synctest包 17。这突显了并发性在Go语言发展中的持续重要性。
  • bytes和strings包中新增了基于迭代器的新函数,提高了常见数据处理任务的效率 18。

Go 1.24中包含的诸如泛型等长期以来备受期待的功能,体现了核心团队对社区反馈的积极响应以及他们为满足现代编程需求而不断发展语言的意愿。Go社区对泛型的需求由来已久 8。Go 1.18开始引入泛型,并在1.24版本中进一步完善了对泛型类型别名的支持,这表明核心团队认真听取了开发者的意见,并准备在社区达成广泛共识且对生态系统有明显益处时,对语言进行重大改变。

Go 1.24中显著的性能改进,进一步巩固了Go语言在效率和速度方面的核心价值主张,预示着性能优化将继续成为核心团队未来的重点工作。关于使用Swiss Tables加速Go map以及其他运行时改进的详细博客文章 10 清晰地表明,核心团队正在持续努力使Go程序在现代硬件上运行得更快、更高效。这与Go最初为基础设施软件设定的设计目标相一致。

Go 1.24中对WebAssembly功能的增强,暗示着Go语言正在战略性地定位自己,使其成为一种能够在包括Web浏览器和基于云的Wasm运行时等多种环境中运行的多功能语言。go:wasmexport指令和WASI反应器支持的引入 17 不仅仅是增量式的变化,它们代表着核心团队有意使Go成为更具吸引力的WebAssembly开发选择。关于可扩展Wasm应用的博客文章 17 详细介绍了这些新增功能,表明核心团队期望Go在浏览器端和服务器端的Wasm应用中都发挥重要作用。

3. 核心团队的优先事项:解读发力重点

基于近期发布的版本、Go团队的博客文章 10 以及社区讨论,可以识别出Go核心团队的几个关键优先事项:

  • 持续强调性能和效率: 每个版本中持续的性能改进 10 表明,保持和提升Go的性能特性仍然是首要任务。这包括针对现代硬件优化运行时、标准库和编译器 10。对诸如新的map实现和内存分配改进等底层优化的关注,表明核心团队致力于从根本上提高Go的性能,从而使广泛的应用受益。关于Swiss Tables的博客文章 17 详细介绍了这些深层次的运行时修改,表明了对核心性能的长期投入。
  • 并发和并行方面的进步: Go在并发方面的优势 1 仍然是关键的关注点,实验性testing/synctest包的引入 17 表明,核心团队正在不断努力改进并发编程的工具和支持。关于未来可能增强并发模型的讨论 25 也表明了其持续的重要性。开发专门用于测试并发代码的工具(如实验性的testing/synctest包 17)突显了核心团队致力于确保并发Go程序的可靠性和正确性,这对于许多目标用例(如云基础设施和分布式系统)至关重要。并发是Go语言的一个核心差异化优势,而对更好的测试框架的投入则体现了对其健壮性的承诺。介绍testing/synctest的博客文章 17 证实了这一重点。
  • 对WebAssembly能力的战略投资: Go 1.24中对Wasm支持的显著增强 17 以及社区持续的兴趣 21 表明,使Go成为一种可行的WebAssembly语言是核心团队的战略重点。这为Go在前端开发和其他基于Wasm的环境中开辟了新的可能性 18。通过go:wasmexport将Go函数导出到Wasm宿主,并构建WASI反应器的双重关注,表明了核心团队对Wasm支持采取了全面的方法,旨在实现与各种Wasm生态系统(包括浏览器和服务器端环境)的互操作性。关于可扩展Wasm应用的博客文章 17 详细介绍了这种双重方法,表明核心团队设想Go在浏览器端和服务器端的Wasm应用中都将发挥重要作用。
  • 加强语言和标准库的安全性: Go 1.24中包含的FIPS 140-3合规性机制 17 以及Go生态系统中关于安全性的持续讨论 8 突显了核心团队致力于使Go成为构建关键应用的安全语言。对内存安全的关注 1 也与这一优先事项相符。通过简单的环境变量 18 提供对FIPS认证加密的内置支持,体现了核心团队对安全性的积极态度,使得开发人员更容易构建符合安全规范的应用,而无需依赖外部库或复杂的配置。此功能直接解决了软件开发中日益增长的安全性重要性,尤其适用于需要遵守FIPS标准的企业和政府应用。
  • 持续优化云原生架构: Go在云原生开发领域的强大影响力 2 是显而易见的,预计核心团队将继续为该领域优化语言和标准库。这包括与微服务、容器化 9 以及与云平台的集成 38 相关的改进。Docker和Kubernetes等主要的云基础设施工具都是用Go语言构建的 9,这使得Go的未来与云原生技术的演进紧密相连。这表明核心团队可能会优先考虑那些能够使该生态系统中的开发人员受益的功能和改进。Go在云生态系统中的基础性作用为核心团队提供了强大的动力,以确保它仍然非常适合这些工作负载,并保持其在该领域相对于其他语言的竞争优势。
  • 探索Go在新兴领域的潜力(AI/ML,边缘计算): 尽管Go在AI/ML领域尚未占据主导地位 8,但在该领域的使用潜力正在增长,尤其是在部署模型和构建基础设施方面 10。同样,Go的高效性和小巧的体积使其成为边缘计算和IoT应用的有力候选者 8。核心团队对支持这些领域的努力可能会在未来增加,正如关于Go在AI系统中的作用的讨论所表明的那样 10。Go在处理大型数据集方面的高效率及其在高性能AI应用开发方面的潜力 8 表明,即使Go的目标不是取代Python成为主要的模型开发语言,核心团队也可能正在探索增强Go在某些AI/ML工作负载(如高性能推理或构建AI基础设施)方面的适用性的方法。Go的性能优势可以在速度和效率至关重要的AI/ML领域(如推理或边缘部署,其中低延迟至关重要)得到利用。Go的轻量级特性和内置的并发性 26 与边缘计算和IoT的需求非常契合,在这些环境中,资源受限和需要处理大量并发连接是很常见的。这种天然的契合性表明核心团队可能会继续优化Go以适应这些环境。
  • 提升开发者体验:工具和生态系统: 核心团队始终致力于通过增强工具 8(包括go命令、go vet和IDE集成 38)来改善开发者体验。错误处理 8 和包管理 5 的改进也是持续的优先事项。Go生态系统的健康发展 8 对于语言未来的成功至关重要。Go 1.24中引入的用于管理工具依赖的工具(使用go get -tool和go tool 18)直接解决了Go开发人员常见的workflow挑战,简化了开发所需的外部实用程序的管理,体现了对实用性和改善Go程序员日常体验的关注。简化开发工具的依赖管理可以改善整体开发者体验,并减少Go项目中的摩擦。诸如go vet(带有新的测试分析器)等现有工具的持续改进以及对新工具和功能的不断探索 8 表明,核心团队致力于为Go程序员提供一个健壮高效的开发环境,帮助他们编写更好更可靠的代码。强大的工具链对于开发者生产力至关重要,核心团队对这方面的投入反映了其对于Go语言长期成功的意义。

4. 不断演进的格局:未来5-10年的Go语言

展望未来,可以预见Go语言的几个趋势和潜在发展方向:

  • 预期的语言演进和潜在的新特性: 尽管Go 1.x一直秉持着对向后兼容性的坚定承诺 1,但泛型的引入 8 表明,Go愿意为了解决关键的局限性和满足社区的需求而进行演进。未来的演进可能包括进一步完善泛型、潜在地改进错误处理 8,以及基于社区反馈和不断发展的技术格局,谨慎地引入其他特性。关于“Go 2.0”的讨论 8 表明了对更重大变革的长期愿景,但核心团队强调将采取循序渐进的方式 35。正如Russ Cox 48 所阐述的,以及Go语言缓慢但稳步的发展历程 35 所反映的那样,核心团队对语言的改变采取谨慎的态度。这表明,虽然核心团队对演进持开放态度,但他们将继续优先考虑稳定性和向后兼容性,以避免破坏庞大的现有Go代码生态系统。这种谨慎的做法一直是Go语言发展的标志,并且很可能会继续下去,从而确保Go语言对于长期项目来说仍然是一个可靠的选择。
  • 标准库的增长和成熟: 标准库是Go语言的一大优势 1,提供了广泛的开箱即用功能。预计未来的增长将包括新的包以及对现有包的改进,可能涉及网络、数据处理和对新兴技术的支持等领域。math/rand/v2包的引入 10 为未来的库演进和现代化提供了一个范例。正如Go语言15周年纪念 10 中提到的那样,引入带有版本控制的新标准库包(如math/rand/v2)表明了一种具有前瞻性的库演进方法。这使得在不破坏与旧版本兼容性的情况下实现重大改进和新功能成为可能,为在遵守Go 1兼容性承诺的同时实现现代化提供了一条途径。
  • Go Modules和依赖管理的作用: Go Modules 5 已成为Go语言依赖管理的标准,未来的发展可能会侧重于进一步简化和增强该系统。go.mod中工具指令的引入 18 是这种演进的最新例证。对Go Modules的持续改进,例如跟踪工具依赖的能力 18,表明核心团队致力于提供一个健壮且用户友好的依赖管理系统。这对于大型复杂的Go项目的可扩展性和可维护性至关重要,并反映了持续改进开发者体验的努力。
  • 社区影响和开源贡献: Go的开源特性 1 意味着社区通过提案 49、贡献和反馈 16 在其发展中发挥着重要作用。核心团队通过调查 17 和讨论积极与社区互动,使得社区的意见成为塑造Go未来发展方向的关键因素。提案流程本身 56 确保了任何重大变更在被采纳之前都会在社区内得到仔细考虑和讨论。Go开发者调查 17 是核心团队收集广泛反馈并了解Go社区的使用模式、挑战和期望改进的关键机制。这种数据驱动的方法确保了语言的演进能够满足用户的实际需求。

5. Go的应用:应对现代挑战

Go语言的设计和近期发展使其能够很好地应对软件开发中的几个现代挑战:

  • 云计算和微服务:巩固Go的地位: Go的高效性、并发性和小巧的二进制文件使其非常适合构建云原生应用和微服务 3。其持续的演进,包括性能的提升和并发测试工具的改进,可能会进一步加强其在该领域的地位。Go语言通过goroutine和channel实现的内置并发模型 1 为构建需要高效处理大量并发请求的分布式系统和微服务提供了显著的优势。与依赖外部库实现并发的语言相比,这种内置的并发模型简化了可扩展和响应迅速的云应用的开发。
  • 边缘计算和物联网:发挥Go的效率优势: Go的性能和较小的资源占用使其成为边缘计算和物联网应用的绝佳选择 8。随着这些领域的持续增长,Go的作用预计将进一步扩大,尤其是在针对资源受限环境进行优化方面。Go语言生成的小巧且自包含的二进制文件 1 对于资源受限(如内存和处理能力)的边缘设备和物联网环境尤其有益。这使得Go应用能够在更广泛的硬件上高效运行。
  • WebAssembly:将Go的触角延伸到前端: 凭借Go 1.24中增强的Wasm支持和持续的开发 17,Go正成为构建高性能前端Web应用的可行选择,可能在某些领域挑战JavaScript的主导地位,尤其是在计算密集型任务或需要浏览器中实现类似原生性能的应用方面。即使编译为WebAssembly 24,Go的性能特性也为Web应用带来了相比传统基于JavaScript的解决方案的显著性能提升潜力,尤其是在涉及复杂计算或需要与系统资源紧密交互的应用方面。
  • 人工智能和机器学习:探索新的领域: 尽管在库的可用性方面仍然存在挑战 15,但Go的性能和效率使其成为部署和提供AI/ML模型的有希望的语言 8。未来的发展可能会看到对基于Go的AI/ML库和框架的更多投入,可能侧重于Go的优势(如用于并行处理的并发性)特别有益的领域。Go强大的性能和并发能力使其非常适合构建支持AI/ML工作负载的基础设施,例如数据处理管道、模型服务平台和分布式训练系统,即使它不会成为所有AI/ML开发阶段的主要语言。

6. Go未来面临的挑战和考虑因素

尽管Go语言的发展前景良好,但也面临着一些挑战和需要考虑的因素:

  • 在简洁性与特性扩展之间取得平衡: Go的简洁性是其核心优势之一 1,但诸如泛型等特性的加入也引入了复杂性。核心团队必须在对新特性的渴望与保持语言的简洁性和可读性之间仔细权衡 8。泛型的引入虽然解决了社区的一个主要需求,但也代表着Go最初极简主义设计理念的一次偏离。核心团队需要继续仔细评估未来的特性提案,以确保它们在提供实质性好处的同时,不会过度损害语言的可读性和易于理解的核心原则。
  • 回应社区反馈和不断变化的需求: Go社区对某些限制和期望的特性提出了很多意见 8,核心团队需要继续与这些反馈互动,并在坚守其核心原则的同时,使语言适应不断变化的需求 10。核心团队通过调查、博客文章和提案流程 17 与Go社区的积极互动对于确保语言的演进符合用户的实际需求和更广泛的软件开发趋势至关重要。维持这种开放的沟通和反馈循环对于Go语言的长期健康和相关性至关重要。
  • 来自其他编程语言的竞争: Go面临着来自其他现代编程语言(如Rust 5)以及其他也针对类似领域(如云原生开发和高性能计算)的语言的竞争。Go未来的成功将取决于其维持独特优势并继续响应竞争格局而发展自身的能力。尽管Go和Rust经常在相似的领域展开竞争,但它们提供了不同的权衡(例如,Go的简洁性与Rust对不使用垃圾回收的内存安全的关注)。Go的持续成功可能取决于强调其优势并解决其相对于竞争对手的劣势,例如错误处理的冗长 59 或其他语言中存在的某些高级语言特性的缺乏。

7. 结论:规划Go未来十年的发展方向

Go语言有望在未来5到10年内继续保持增长和发展。正如近期发布的版本和社区互动所表明的那样,核心团队的优先事项侧重于持续的性能改进、并发方面的进步、对WebAssembly的战略投资、加强安全性、持续优化云原生架构以及探索AI/ML和边缘计算等新兴领域。

尽管在简洁性与特性扩展之间取得平衡以及应对竞争格局将是关键的挑战,但Go语言强大的基础、活跃的社区以及核心团队致力于满足开发者需求的承诺,都预示着Go语言拥有光明的未来。其适应现代挑战的能力以及对实用解决方案的持续关注,可能会在未来几年内巩固其作为构建可靠、可扩展和高效软件系统的关键语言的地位。

有价值的表格:

  1. 表格:近期Go版本(Go 1.23和Go 1.24)的关键特性和关注领域
版本 关键语言特性 显著性能提升 工具增强 标准库新增/变更 版本体现的关注领域
Go 1.23 slices/maps中的迭代器函数 配置文件引导优化 (PGO) 改进的go命令 新增iter包 性能,泛型集成
Go 1.24 泛型类型别名 更快的map (Swiss Tables), 内存分配, 互斥锁 新的测试分析器,工具依赖管理 FIPS 140-3, os.Root, runtime.AddCleanup, 弱指针 性能,泛型,Wasm,安全,开发者体验
  1. 表格:Go语言的采用统计数据和趋势
年份 统计来源 指标 主要发现/趋势
2024 Stack Overflow 开发者调查 最受喜爱的编程语言之一 表明开发者满意度高。
2024 Talent.com 美国Go开发者平均年薪约为$132,823 显示出对Go开发者的强烈需求和高价值。
2023 Go开发者调查 H2 >90% 开发者满意度 突显了Go社区内的积极体验。
2021 Stack Overflow 调查 约9.55% 的开发者使用Go 显示出相当一部分开发者正在积极使用Go。
2020 JetBrains 开发者生态系统 约110万主要Go开发者,约270万包括第二语言 表明全球拥有庞大且不断增长的Go开发者社区。
2019 Stack Overflow 调查 Go是第三大最想学习的语言 表明随着更多开发者希望获得Go技能,其采用率将持续增长。
2024 Okoone.com Go的用户群在过去五年内增长了两倍 表明Go的受欢迎程度和采用率迅速增长。
2024 Developer Nation 调查 11% 的后端开发者目前使用Go 提供了Go在关键目标人群中的具体采用率。

Works cited

// 数量太多,这里省略。


Gopher部落知识星球在2025年将继续致力于打造一个高品质的Go语言学习和交流平台。我们将继续提供优质的Go技术文章首发和阅读体验。并且,2025年将在星球首发“Go陷阱与缺陷”和“Go原理课”专栏!此外,我们还会加强星友之间的交流和互动。欢迎大家踊跃提问,分享心得,讨论技术。我会在第一时间进行解答和交流。我衷心希望Gopher部落可以成为大家学习、进步、交流的港湾。让我相聚在Gopher部落,享受coding的快乐! 欢迎大家踊跃加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格6$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily
  • Gopher Daily Feed订阅 – https://gopherdaily.tonybai.com/feed

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

构建高效的AI智能体[译]

本文永久链接 – https://tonybai.com/2025/03/11/building-effective-agents

近来,人工智能领域再次风起云涌,各种能力超强的大模型、创新概念和工具层出不穷,让人目不暇接。从DeepSeek发布的开源MoE 模型DeepSeek-V3和令人惊艳的具备深度思考能力的推理模型DeepSeek R1,到声称是“世界上第一个通用AI智能体(Agent)”的Manus以及其开源复刻品OpenManus,再到Anthropic推出让业界大牛程序员Steve Yegge都感到惊叹的Claude Code代码辅助编写Agent工具以及其使用的模型上下文协议(MCP),以及Docker之父Solomon Hykes的Dagger项目转型构建AI Agent工具,无不预示着AI Agent时代的加速到来。

在这一波澜壮阔的技术浪潮中,如何构建高效、可靠且易于维护的AI Agent系统,成为了开发者们共同关注的焦点。Anthropic作为大模型领域的领军企业之一,其在构建AI Agent方面的经验和见解,无疑具有重要的参考价值。

本文翻译自Anthropic官方博客文章《Building Effective AI Agents》,旨在分享Anthropic在与客户合作以及自身实践中总结出的AI Agent构建经验。原文深入探讨了Agentic Systems的概念、架构、常见模式、最佳实践以及工具开发等关键问题,并提供了实用的建议和案例。

选择翻译这篇文章,不仅仅是因为它内容翔实、具有指导意义,更是出于“翻译中学习,学习中翻译”的初衷。通过对原文的翻译,同时也是一次深入学习和理解AI Agent构建技术的绝佳机会。希望本文的翻译能够为广大中文读者提供有益的参考,共同探索AI Agent的无限可能。

注:原文发表于2024年12月中旬,网络上有过很多中文译版,如果你曾阅读过那些文章,你大可忽略本篇文章。

以下是文章正文。


在过去的一年里,我们与数十个团队合作,在各个行业构建大型语言模型 (LLM) 智能体 (Agents)。最成功的那些实现并没有使用复杂的框架或专用库。相反,他们都是使用简单、可组合的模式进行构建的。

在这篇文章中,我们将分享与客户合作和自行构建智能体过程中所学到的知识,并为开发者提供构建高效智能体的实用建议。

什么是智能体?

“智能体(Agent)” 可以有多种定义方式。一些客户将智能体定义为完全自主的系统,它们可以在较长时间内独立运行,使用各种工具来完成复杂的任务。另一些客户则使用该术语来描述遵循预定义工作流的更规范性的实现。在Anthropic,我们将所有这些变体归类为智能体系统(agentic systems),但在工作流(workflows)智能体(agents)之间做了重要的架构区分:

  • 工作流是通过预定义的代码路径编排LLM和工具的系统。
  • 智能体则是LLM动态指导自身流程和工具使用的系统,控制它们完成任务的方式。

下面,我们将详细探讨这两种类型的智能体系统。在附录1(“智能体的实践应用”)中,我们描述了客户发现使用这些系统特别有价值的两个领域。

何时(以及何时不)使用智能体

在使用LLM构建应用程序时,我们建议找到尽可能简单的解决方案,并且仅在需要时才增加复杂性。这可能意味着根本不需要构建智能体系统。智能体系统通常会牺牲延迟和成本来换取更好的任务性能,你应该考虑这种权衡何时有意义。

当需要更多复杂性时,工作流为定义明确的任务提供可预测性和一致性,而当需要大规模的灵活性和模型驱动的决策时,智能体是更好的选择。然而,对于许多应用程序来说,使用检索和上下文示例优化单个LLM调用通常就足够了。

何时以及如何使用框架

有许多框架可以更容易地实现智能体系统,包括:

  • LangChain的LangGraph
  • Amazon Bedrock的AI Agent framework
  • Rivet,一个拖放式GUI LLM工作流构建器;以及
  • Vellum,另一个用于构建和测试复杂工作流的GUI工具。

这些框架通过简化标准低级任务(如调用LLM、定义和解析工具以及将调用链接在一起)使入门变得容易。然而,它们通常会创建额外的抽象层,这可能会掩盖底层的提示和响应,使它们更难调试。它们还可能诱使在更简单的设置就足够的情况下增加复杂性。

我们建议开发者首先直接使用LLM API:许多模式可以在几行代码中实现。如果你确实使用了框架,请确保你了解底层代码。对底层内容的错误假设是客户错误的常见来源。

请参阅我们的cookbook 以获取一些示例实现。

构建块(Building Blocks)、工作流和智能体

在本节中,我们将探讨我们在生产中看到的智能体系统的常见模式。我们将从基础构建块——增强型LLM——开始,并逐步增加复杂性,从简单的组合工作流到自主智能体。

构建块:增强型LLM

智能体系统的基本构建块是经过增强的LLM,增强功能包括检索、工具和记忆。我们目前的模型可以主动使用这些功能——生成自己的搜索查询、选择合适的工具以及确定要保留的信息。


图:增强型LLM

我们建议重点关注实现的两个关键方面:根据你的特定用例定制这些功能,并确保它们为你的LLM提供简单、文档齐全的接口。虽然有很多方法可以实现这些增强,但有一种方法是通过我们最近发布的Model Context Protocol,它允许开发者通过简单的客户端实现 与不断增长的第三方工具生态系统集成。

在本文的其余部分,我们将假设每次LLM调用都可以访问这些增强功能。

工作流:提示链(Prompt Chaining)

提示链将任务分解为一系列步骤,其中每个LLM调用处理前一个调用的输出。你可以在任何中间步骤上添加程序化检查(参见下图中的“Gate”),以确保流程仍在正轨上。


图:提示链工作流

何时使用此工作流: 当任务可以轻松干净地分解为固定的子任务时,此工作流非常理想。主要目标是通过使每个LLM调用成为更简单的任务来权衡延迟以获得更高的准确性。

提示链有用的示例:

  • 生成营销文案,然后将其翻译成不同的语言。
  • 编写文档大纲,检查大纲是否符合特定条件,然后根据大纲编写文档。

工作流:路由(Routing)

路由对输入进行分类并将其定向到专门的后续任务。此工作流允许分离关注点,并构建更专业的提示。如果没有此工作流,针对一种类型的输入进行优化可能会损害其他输入的性能。


图:路由工作流

何时使用此工作流: 路由适用于存在不同类别的复杂任务,这些类别最好单独处理,并且可以使用LLM或更传统的分类模型/算法准确地进行分类。

路由有用的示例:

  • 将不同类型的客户服务查询(一般问题、退款请求、技术支持)定向到不同的下游流程、提示和工具。
  • 将简单/常见问题路由到较小的模型(如Claude 3.5 Haiku),将困难/不常见问题路由到功能更强大的模型(如Claude 3.5 Sonnet),以优化成本和速度。

工作流:并行化(Parallelization)

LLM有时可以并行处理多个任务,并以编程方式聚合它们的输出。这种工作流(并行化)体现在两个关键变体中:

  • 分段(Sectioning):将任务分解为并行运行的独立子任务。
  • 投票(Voting):多次运行同一任务以获得不同的输出。


图:并行化工作流

何时使用此工作流: 当可以将划分的子任务并行化以提高速度,或者需要多个视角或尝试以获得更高置信度的结果时,并行化是有效的。对于具有多个考虑因素的复杂任务,LLM通常在每个考虑因素由单独的LLM调用处理时表现更好,从而可以集中关注每个特定方面。

并行化有用的示例:

  • 分段
    • 实现防护措施,其中一个模型实例处理用户查询,而另一个模型实例筛选不当内容或请求。这往往比让同一个LLM调用同时处理护栏和核心响应效果更好。
    • 自动评估LLM性能,其中每个LLM调用评估模型在给定提示上的性能的不同方面。
  • 投票
    • 审查一段代码是否存在漏洞,其中几个不同的提示会审查代码,如果发现问题则标记。
    • 评估给定内容是否不当,其中多个提示评估不同的方面或需要不同的投票阈值来平衡误报和漏报。

工作流:编排器-工作者(Orchestrator-Workers)

在编排器-工作者工作流中,中央LLM动态分解任务,将它们委托给工作者LLM,并综合它们的结果。


图:编排器-工作者工作流

何时使用此工作流: 此工作流非常适合你无法预测所需子任务的复杂任务(例如,在编码中,需要更改的文件数量以及每个文件中更改的性质可能取决于任务)。虽然在拓扑上相似,但它与并行化工作流的关键区别在于其灵活性——子任务不是预先定义的,而是由编排器根据特定输入确定的。

编排器-工作器有用的示例:

  • 每次对多个文件进行复杂更改的编码产品。
  • 搜索任务涉及收集和分析来自多个来源的信息以获取可能的相关信息。

工作流:评估器-优化器(Evaluator-Optimizer)

在评估器-优化器工作流中,一个LLM调用生成响应,而另一个LLM调用提供循环评估和反馈。


图:评估器-优化器工作流

何时使用此工作流: 当我们有明确的评估标准,并且迭代改进提供可衡量的价值时,此工作流特别有效。良好匹配的两个迹象是,首先,当人类阐明他们的反馈时,LLM响应可以得到明显改善;其次,LLM可以提供此类反馈。这类似于人类作家在撰写精美文档时可能经历的迭代写作过程。

评估器-优化器有用的示例:

  • 文学翻译,其中存在翻译器LLM最初可能无法捕捉到的细微差别,但评估器LLM可以提供有用的批评。
  • 复杂的搜索任务,需要多轮搜索和分析才能收集全面的信息,评估器决定是否需要进一步搜索。

智能体(Agents)

随着LLM在关键功能(理解复杂输入、参与推理和规划、可靠地使用工具以及从错误中恢复)方面的成熟,智能体正在生产中出现。智能体通过人类用户的命令或交互式讨论开始其工作。一旦任务明确,智能体就会独立计划和操作,可能会返回给人类以获取更多信息或判断。在执行期间,智能体在每个步骤中从环境中获得“真实情况”(例如工具调用结果或代码执行)以评估其进度。然后,智能体可以在检查点或遇到障碍时暂停以获取人类反馈。任务通常在完成后终止,但通常也包含停止条件(例如最大迭代次数)以保持控制。

智能体可以处理复杂的任务,但它们的实现通常很简单。它们通常只是LLM在循环中根据环境反馈使用工具。因此,清晰而周到地设计工具集及其文档至关重要。我们在附录2(“提示工程你的工具”)中扩展了工具开发的最佳实践。


图:自主智能体

何时使用智能体: 智能体可用于难以或无法预测所需步骤数量的开放式问题,以及你无法硬编码固定路径的问题。LLM可能会运行多个回合,你必须对其决策制定有一定程度的信任。智能体的自主性使其成为在受信任环境中扩展任务的理想选择。

智能体的自主性意味着更高的成本,以及潜在的复合错误。我们建议在沙盒环境中进行广泛测试,并采取适当的护栏。

智能体有用的示例:

以下示例来自我们自己的实现:


图:编码智能体的高层次抽象流程

组合和定制这些模式

这些构建块不是规定性的。它们是开发人员可以塑造和组合以适应不同用例的常见模式。与任何LLM功能一样,成功的关键在于衡量性能并迭代实现。再次强调:你应该考虑仅在可以证明改进结果时才增加复杂性

总结

LLM领域的成功不在于构建最复杂的系统。它在于构建适合你需求的系统。从简单的提示开始,通过全面的评估优化它们,并且仅在更简单的解决方案不足时才添加多步骤智能体系统。

在实施智能体时,我们尝试遵循三个核心原则:

  1. 在智能体的设计中保持简单性
  2. 通过明确显示智能体的规划步骤来优先考虑透明度
  3. 通过彻底的工具文档和测试来仔细设计你的智能体-计算机接口(ACI)。

框架可以帮助你快速入门,但在转向生产时,请毫不犹豫地减少抽象层并使用基本组件进行构建。通过遵循这些原则,你可以创建不仅强大而且可靠、可维护并受到用户信任的智能体。

致谢

本文由Erik Schluntz和Barry Zhang撰写。这项工作借鉴了我们在Anthropic构建智能体的经验以及客户分享的宝贵见解,我们对此深表感谢。

附录1:智能体的实际应用

我们与客户的合作揭示了AI智能体的两个特别有前景的应用,它们展示了上述模式的实用价值。这两个应用都说明了智能体如何为需要对话和行动、具有明确的成功标准、启用反馈循环以及集成有意义的人类监督的任务增加最大价值。

A. 客户支持

客户支持将熟悉的聊天机器人界面与通过工具集成增强的功能相结合。这非常适合更开放式的智能体,因为:

  • 支持交互自然地遵循对话流程,同时需要访问外部信息和操作;
  • 可以集成工具来提取客户数据、订单历史记录和知识库文章;
  • 可以以编程方式处理诸如发放退款或更新工单之类的操作;以及
  • 可以通过用户定义的解决方案明确衡量成功。

一些公司已经通过基于使用量的定价模型证明了这种方法的可行性,该模型仅对成功的解决方案收费,表明对他们智能体的有效性充满信心。

B. 编码智能体

软件开发领域已经显示出LLM功能的巨大潜力,其功能从代码完成发展到自主解决问题。智能体特别有效,因为:

  • 代码解决方案可以通过自动化测试进行验证;
  • 智能体可以使用测试结果作为反馈来迭代解决方案;
  • 问题空间定义明确且结构化;以及
  • 可以客观地衡量输出质量。

在我们自己的实现中,智能体现在可以根据拉取请求描述本身解决SWE-bench Verified 基准测试中的真实GitHub问题。然而,虽然自动化测试有助于验证功能,但人工审查对于确保解决方案与更广泛的系统要求保持一致仍然至关重要。

附录2:提示工程你的工具

无论你构建哪种智能体系统,工具都可能是智能体的重要组成部分。工具 使Claude能够通过在我们的API中指定其确切结构和定义来与外部服务和API交互。当Claude响应时,如果它计划调用工具,它将在API响应中包含一个工具使用块。工具定义和规范应该像你的整体提示一样受到提示工程的重视。在这个简短的附录中,我们将描述如何提示工程化你的工具。

通常有几种方法可以指定相同的操作。例如,你可以通过编写diff或重写整个文件来指定文件编辑。对于结构化输出,你可以在markdown或JSON中返回代码。在软件工程中,像这样的差异是表面上的,并且可以从一种格式无损地转换为另一种格式。然而,某些格式比其他格式更难让LLM编写。编写diff需要在编写新代码之前知道块头(chunk header)中更改的行数。在JSON中编写代码(与markdown相比)需要对换行符和引号进行额外的转义。

我们对决定工具格式的建议如下:

  • 给模型足够的token来“思考”,然后再将自己逼入绝境。
  • 保持格式接近模型在互联网文本中自然看到的内容。
  • 确保没有格式“开销”,例如必须准确计算数千行代码,或对它编写的任何代码进行字符串转义。

一个经验法则是考虑在人机界面(HCI)上投入了多少精力,并计划在创建良好的智能体-计算机界面 (ACI) 上投入同样多的精力。以下是关于如何做到这一点的一些想法:

  • 设身处地为模型着想。根据描述和参数,是否明显知道如何使用此工具,或者你是否需要仔细考虑?如果是这样,那么对于模型来说可能也是如此。一个好的工具定义通常包括示例用法、边缘情况、输入格式要求以及与其他工具的明确边界。
  • 你如何更改参数名称或描述以使事情更明显?将其视为为你团队中的初级开发人员编写出色的文档字符串。在使用许多类似的工具时,这一点尤其重要。
  • 测试模型如何使用你的工具:在我们的workbench中运行许多示例输入,以查看模型犯了哪些错误,并进行迭代。
  • 防呆(Poka-yoke) 你的工具。更改参数以使其更难出错。

在为SWE-bench 构建我们的智能体时,我们实际上花了更多时间优化我们的工具而不是整体提示。例如,我们发现,在智能体移出根目录后,使用相对文件路径的工具会出现错误。为了解决这个问题,我们将工具更改为始终需要绝对文件路径——并且我们发现模型完美地使用了这种方法。


Gopher部落知识星球在2025年将继续致力于打造一个高品质的Go语言学习和交流平台。我们将继续提供优质的Go技术文章首发和阅读体验。并且,2025年将在星球首发“Go陷阱与缺陷”和“Go原理课”专栏!此外,我们还会加强星友之间的交流和互动。欢迎大家踊跃提问,分享心得,讨论技术。我会在第一时间进行解答和交流。我衷心希望Gopher部落可以成为大家学习、进步、交流的港湾。让我相聚在Gopher部落,享受coding的快乐! 欢迎大家踊跃加入!

img{512x368}
img{512x368}

img{512x368}
img{512x368}

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格6$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) – https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx
  • 微博2:https://weibo.com/u/6484441286
  • 博客:tonybai.com
  • github: https://github.com/bigwhite
  • Gopher Daily归档 – https://github.com/bigwhite/gopherdaily
  • Gopher Daily Feed订阅 – https://gopherdaily.tonybai.com/feed

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

如发现本站页面被黑,比如:挂载广告、挖矿等恶意代码,请朋友们及时联系我。十分感谢! Go语言第一课 Go语言精进之路1 Go语言精进之路2 Go语言编程指南
商务合作请联系bigwhite.cn AT aliyun.com

欢迎使用邮件订阅我的博客

输入邮箱订阅本站,只要有新文章发布,就会第一时间发送邮件通知你哦!

这里是 Tony Bai的个人Blog,欢迎访问、订阅和留言! 订阅Feed请点击上面图片

如果您觉得这里的文章对您有帮助,请扫描上方二维码进行捐赠 ,加油后的Tony Bai将会为您呈现更多精彩的文章,谢谢!

如果您希望通过微信捐赠,请用微信客户端扫描下方赞赏码:

如果您希望通过比特币或以太币捐赠,可以扫描下方二维码:

比特币:

以太币:

如果您喜欢通过微信浏览本站内容,可以扫描下方二维码,订阅本站官方微信订阅号“iamtonybai”;点击二维码,可直达本人官方微博主页^_^:
本站Powered by Digital Ocean VPS。
选择Digital Ocean VPS主机,即可获得10美元现金充值,可 免费使用两个月哟! 著名主机提供商Linode 10$优惠码:linode10,在 这里注册即可免费获 得。阿里云推荐码: 1WFZ0V立享9折!


View Tony Bai's profile on LinkedIn
DigitalOcean Referral Badge

文章

评论

  • 正在加载...

分类

标签

归档



View My Stats