标签 Rust 下的文章

HashiCorp 创始人亲口“认错”:AI 让我重新爱上了 Go (文末福利)

本文永久链接 – https://tonybai.com/2026/04/23/hashicorp-founder-admits-go-is-alive-thanks-to-ai

大家好,我是Tony Bai。

今天是世界读书日,在同款公众号文章的文末我将送出两个价值 99 元的《从 0 开始构建 Agent Harness》专栏的免费兑换码,欢迎大家点击这里积极留言参与!

在技术圈的江湖里,总有那么几位“扫地僧”级别的人物。他们的一言一行,足以引发整个行业的地震。Mitchell Hashimoto,正是其中之一。

作为 HashiCorp 的创始人,曾连续12年,一手使用Go 缔造了Consul、Nomad、Terraform、Vagrant、Vault 等一系列云原生基础设施与Devops“神器”以及Ghostty Terminal (使用 Zig )的他,被无数开发者奉为“云基础设施时代教父级的人物”。

但在 Go 社区,Mitchell 的形象却颇具争议。因为他曾在公开场合不止一次地表达过对 Go 语言的失望,甚至抛出过“Go has no place anymore”(Go 已无立足之地)这样的“暴论”。

然而,就在最近,这位曾经的“Go 社区的争议人物”,却在 X 平台上发表了一篇 180 度大转弯的“认错”长推,瞬间引爆了整个技术圈,获得了超过 21 万的阅读量。

他写道:

“我又开始写 Go 了……‘等等,我以为你说过 Go 已经没有位置了?’我错了。

“我错的原因,主要是因为 AI 智能体(Agent)在 Go 语言上的生产力高得惊人。我不会把其他语言扯进来,因为我不想喂饱那些螃蟹(暗指 Rust 社区)。”

是什么,让这位顶级大神发生了如此戏剧性的转变?

今天,我们就来深度扒开 Mitchell 的这篇“忏悔录”,看看在 AI Agent 席卷一切的时代,Go 语言那些曾被我们疯狂吐槽的“缺点”,是如何摇身一变,成为最顶级的“超能力”的。

惊天反转:“糟糕的人体工程学”,竟是完美的“机器工程学”

Mitchell 在推文中,首先就点出了一个极其“讽刺”的现象:

“这很有趣,因为 Go 的很多 CLI 工具,比如 go doc 和 gopls,它们糟糕的人体工程学(shitty ergonomics)……竟然被 Agent 完美地规避了。不仅如此,讽刺的是,它们对 Agent 来说简直是天赐之物。”

这句话,堪称整篇推文的点睛之笔。

如果你是一个有经验的 Go 开发者,你一定吐槽过 go doc 的简陋,或者早期 gopls 的各种不智能。相比于 Rust 的 rust-analyzer 那种极其强大的类型推断和代码补全,Go 的工具链显得既“笨”又“直白”。

但在 AI Agent 的世界里,这种“笨拙”,恰恰成了最顶级的优点!

Mitchell 指出,他现在根本不需要给 Agent 写任何复杂的 Skill。只需要在 AGENTS.md 里写一句极其简单的指令:“想找 API 或者调用者?去用 gopls。”

Agent 就能利用 gopls 提供的底层 LSP(语言服务器协议)接口,以极低的 Token 成本,精准地找到接口的实现、方法的定义,以及所有的调用关系。

另一位开发者在评论中也补充道:

“我们一直抱怨 Go 的啰嗦(verbosity),结果证明这恰恰是 LLM 最喜欢的。它们能清晰地读懂意图,而且工具链(如 go doc)给了它们足够的上下文,让它们第一次就能写出能跑通的代码。”

看懂了吗?

那些曾经被人类程序员嫌弃的“机器友好”的接口,在 AI Agent 这个“硅基程序员”面前,摇身一变成了最高效、最廉价的沟通方式。

我们过去追求的“CLI 人体工程学”,在 AI 时代,正在被“Agent 机器工程学”所降维打击。

王者归来:当“无聊”成为 AI 的最佳温床

Mitchell 的“认错”,不仅仅是因为工具链的意外适配。更深层次的原因,在于 Go 语言本身的“无聊”哲学。

在另一场由 OpenAI 创始人引发的“Go vs Rust”论战中,我们已经探讨过这个观点:

Go 语言极简的语法、强制的 gofmt 格式化、以及“万物皆 for 循环”的单一表达方式,使得所有 Go 代码库看起来都像是一个模子里刻出来的。

这种极度的“同质化”,对于基于概率预测的 AI Agent 来说,简直就是天堂。

AI 在生成 Go 代码时,不需要去猜测这个项目是函数式风格还是面向对象风格,不需要去处理复杂的生命周期和所有权问题。它只需要遵循那套刻在骨子里的“Go Way”,就能生成出八九不离十的、能跑通的代码。

评论区里,HashiCorp 的前同事现身说法:

“我当年就是看到 HashiCorp 在用 Go 才入坑的。你今天的这篇帖子,完美地解释了为什么我最近又回到了 Go 的怀抱。”

简单、可预测、没有魔法。 这些在人类极客眼中可能是“缺点”的特质,在 AI Agent 眼里,却成了最宝贵的“确定性”。

终极答案:Go + Zig,基础设施的“黄金搭档”

当然,Mitchell 也并非无脑吹捧 Go。作为一个顶级的开发者,他清醒地认识到 Go 的边界。

当他需要编写一个“可移植的、能轻松嵌入各种生态系统”的底层库时,他并没有选择 Go,而是选择了 Zig

“对我来说,重要的是可移植性。我正在写一个必须能轻松嵌入各种生态系统的通用库。一个独立的、不依赖 libc、没有操作系统原语要求、能说 C ABI、并且只有 100KB 大小的库,是一个很容易推销的方案。”

在这里,Mitchell 亮出了他的答案:Go + Zig。

  • Go:负责上层的、高并发的业务逻辑和网络调度。
  • Zig:负责底层的、需要极致性能、零依赖、跨平台 C ABI 兼容的核心组件。
  • CGO:通过 Zig 强大的交叉编译能力,将 Go 与底层 C-ABI 组件的胶水成本降到最低。

这套组合拳,既享受了 Go 无与伦比的开发效率和并发模型,又利用了 Zig 对底层的极致压榨能力,同时还避开了原生 CGO 的种种编译噩梦。

这或许是比“Go vs Rust”之争,更具前瞻性和实操价值的“版本答案”。

英雄所见略同:Pandas 之父的“痛苦告别”

如果说 Mitchell Hashimoto 的“回归”还带有一丝 云原生以及DevOps 创始人的恋旧情结,那么另一位顶级大神——Pandas 库的创始人、数据科学界的“教父级”人物 Wes McKinney——的2026表态,则更像是一封写给 Python 的“分手信”,充满了痛苦、不舍,但又极其决绝。

就在 Mitchell 的推文引发热议的同时,有人在评论区挖出了 Wes McKinney 今年年初的一篇极具前瞻性的博文《从人类工程学到智能体工程学》。

在这篇文章里,Wes McKinney 抛出了一个极其震撼的开场白:

“我最近用 Go 写了很多新软件。但问题是,我这辈子其实一行 Go 代码都没写过。这到底是怎么回事?”

答案,同样是 AI Agent。

作为一个将毕生心血都奉献给了 Python 数据科学生态的巨匠,Wes McKinney 坦言,当软件的“主要作者”从人类变成 AI 时,我们评判一门编程语言优劣的标准,发生了根本性的改变。

“人类工程学(Human Ergonomics)的重要性正在急剧下降。Python 对人类来说极其愉快和高效,但当 Agent 替你写所有代码时,这个好处就显得无足轻重了。”

他用一种近乎“残忍”的视角,剖析了 Python 在 AI Agent 时代的三个致命缺陷:

  1. 缓慢的编译-测试循环:Agent 编译和测试的频率比人类高出一到两个数量级。Python 缓慢的测试启动和依赖安装,对 Agent 来说是一种“惩罚”。
  2. 痛苦的软件分发:Agent 需要大量自包含的、无依赖的二进制工具。而 Python 拖着一个沉重的解释器,感觉就像“我们当年拼命想摆脱的 Java 虚拟机(JVM)”。
  3. 性能与内存的短板:这些在人类开发时可以容忍的问题,在 Agent 24 小时高强度运行时,会被无限放大。


图 Python Environment https://xkcd.com/1987/

那么,AI Agent 时代的“赢家”是谁?

Wes McKinney 给出了和 Mitchell Hashimoto 几乎一模一样的答案:Go。当然在数据科学以及人工智能的基础设施层面,Wes McKinney认为 Rust 也将会占据着越来越重要的地位。

因为它们解决了最关键的三个问题:

  • 无痛构建静态二进制文件。
  • 极速、确定性的构建过程。
  • 精简的资源占用和出色的运行时性能。

他甚至更进一步指出,由于 Go 拥有比 Rust 快得多的编译时间,在 Agent 高频迭代的场景下,Go 甚至比 Rust 更具优势。

“我依然深爱着 Python,并为我们建立的生态系统感到自豪。但很明显,鉴于 Agent 循环带来的生产力优势,我和业界的大部分人,将会写越来越少的 Python,转而拥抱 Go 和其他现代编译语言。”

一个为 Python 奋斗了近 20 年的灵魂人物,最终为了 AI,选择了自己从未写过的 Go。

这已经不是简单的技术选型,这是一场关于“工程师生存法则”的深刻变革。

英雄惜英雄:一场关于“回归”的集体狂欢

Mitchell 的这篇“认错”长文,像一声号角,引来了无数在 Go 与其他语言之间摇摆的开发者的共鸣。

Bun 的创始人 Jarred Sumner 激动地在评论区留言:“我想看看你到底在搞什么!”(Mitchell 回复:“我早点联系你!”)

一位前 Vercel 工程师更是直言:“老哥你终于兜了一圈又回来了!”

当然也有一些开发者表示这也许是Mitchell的“幻觉”或“偏见”,一位开发者(显然不是很熟悉 Mitchell 的开发过往)写道:

“也许你只是比 Zig 更不习惯 Go,所以你注意到的 Go 的问题更少。而且你已经是 Zig 的专家了,用它提升的空间不大了(想学习一下新的编程语言)。LLM 让你看到在你不懂的领域(指Go)正确率是 100%,但在你懂 60% 的领域(指Zig),只对了 60%”。
(Mitchell 则毫不客气地回怼:“我写了 12 年全职的、纯粹的 Go。我的判断力很可靠。”)

这场大讨论,最终演变成了一场关于“回归 Go”的集体狂欢。

小结:在 AI 时代,重新审视“简单”的价值

Mitchell Hashimoto 的故事,是 AI 时代软件工程演进的一个完美缩影。

一个曾经因为 Go 的“不够底层”、“人体工程学差”而选择离开的顶级大神,最终又因为 AI Agent 的出现,重新发现了这门语言在“机器工程学”上的巨大价值。

这提醒我们所有技术人:对一门语言的评判,永远不能脱离其所处的时代背景和生产力工具。

在人类手搓代码的时代,我们追求的是表达力的丰富和语法的灵巧。

而在 AI 自动生成的时代,简单、可预测、无歧义、易于机器理解,反而成了最稀缺的“黄金法则”。

Go 语言的缔造者们,在十几年前就用近乎偏执的克制,为我们埋下了一颗时间的种子。

直到今天,在 AI 的催化下,这颗种子,终于长成了参天大树。

资料链接:

  • https://x.com/mitchellh/status/2046319366489407803
  • https://wesmckinney.com/blog/agent-ergonomics/

今日互动探讨:

在 AI 编程的浪潮中,你是否也像 Mitchell 一样,重新审视了自己对某门语言的看法?你认为在 AI Agent 眼里,最“友好”和最“劝退”的语言分别是什么?

欢迎在评论区分享你的观点!


世界图书日特别福利:一本定义未来的“活书”

今天(4月23日)就是世界图书日。

在这个属于知识与智慧的节日里,与其被动地阅读别人写的书,不如我们亲手来“写”一本定义未来的“书”——构建一个属于你自己的 AI Agent Harness

Mitchell Hashimoto 和 Wes McKinney 的故事告诉我们,AI Agent 正在成为这个时代最强大的生产力杠杆。而驾驭这头巨兽的核心,不在于你会背多少 Prompt,而在于你是否懂得如何为它构建一个坚不可摧的“驾驭系统(Harness)”。

为了庆祝我的全新极客时间专栏 从 0 开始构建 Agent Harness 上线,并感谢大家一直以来的支持,我将拿出 2 个免费的专栏兑换码送给大家!

参与方式:

关注本公众号,并在本文的评论区留言,聊一聊:“在 AI Agent 时代,你认为一个程序员最不可被替代的核心技能是什么?为什么?”

我将在 72 小时后,从所有精选留言中,挑选 2 位最深刻、最走心的思考,每人赠送一份价值 99 元的《从 0 开始构建 Agent Harness》专栏兑换码。


还在为写 Agent 框架频频死循环、上下文爆炸而束手无策?我的新专栏 从0 开始构建 Agent Harness 将带你:

  • 抛弃臃肿框架,回归“驾驭工程 (Harness Engineering)”的第一性原理
  • 用 Go 语言手写 ReAct 循环、并发拦截与上下文压缩引擎等,复刻极简OpenClaw
  • 构建坚不可摧的 Safety Middleware 与飞书人工审批防线
  • 在底层实现 Token 成本审计、链路追踪与自动化跑分评估
  • 从“调包侠”进化为掌控大模型边界的“AI 操作系统架构师”

扫描下方二维码,开启从 0 开始构建Agent Harness 的实战之旅。


还在为“复制粘贴喂AI”而烦恼?我的新专栏 AI原生开发工作流实战 将带你:

  • 告别低效,重塑开发范式
  • 驾驭AI Agent(Claude Code),实现工作流自动化
  • 从“AI使用者”进化为规范驱动开发的“工作流指挥家”

扫描下方二维码,开启你的AI原生开发之旅。


商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

从“开源英雄”到“社区公敌”,Ollama 到底做错了什么?

本文永久链接 – https://tonybai.com/2026/04/18/ollama-from-open-source-hero-to-community-enemy

大家好,我是Tony Bai。

两年前,在本地大模型的蛮荒时代,Ollama 曾如一道神光,照亮了无数普通开发者的探索之路。

凭借那句魔咒般的 ollama run llama3,它以一种近乎“降维打击”的优雅,将普通人与本地 AI 之间的天堑夷为平地。

一时间,Ollama 被盛赞为“本地 AI 的 Docker”、“开源精神的典范”,几乎成了无数技术布道者口中的“开源英雄”。

但就在几天前,一篇名为《本地大模型生态系统不再需要 Ollama》的文章,在技术社区 Hacker News 上,引发了一场“社区公审”

文章详细罗列了 Ollama 在享受了社区的赞誉之后,犯下的种种“罪行”:从对核心依赖 llama.cpp 长达 400 多天的“选择性遗忘”,到试图用私有模型格式“绑架”用户,再到其背后若隐若现的“VC 商业化”套路……

一夜之间,Ollama 的形象从“屠龙少年”,变成了那条它曾经挑战的“恶龙”。

今天,我们就来深度复盘这场顶级社区的大讨论,看看这位曾经的“开源英雄”,究竟是如何一步步走向“社区公敌”的深渊的。

第一宗罪:对生身之父的“背叛”与“除名”

Ollama 之所以能如此快速地在各种平台上运行大模型,其背后最大的功臣,是一个名为 llama.cpp 的 C++ 开源库。llama.cpp 是真正负责模型推理的底层引擎。

Ollama 的 v0.0.1 版本,在其 README 中曾明确写道:“一个用 Go 编写的快速推理服务器,由 llama.cpp 驱动。”

Ollama 的本质,是一个基于 llama.cpp 构建的、优化了用户体验的“包装器(Wrapper)”。

然而,随着 Ollama 的声名鹊起,llama.cpp 的名字,却在其官网和宣传中,被刻意地、系统性地抹去了。

在 Hacker News 的帖子中,有用户愤怒地指出:

“这根本不是开源礼仪的问题。MIT 协议只有一个核心要求:包含版权声明。Ollama 没有做到。”

“社区注意到了。GitHub Issue #3185 在 2024 年初就被提出,要求 Ollama 遵守协议。这个 Issue 在 400 多天里,没有得到任何维护者的回应。

直到社区忍无可忍,发起了 PR,Ollama 的联合创始人才最终在 README 的最底部,加上了一行极其微小的致谢:“llama.cpp 项目由 Georgi Gerganov 创建。”

这种对核心上游项目近乎“羞辱性”的冷处理,被社区视为一种赤裸裸的“背叛”,激怒了所有信奉开源精神的开发者。

第二宗罪:用“私有格式”构建“数据监狱”

比忘记致谢更让开发者无法容忍的,是 Ollama 为了“锁定用户”,而精心设计的私有化模型存储格式

如果你用过 Ollama,你一定经历过这样的困惑:

你用 ollama pull 下来的模型文件,被存储在你的 Home 目录下,文件名是一串毫无意义的哈希值。你根本无法将这个 GGUF 文件,直接分享给其他工具(比如 LM Studio 或 Jan)使用。

Hacker News 的一位用户一针见血地指出了这个设计的“阴险”之处:

“我停止使用 Ollama 的原因就在于此。我能理解他们可能是为了做去重(Deduplication),但这使得我无法与其他工具共享同一个模型。每个工具都只能指向它自己的文件。无论他们的意图如何,这都在客观上,让你极难尝试其他工具。”

更糟糕的是,Ollama 会在下载模型时,对原始的 GGUF 文件进行一些“魔改”,并使用自己的一套私有配置。这导致了另一个灾难:性能下降

有人在评论中分享道:“我最近开始使用 Jan,然后用 llama.cpp 和本地的 Ollama 跑同一个模型,llama.cpp 的速度明显更快。”

用更差的性能、更封闭的格式,换取所谓“简单”的用户体验。这背后,是典型的“建立围墙花园”的商业化思维。

第三宗罪:“VC 死亡陷阱”的经典复刻

Ollama 为什么要这么做?

一位用户在评论中扒出了 Ollama 创始团队的“前科”,让所有人恍然大悟。

“Ollama 是一家由 Y Combinator 支持的创业公司,其创始人之前构建了一个被 Docker 收购的 Docker GUI 工具。这个剧本太熟悉了:
1. 包装一个现有的开源项目,做一个用户友好的界面。
2. 建立用户基础,获得社区信任。
3. 融资,然后想办法商业化。
4. 最小化对上游的致谢,让产品看起来是自给自足的。
5. 创造锁定,用私有格式和哈希文件名,让用户无法迁移。
6. 推出闭源组件(GUI App)和云服务,开始收割。”

这套从 Docker 时代的 Kitematic 延续而来的“VC 死亡陷阱”,正在本地大模型领域被完美复刻。

社区的反击:大逃杀与“去 Ollama 化”

在这场社区的“公审”中,愤怒之余,开发者们也给出了大量极具建设性的“替代方案”。一场“去 Ollama 化”的大逃杀正在上演。

方案一:回归 llama.cpp 本身,王者归来

很多用户惊讶地发现,在他们唾弃 Ollama 的这段时间里,llama.cpp 自身已经进化成了一个极其强大的“完全体”。

它现在不仅自带了现代化的 Web UI(通过 llama-server),支持 OpenAI 兼容的 API,甚至还推出了“路由模式”,可以实现模型的“热插拔(Hot-swapping)”。

方案二:拥抱真正开放的“包装器”

社区推荐了大量同样易用,但秉持着真正开源精神的替代品,比如:

  • LM Studio:自带强大的 GUI,底层使用 llama.cpp,暴露所有可调参数,支持任何 GGUF 模型,不搞“锁定”。
  • Jan (jan.ai):另一个开源的桌面应用,界面清爽,设计本地优先。
  • llamafile:由 Mozilla 支持,可以将模型和 llama.cpp 本身打包成一个“单一可执行文件”,真正实现“一键启动”,且完全开放。

小结:当便利性遭遇开源精神

Ollama 的故事,是近年来开源商业化领域最值得深思的一个案例。

毫无疑问,Ollama 解决了本地大模型领域一个极其真实的痛点:极致的易用性(Ease of use)。它就像当年的 Docker,让无数普通人跨越了复杂的门槛。

但在追求极致 UX 的同时,它却似乎忘记了自己赖以生存的根基——那个由 Georgi Gerganov 等无数开源贡献者用爱发电构建起来的 llama.cpp 生态。

Hacker News 上的这场论战,并没有全盘否定 Ollama 的价值。但它向所有试图通过“包装开源”来构建商业帝国的创业者,提出了一个极其严肃的警告:

用户体验的简化,永远不能以牺牲“开放性”和对上游社区的“尊重”为代价。

你可以站在巨人的肩膀上,但你不能在站上去之后,假装那个巨人不存在。

作为开发者,我们享受着开源带来的巨大红利。但在选择工具时,除了便利性,我们或许也应该多一份清醒:去看看它的背后,是否隐藏着一个正在试图关上的“围墙花园”。

资料链接:

  • https://news.ycombinator.com/item?id=47788385
  • https://sleepingrobots.com/dreams/stop-using-ollama/

今日互动探讨:

你在使用 Ollama 时,是否也曾被它私有的模型管理方式所困扰?对于“包装开源”并进行商业化的模式,你是支持还是反对?

欢迎在评论区分享你的看法!


还在为“复制粘贴喂AI”而烦恼?我的新专栏 AI原生开发工作流实战 将带你:

  • 告别低效,重塑开发范式
  • 驾驭AI Agent(Claude Code),实现工作流自动化
  • 从“AI使用者”进化为规范驱动开发的“工作流指挥家”

扫描下方二维码,开启你的AI原生开发之旅。


原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!

我们致力于打造一个高品质的 Go 语言深度学习AI 应用探索 平台。在这里,你将获得:

  • 体系化 Go 核心进阶内容: 深入「Go原理课」、「Go进阶课」、「Go避坑课」等独家深度专栏,夯实你的 Go 内功。
  • 前沿 Go+AI 实战赋能: 紧跟时代步伐,学习「Go+AI应用实战」、「Agent开发实战课」、「Agentic软件工程课」、「Claude Code开发工作流实战课」、「OpenClaw实战分享」等,掌握 AI 时代新技能。
  • 星主 Tony Bai 亲自答疑: 遇到难题?星主第一时间为你深度解析,扫清学习障碍。
  • 高活跃 Gopher 交流圈: 与众多优秀 Gopher 分享心得、讨论技术,碰撞思想火花。
  • 独家资源与内容首发: 技术文章、课程更新、精选资源,第一时间触达。

衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

img{512x368}


商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

如发现本站页面被黑,比如:挂载广告、挖矿等恶意代码,请朋友们及时联系我。十分感谢! Go语言第一课 Go语言进阶课 AI原生开发工作流实战 从 0 开始构建 Agent Harness Go语言精进之路1 Go语言精进之路2 Go语言第一课 Go语言编程指南
商务合作请联系bigwhite.cn AT aliyun.com
这里是 Tony Bai的个人Blog,欢迎访问、订阅和留言! 订阅Feed请点击上面图片

如果您觉得这里的文章对您有帮助,请扫描上方二维码进行捐赠 ,加油后的Tony Bai将会为您呈现更多精彩的文章,谢谢!

如果您希望通过微信捐赠,请用微信客户端扫描下方赞赏码:

如果您希望通过比特币或以太币捐赠,可以扫描下方二维码:

比特币:

以太币:

如果您喜欢通过微信浏览本站内容,可以扫描下方二维码,订阅本站官方微信订阅号“iamtonybai”;点击二维码,可直达本人官方微博主页^_^:
本站Powered by Digital Ocean VPS。
选择Digital Ocean VPS主机,即可获得10美元现金充值,可 免费使用两个月哟! 著名主机提供商Linode 10$优惠码:linode10,在 这里注册即可免费获 得。阿里云推荐码: 1WFZ0V立享9折!


View Tony Bai's profile on LinkedIn
DigitalOcean Referral Badge

文章

评论

  • 正在加载...

分类

标签

归档



View My Stats