本文来自微信公众号: 不懂经 ,作者:不懂经也叔的 Rust,原文标题:《AI 时代的张文宏悖论:为什么越用 AI,越觉得自己不值钱了?》,题图来自:视觉中国
前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1 月 10 日在香港高山论坛上的一段讲话,他明确表示:" 我拒绝把 AI 引入医院病历系统。"
因为,未经系统性训练的 AI,会从根本上改变医生的培训路径,破坏或损害年轻医生需要通过传统训练才能掌握的独立诊断能力。
张文宏解释说,他自己当然用 AI,让 AI 先过一遍病例。但关键是,以他三十多年的临床经验,他一眼就能看出 AI 哪里错了。
问题在于年轻医生。
如果一个医生从实习阶段就开始依赖 AI 给诊断结论,跳过了完整的临床思维训练,那他将永远丧失一项关键能力:鉴别 AI 对错的能力。
张文宏的这番话,从一个普通 AI 用户的角度,道破了一个被普遍误解的现实,关于 AI 时代的技能和杠杆。
过去一两年,我看到一种奇特的 " 群体性焦虑 "。
有意思的是,这种焦虑不是来自那些不懂技术的人,恰恰相反,它更多来自那些已经熟练使用 AI 的精英群体:程序员、律师、分析师、自媒体人。
大家最初都兴奋地以为,AI 会让自己成为超人。但短暂的效率狂欢之后,很多人陷入了一种更深的无力感:
当 AI 能以零成本完成 80% 的工作时,我剩下那 20% 的价值,到底能不能撑起我的职业尊严?
如果一个 AI 可以几分钟搞定我两周的代码;如果大模型能秒出一份完美的尽调报告;如果 gemini 或豆包能让毫无绘画基础的人产出大师级作品,如果 gpt 能够 " 准确 " 阅读体检报告或检查报告,那人类技能的护城河,究竟还在哪里?
之前,大西洋月刊曾经发表过一篇文章,说我们正在进入一个去技能化的时代;但硬币的另一面恰恰是:AI 并没有让技能变得无用,它引发的是一场剧烈的 " 技能通胀 "。只是技能要被重新定义。
在一个执行成本趋近于零的时代,AI 就是一面照妖镜。它放大的不仅是你的效率,更是你认知的颗粒度或精度。
你感到 " 废了 ",可能是因为 AI 无情地暴露了一个事实:过去你引以为傲的工作,大部分只是在 " 搬砖 ",是执行,是 " 听话照做 ",而不是在 " 思考 ",更不是提出问题和解决问题。
21 世纪的技能真相,不再关乎你手里有多少工具,而关乎你脑子里有多少原本的真实的杠杆。" 宏观把控 + 微观验证 " 的综合能力,才是 AI 时代真正的铁饭碗。
硅谷有一个广为流传的观点,但常常被误读。
人们说:"AI 是生产力的 10 倍放大器。"
这句话的数学含义,比字面意思更冷酷。
如果你现在的能力是 1,AI 让你变成 10;如果你是 10,AI 让你变成 100。但如果你对某个领域的底层理解是 0,那么,0 乘以 10,依然是 0。
这正是张文宏担忧的核心:一个从实习阶段就依赖 AI 的年轻医生,他的临床判断力可能就是 0。AI 再强大,0 乘以任何数,结果还是 0。
更可怕的是,这个 "0" 自己还不知道自己是 0。
张文宏说得很直白:" 新手医生不能只会依靠 AI 看病。" 为什么?因为即使 AI 准确率高达 95%,那 5% 的错误也需要由专业医生来识别和纠正。
如果医生根本不具备独立诊断能力,他怎么发现 AI 的错误?怎么处理 AI 搞不定的疑难杂症?
这就是我说的 " 张文宏悖论 ",某种层面上,它是个先有鸡还是先有蛋的问题。但另外一个层面上,它强调的是,是人在用工具,还是工具在用人。
它揭示了 AI 时代技能的第一层真相:
AI 的本质是 " 概率的拟合 ",而人类的价值在于 " 后果的承担 "。
过去我们说的技能,往往指的是熟练的执行,熟记语法、背诵法条、掌握各种快捷键。但在 AI 时代,这些硬技能迅速贬值,变成了基础设施。
取而代之的,是一种更隐蔽、更稀缺的能力:判断力。而所谓判断力,就是知晓自己行为的长远后果。
试想一个场景:一位资深工程师和一位新手同时用 AI 写代码。
新手得到的只是代码块。他无法判断这段代码有没有架构隐患,无法预知它在极端并发下的表现,甚至不知道这是不是一个 " 死胡同 " 式的解决方案。
而资深工程师看到的不是代码,是路径。他知道该给 AI 什么任务,知道如何验收结果,更知道当 AI 犯错时该在哪个环节修正,而 AI 一定会犯错。
对于新手,AI 是个黑盒,只能祈祷它输出正确答案。 对于专家,AI 是个无限精力的实习生团队,指哪打哪。
于是,未来的专家与普通人的分野,在于你是否具备 " 验证 AI 输出 " 的能力。
张文宏能一眼看出 AI 的诊断错在哪里,靠的不是什么神秘直觉,而是三十多年临床经验积累出的 " 元能力 "。这种能力,恰恰是被 AI 跳过训练的年轻医生最缺乏的。
所以,如果没有深厚的专业知识作为压舱石,AI 带来的不是效率,而是昂贵的混乱。
为什么有的人能用 AI 解决复杂问题,有的人只能把它当聊天机器人?
问题不在于你不会写 " 咒语 ",而在于你思维的熵值太高。
最近有一种很值得警惕的现象:人们开始把思考本身外包给 AI。
遇到问题,不做拆解,直接把一团浆糊似的需求扔给模型,然后对着平庸的输出发火:" 这 AI 根本就没用。"
其实,不是 AI 蠢,是你没想清楚。
AI 模型再先进,本质上也是基于 " 上下文 " 的预测机器。它的输出质量,严格受限于你输入的上下文质量。这就是 "Garbage In, Garbage Out"(垃圾进,垃圾出)的现代版。
21 世纪的顶级技能,变成了 " 清晰的表达 " 和 " 结构化思维 "。
真正的高手在打开对话框之前,脑子里已经完成了一场严密的推演:
1. 定义问题:我到底要解决什么核心矛盾?
2. 拆解逻辑:这个大问题由哪几个子任务构成?依赖关系是什么?
3. 设定标准:什么样的结果才算合格?
比如,在让 AI 协助开发一个功能前,你是否已经厘清了数据流向?在让 AI 写一篇文章前,你是否已经构建了独特的观点框架?
别指望 AI 替你完成 " 从 0 到 1" 的思考。
AI 擅长的,其实是填充血肉(从 1 到 100),但那个 "1",那个核心的洞察、逻辑的骨架,必须由你提供。
如果你无法清晰地向人类同事阐述你的想法,你也绝不可能从 AI 那里得到满意的结果。
清晰的写作就是清晰的思考。
未来,用自然语言编程将是通用技能。但这不意味着编程变简单了,而是意味着语言和逻辑的精度成为了新的代码。
如果你的思维是混乱的,AI 只会高效率地放大这种混乱。
既然 AI 是基于人类已有的海量数据训练出来的,它天生就带有一个巨大的缺陷:平庸的共识,即向均值回归。
你问 AI 关于健康、理财或历史的观点,它大概率给你一个 " 教科书式 " 的回答。这些回答安全、正确,但往往极其平庸,因为它们只是重复了互联网上出现频率最高的信息。
这就引出了第三个维度:去伪存真的洞察力。
知识(Knowledge)和理解(Understanding)是两码事。
知识是你知道 " 应该这样做 ";
理解是你明白 " 为什么要这样做,以及什么时候不该这样做 "。
这正是张文宏和年轻医生之间的根本差距。
年轻医生通过 AI 可以瞬间获得 " 知识 ",如诊断结果、用药建议、治疗方案。但张文宏拥有的是 " 理解 ":他知道这些知识的边界在哪里,什么情况下要打破常规,什么时候 AI 给的 " 标准答案 " 是错的。
在这个信息过载的时代,如果你只是通过填鸭式教育和算法推荐获取信息,你本质上只是在一个巨大的 " 回声室 " 里机械复述。你并不真正理解事物的运作机制。
要比 AI 更聪明,我们需要比 99% 的人更接近事物的本质(第一性原理)。
想理解商业?不要只看畅销书和公众号,去研究现金流、杠杆、供需关系和人性的贪婪。
想理解健康?不要只信所谓的权威指南,去研究代谢、激素、炎症反应的生物学机制。
当 AI 给你一个 " 标准化建议 " 时,只有那些真正理解底层系统运作的人,才能敏锐地发现其中的漏洞,或者在特殊情境下果断推翻 AI 的建议。
就像张文宏说的:会不会被 AI 误导,取决于你自身的能力有没有强过 AI。而你没办法和 AI 比知识,只能比理解。
未来的竞争优势,属于那些敢于质疑 " 训练数据 " 的人。你需要建立自己的认知体系,这套体系不是抄来的,而是你通过实践、通过痛苦的反馈循环、通过独立思考亲自验证过的。
AI 是全人类知识的平均值。如果你想超越平均值,你就不能只依赖 AI,你必须拥有 AI 无法通过统计概率得出的独到见解。
把视线拉长,历史虽然不会重复,但总是押韵。
1980 年代,电脑的普及曾让当时的会计和律师恐慌不已。在此之前,律师为了寻找一个判例,需要在堆积如山的卷宗中翻找数日。电子检索技术的出现,让这项工作瞬间变成了几秒钟。
律师失业了吗?没有。相反,法律行业变得更庞大、更复杂了。
因为检索变得容易,客户对律师的期望也随之提高。人们不再为 " 找到判例 " 付费,而是为 " 基于复杂判例构建独特的辩护策略 " 付费。
同理,当 AI 接管了代码编写、文案生成、基础诊断之后,人类的角色正在发生本质的跃迁:
我们正在从 " 手艺人 " 进化为 " 指挥官 ";从 " 干活的 " 升级到 " 验收的 "。
过去,一个优秀的工程师可能需要 50% 的时间写代码,50% 的时间思考架构。现在,他可以用 90% 的时间去思考架构、理解业务、优化体验,而把代码工作交给 AI(并由他来审核)。
这意味着,工作的复杂度上限被打开了。
独立开发者现在可以一个人运行一家原本需要十人团队的公司;一个懂行的自媒体人可以一天产出过去一周的内容量;一个资深医生(如张文宏)可以在 AI 的辅助下处理过去根本不可能的病例量。
这就是 AI 时代 " 技能 " 的新定义:
它不再是单一维度的 " 专精 ",而是一种跨维度的整合能力。
你不需要亲自砌每一块砖,但你必须知道大楼的力学结构,必须有审美能力来决定大楼的外观,必须有商业头脑来决定大楼建在哪里最值钱。
这种 " 宏观把控 + 微观验证 " 的综合能力,才是 AI 时代真正的铁饭碗。
张文宏强调的两大关键能力,本质上就是这个意思:
1. 判断 AI 诊断的准确性(微观验证)
2. 诊治 AI 无法应对的疑难杂症(宏观把控)
没有这两项能力的医生,只能算是 "AI 的操作员 "。
回到开头谈到的那个现象:为什么越用 AI,越觉得自己废了?
因为 AI 剥夺了你通过 " 苦力 " 获得成就感的权利。
以前,你花三天时间整理出一份精美的报告,会觉得自己很有价值;现在,AI 三秒钟就能做出来,这种虚幻的价值感瞬间崩塌。
这确实让人痛苦,但更是一种觉醒。
AI 逼迫我们直面那个最难的问题:除了机械的执行,我真正的思想价值在哪里?
对于那些不愿意思考的人,这是一个最坏的时代。他们将彻底沦为算法的附庸,甚至无法察觉自己正在被平庸的信息茧房吞噬。
但对于那些充满好奇心、拥有独立思考能力、渴望探究事物本质的人,这是人类历史上最好的时代:
所有的门槛都降低了。
所有的天花板都消失了。
你拥有了人类历史上最强大的智囊团和执行队,24 小时待命。
张文宏不是反对 AI,他反对的是跳过底层能力建设直接使用 AI,把思考和元认知外包给 AI。
他自己用 AI 用得飞起,因为他有三十年的内功作为地基。AI 对他来说是如虎添翼;而对于没有内功的年轻医生,AI 可能是拔苗助长,饮鸩止渴。
在 21 世纪,技能不会消失,但它会经历一次残酷的提纯。
不要试图和 AI 比赛 " 做题 ",要去和 AI 比赛 " 出题 "。
当你不再把 AI 当作一个帮你偷懒的工具,而是把它当作一个需要你用极高智商去驾驭、去指引、去纠错的超级杠杆时,
你通过 AI 看到的,就不再是平庸的自己,而是一个被无限放大的、强悍的超级个体。








