0%

穿透力--《预测之书:来自未来的好消息》

今年的跨年,我既没有看罗胖的演讲,也没看 B 站的晚会。那天晚上出去和别人聊事情,到家将近 9 点;第二天还得带娃出去考试,所以简单收拾一下就睡了。

第二天翻了翻罗胖的文稿,感觉没太多新的资讯和观点。尤其对我这种对未来总带着不安和焦虑的人来说,它提供的安慰有限——或者说,提供的更多是“热闹”,不是“答案”。

文稿的最后依然是卖书:新一年的《变量》和《钱从哪里来》,这次还多了一本新的《预测之书》。我猛地一想:去年的《预测之书》都还没开始看,新的一本又来了,钱不能这么浪费。

于是今天早上,喝着熟悉的咖啡、听着熟悉的古典乐,我把这本属于上一个年度的《预测之书》看完了。

穿透力–《预测之书:来自未来的好消息》

《预测之书》是 2024 年邀请了不少行业和智库的专家,请他们谈谈新的一年会发生什么变化。它的编排方式挺“理工”:参照笛卡尔坐标系,按主题分成四个象限——未来的我会更好吗、未来的世界会变得更糟吗、哪些机会正在涌现、现在的我应该关注什么。

张五常是个喜欢预测未来的经济学家。他说过:整理过去发生了什么、提出什么理论,其实多多少少都是一个自圆其说的过程;真正难的是用这些从过去整理出来的理论和框架去预测未来。这既需要自信,也需要胆识。因为话语会被留下,未来一定会来——一旦被打脸,那可能是一辈子的事。

回到2025年初

让我们重新回到 2025 年初,我们还能回忆起什么?

DeepSeek-R1 横空出世,Llama 3 气势汹汹,ChatGPT-4o 仿佛继续刷新人类对 AI 的认识;Claude Code 的智能体雏形开始显影。主流观点大体一致:大模型“有能力但很笨”,需要自己拿语料去训练和调优;RAG 知识库崭露头角,提示词工程如火如荼;对了,低代码的 n8n 工作流也开始大行其道。

这一切的共同背景是:我们好像越来越确信“未来会变”,但又很难确定“会变成什么样”。

回归“何以为人”的哲学话题

第一篇文章是刘擎教授的文字:人类会以一个 2.0 的版本存在。话题回到“何以为人”的哲学命题——那只不理哲学、只管开心生活的小猪,可能慢慢也开心不起来了。因为技术文明的哲学追问,越来越重要、紧迫且现实:技术不再只是外置的工具,而是开始深刻地嵌入我们的身体、认知、情感和体验;人的自我理解与身份认同,也必然要跟着转变。现有的文化约束和身体限制,正在被一层层突破。

以前,人类的价值标准无论多么多元,都深刻依赖于“人如何理解自己”、以及支撑这种理解的意义结构。假如人类获得终极永生和自由:没有死亡和风险,就很难再谈畏惧与珍惜;没有身体受伤害的威胁,就很难再谈勇敢这类美德;如果无须努力就能心想事成,卓越与智慧从何而来;如果资源不再匮乏,善意和友爱又凭什么被激发?障碍消失之后,自由又是什么?

技术从来不只是“被人发明来使用的工具”。技术的存在与使用,会反过来深刻影响我们的身体、精神、情感与社会文化——技术始终在形塑人类。每一次技术革命都会改变生活形式,也推动文化演化:社会一边抵抗,一边“驯服”新技术,把它融入生活,让它最终顺应、甚至重塑我们对美好生活的理解。

AI加持下如何学习

2025 年,OpenAI 和 Google 的大模型已经能够拿下国际数学奥林匹克比赛的冠军、国际信息学比赛的冠军——衡量人类智力高度的一些标尺,确实在被突破。很多人会说:大模型有幻觉、不稳定。辛顿老爷子回应得很直白:难道人就没有幻觉?很多时候,人类复述过去发生的事情,也会夹带自己的“幻觉”;人的发挥同样极不稳定。相比之下,大模型并不算那么不靠谱。

和菜头在这个问题上有自己的见解。他认为学习,是一个人在“人类总书库”里读了多少本书;读得多,就学得多。学习行为可以看作是占据信息,并把信息做内部关联的过程。AI 是否会替代人类,讨论起来刺激,但现实意义未必最大;真正关键的是新生代的孩子能不能掌握新工具,能不能在新工具的加持下探索个人能力的边界——这才是他们适应未来工作与挑战的核心。

在一个大部分司机还在驾马车的世界里,会开汽车的人,即便仍然做司机,也可能在很长时间里保有优势。未来的工作者怎么办?和菜头的建议很干脆:要么加长自己的长板,要么去对抗新工具。前者是充分使用 AI 扩展自己的长处——如果处在被熊追赶的场景,你只要比最慢的人快一点就够;后者则是回到“何以为人”:哪些特质是自己独有的,是机器无法简单替代的。

关于教育的未来

脱不花觉得:未来教育资源会变得充裕且廉价,但教育水平的差距不会因此消失——不是书多了,博士就会多。馒头大师在文章里写到:校友聚会时大家会为价值观争得面红耳赤,但有一个话题却能一致认同——“我们的孩子,应该考不上我们毕业的这所大学了”。对孩子教育的焦虑,我也和大家一样;这点上,我和馒头大师的感觉是同频的。

我也越来越苦恼:孩子怎么不太愿意阅读了?馒头大师提醒得很现实:阅读是好事,但阅读也有门槛。无论成人还是孩子,都不是轻而易举就能进入那个瑰丽世界。我们小时候的成长环境里,红白机可能就是顶级享受,哪有手机和平板,更别提视频和网络游戏。所以我们“被迫”拥有大量时间和动力去跨越那道阅读门槛,并在那个世界里沉浸。对今天的孩子来说,阅读门槛本身没变,但跨过去的难度变大了——诱惑太多了。

他给家长的建议也很“反直觉”:找一个好的游戏,和孩子一起互动。通过陪伴、引导、激发,而不是控制、指挥、替孩子做决定。“堵不如疏,长期共存,互有攻守,共同进步。”

池晓认为:个性化教育会成为主流。智能时代尤其需要一些能力:

  • 表达能力与提问能力变得越来越重要
  • 判断创意好坏的能力,往往比想出创意更有价值
  • 在真实场景中学习
  • 在失败中学习
  • 动态更新的通识教育
  • 接受更多“非良构”(零散的、非系统的)的教育
  • 终身学习

我一直认同希腊时代提出的“自由七艺”教育理念:语法、修辞与逻辑(文科三艺)加上算术、几何、天文学与音乐(理科四艺)。阅读、写作、逻辑,与代数、几何同等重要;天文学可以扩展成常识与科学,音乐扩展成艺术。这才更像一个孩子面对未来的基本盘。所谓奥数,其实只是代数与逻辑的一部分;过分重视奥数,未必真的学会了逻辑,很多时候只是机械地学会用初等数学解代数题。而这些已经是 AI 攻克的山头:如果不是天赋异禀,就没必要和 AI 斗智斗勇——和挖掘机比蛮力,本身就有点可笑。

少数人的成功建立在多数人失败的环境里,这套逻辑正在变。因为 AI,使得教育平权了、知识平权了、积累平权了、经验平权了,真正被凸显出来的是个人能力。回到商业社会:之所以有人愿意付钱,是因为你创造了别人需要的价值。你创造的东西不是别人要的,或者达不到别人的需求,自然没人买单。认识不到这一点,教育是不完整的;找工作也会没思路。

赛博时代的孤独

人是社会性动物,渴望归属感、理解与情感支持。而这些深刻的连接往往依赖非语言交流:触摸、眼神、肢体语言——这些在虚拟世界里很难被完整替代。年轻人表现出来的,可能是社交焦虑与对赛博世界的过度依赖;老年人则可能因技术障碍而感到被边缘化。

真正的情感连接,取决于投入的时间与交流的质量,而不是通过数字工具堆砌出来的浅层互动数量。我们会被算法捕捉:手机上被推送的信息,究竟是自己主动选择的,还是被算法一步步诱导过去的?

虚拟与现实交织的时代,如何找到平衡,并保持对生活本质的清醒认知——这是一种现代意义上的“英雄主义”。

一年后的今天

一年后的今天,AI 世界仿佛进化了几个代际:ChatGPT 已经不再一家独大;苹果和 Gemini 合作搞手机智能;Claude Code 征服了编码世界,由它提出的 MCP 协议与 Skill 能力让它有点“独孤求败”;Gemini 在 DeepMind 加持下推出了高水平的图片生成模型;Llama 系列开源模型开始全面溃退,开源大模型成了中国公司的世界。

参考 OpenRouter 的用量(不一定完全准确),大模型服务使用量前 20 的榜单中,属于开源模型的有:

  • MiMo-V2(小米·北京)
  • DeepSeek-V3.2(DeepSeek·杭州)
  • GLM 4.7(质谱·北京)
  • MiniMax M2.1(MiniMax·上海)
  • GPTOSS-120B(OpenAI·美国)
  • Devstral 2 2512(Mistral AI·法国)

这个不太准的榜单再加上 Kimi 的 K2(北京)和阿里的 Qwen(杭州),大致能看出:中国的大模型研发方阵集中在北京、上海、杭州。广东竟然没有一个能打的模型能上榜,这让我很难过。

二十年前,我在广州读软件,算是正式开启了计算机行业的人生旅途。多年后从学生变成从业者,老师也慢慢成为院校领导,但这个行业似乎已经远远被北上杭超越了——这种落差,不但是统计意义上的,而且是情绪意义上的。

前几天的 AGI-Next 会议,AI 圈的新生代多是 90 后;我们 80 后似乎开始慢慢不那么引人注目了。有人问:未来几年,头部 AI 公司出现在中国的概率是多少?Qwen 的负责人说 20%。我们国产模型和美国模型的距离其实在拉大;质谱唐杰也说,如果产品出现失败,估计半年就会退出市场。

宏大的叙事,解决不了自己当下的处境

AI 成了当下科技的主旋律,而广东却拿不出一个能经得起市场检验的模型。所谓先发优势和产业集群,似乎也不太可能在身边真正成型;更多可能的产业是项目集成,卖卖 AI 项目和设备。可话说回来,这好像也没错——那我又何苦这么难受呢?

宏大的叙事,解决不了自己当下的处境。小人物的生活和工作,总是充满着各种的艰难和无奈。时代与技术的变化,对普通人来说,总会手足无措,铁路铺开的时候,马车是拼不过火车的。

大模型当然有优势,但门槛同样真实存在。即便是开源大模型:哪个模型擅长什么?它更适合对话模式、MCP 工具模式,还是智能体模式?不同模型需要什么设备、多少卡、多少内存?一张 4090 到底能跑到最好用的哪一档?从 npm 安装、python 安装到各种基础环境配置,对非计算机专业的朋友来说都是费劲的;哪怕使用 CherryStudio 这种更友好的第三方软件,环境配置、提示词撰写也需要技术背景。尤其当调用大量第三方库,一旦遇到问题,不熟悉的人很容易手足无措。

大部分人连 Qwen 都没用明白:量化后的能力和 GPTOSS 的差异到底在哪?但你如果真上手,很快会感受到:GPTOSS 在资源紧张的设备下,确实有明显的速度优势和更高质量的任务完成能力;如果试过智能体与工具调用,也会更容易意识到 DeepSeek-R1 和 GPTOSS 在很多场景里确实优于其他模型。抛开设备选型和算力,空谈大模型能力,其实都是耍流氓。

结语

实话实说,来自未来的未必都是好消息。但哲学思维的价值,恰恰在于它能穿透“眼下的噪音”和“宏大的叙事”,逼着我们把问题问回到自己身上:到底什么值得珍惜,什么值得投入,什么才是我在这个时代里真正要站稳的地方。