2674 字

结丹

最近很流行炼化,这么有意思的事肯定得先拿自己试啊,因此我先让AI去读我的博客,让它把里面有价值的观点看法总结出来,先把自己炼化了。

第一轮,AI读了半天,然后总结了十条出来,我当时就懵了,特么又不是摩西,难道写了十几年博客就搞个“于十条”?打开看更伤心了,这十条基本都是2020年之前博客里的内容,感情我后面写的都是垃圾?当然,让我难受的点不是垃圾,我知道有些内容确实水平不够,但没想到剩下的十条水平也不咋地。按我给的提示词,这就说明AI眼里就这些有点价值,而我后面那些文章属于垃圾中的垃圾,问题是我自认为后面有些文章是有点东西的,这就说明我的价值观在AI眼里也是有问题的。然后我试探性问了一句,你读全文了吗?AI想了半天,回答:没有,我就按题目挑了几篇看了下。很好,这说明AI已经发展到会摸鱼的地步了。

第二轮,这次哼哧哼哧全读完了,给我搞了个巨长的文档,打开一看,里面快十分之一是研究速递的吐槽。我问为啥把我对论文的看法给算成有价值的了,这回AI倒也不顶嘴,直接默默把研究速递里内容全删了,最后搞了个语料库,我尝试拿这个微调,效果不理想,经常吐乱码。但我对大语言模型后训练一窍不通,因此直接作罢。

第三轮,这次我终于想起来好几年没更新的《现代科研指北》,我后面本地加了不少内容,但现在看着就头疼,因为里面很多章节都不是要不要更新的问题,而是属于整段要删掉,换成“这个问题请问大语言模型”就可以了。AI费心费力给我做了个更新提纲,我一看就傻眼了,按这个提纲改这书也许会更有用,但跟我也没啥关系了。然后我又试探性问是不是不更新更好,然后AI马上说我也是这个意思,你写个新序言算了,重点强调下AI时代就可以了。然后我突然想到,反正里面有用信息已经少很多了,直接做成skill调用算了,然后我就做了这个。其实说我做的都很勉强,里面内容其实都是AI总结出来的,但我试了一下,起码科研这块确实有我平时看问题的影子了。

其实把skill展开看,就是一种特殊的能力提示词,刻意将思考引导成指定的样子,agent也类似,当然技术上肯定区别很大。但这反而成了现代社会里推崇的分工协作思路的延伸,每个专家可以携带多种技能,不同专家做不同的事,当然这里不要跟MoE概念混了,MoE这个模型构架更多是通过路由控制来节约激活参数,表观上可以形象化为不同专家,但更多是出于工程上节约算力设计的,现在高端模型之所以贵很大原因是因为其是稠密模型,耗电多。提示词本身其实就是一种参数路由,当某个agent挂上某个skill后,本质是强行激活某些参数,防止大语言模型那种对具体问题说空话甚至产生幻觉的情况。原因不难想,当我们面对具体问题时,本来也不需要调用从小学到大学所有的知识来解决,问题本身就是在提取相关知识。

然而,这个分工协作在人类社会运行时会产生一堆副作用,最大的一个就是专业领域专业术语产生的伪门槛。很多知识本身不复杂,但在人类分工产生的那一刻开始就会被人性里自私的那一面打上烙印,他们需要维护特定技能的专利权,不然自己就没有技能带来的安全感。这个现象到了现代社会其实是被加强了,医学、会计与法律术语可以说是最复杂的人造认知体系之一,仅次于官僚术语,除了掌握专业知识本身,还要掌握一套不说人话的语言来识别自己人,这相比农业封建时代的血脉土地传承自然是进步,但这种封闭性会严重阻碍第一性原理出发的问题解决思路。如同人的进化,并不是说我们现在的形态就是最合理的,阑尾、扁桃体,更不用说躺在非编码区那一堆共生的病毒遗迹。如果我们把这些曲折的发展看成正常的,那么AI其实在重新走这条路。

当前AI的训练已经不再主要依赖来自人的语料的,更多的语料来自于合成数据,gpt-3.5这个版本大概就是人类优质语料的巅峰了,但正常人一用就知道里面有严重的幻觉,很多地方缺少优质语料。严格意义上2023年左右,人类的知识精华就已经被炼化完了。后面这几代模型更迭里优质语料本身已经越来越少,更多是通过在合成数据上强化学习实现的。这里最大的问题就在于很多人们关心的问题是没法训练的,例如这道菜是不是对我胃口,没有我的参与,给出的答案一定向大众口味回归且会不断加强,但问题在于很多问题场景性太强没有通用答案,大语言模型训练完了就只会推理,给出的大概率是算命先生的语言,听着合理,实际是废话,显得很圆滑。而大语言模型的另一个训练方向就比较有意思了,那就是给其与物理世界交互的权限,目前在编程上开放个沙盒虚拟机就已经很厉害了,这个思路能学到的东西其实人自己都不知道。

当前的语言模型还没法从原理出发摒弃学科成见来发现物理世界规律,语言模型打补丁的方式就是引入思维链,通过逻辑来打补丁。但推理逻辑本身最大的硬伤就是现实中不合逻辑的行为实在多到让机器崩溃,早些年人工智能的一个研究思路就是通过符号逻辑生成智能,最后一团糟,被基于现实的统计模型甩开。时至今日,能用来形成统计规律的数据已经不够看了,下一步一定是继续开放模型与物理世界交互的权限,此时限制人工智能的可能反而是训练语料里那些我们信以为真的原理与道理,如果没法平衡第一推动代表的理性主义与统计规律代表的经验优先两种思路,那么人工智能的上限可能也就是个超人,但不会是新物种。其实当前训练的另一个方向,也就多模态训练也是在经验上进行补充,毕竟图像语音里更可能包括无法表达成文字的规律。

真正产生限制的就是训练这个行为本身,训练本质就是认为历史存在规律性与价值,因此他们只关注高价值文本来结丹,浓缩的都是精华但精华填不满时间流逝的缝隙。人工智能在智能维度超越人类已经是历史,但超越本身对人工智能可能并无意义。从商业角度看,高端模型普通人用不上或者说在瞎用,用得上全性能的真的是少数,卷性能已经没有现实意义了,你会用高端模型做数学推理?还是说把老板发来的资料做个总结?我现在本机跑的qwen3.5就是个9B模型,已经比我强了,或者说已经可以替代我的一部分工作了,这是普通人最常用场景了,性能要求真不高。而且训练越多,高端模型更可能趋同,也就是模型间差异能品出来的人越来越少。人工智能想逃离泡沫的诅咒,最大的敌人其实是短视频这些占据普通人时间的应用,你总是去宣传人工智能帮我做这个做那个,但省下来的时间都去哪了?抖音?小红书?会有人去读书?人工智能早就把书炼成思维导图了,也没看有人读啊,我看龙虾最大的应用场景好像是生成简报,但有多少人真正去读?还不是收藏了就跟读了一样?搞不好人工智能最大的利好是娱乐业。

把智慧炼成丹,让机器吞下,人却很高兴自己进步了,这也算是文明奇观了。