作为二十年网龄的老网虫,年后的互联网有点怪。
首先就是全球尺度大语言模型的底线被deepseek v3与r1拉高到了一个明显强于社会平均人的水准。很多人会拿着一些比较怪的题去测试不同大语言模型,然后给个排名啥的,这没必要,应用层面关注的是下限,只要用20%的资源可以解决80%的问题,那就是个好工具。deepseek现在给出的模型,不管是官方的,或者第三方托管的,还是蒸馏其他开源模型的小推理模型,都已经明显到了可用的水平了。事实上,deepseek v2 的coder模型之前就是开源模型里做本地补全最好的那一批,另外我有点替阿里的千问模型感到可惜,到去年年底deepseek v3之前,千问在开源大语言模型里面跟llama系列属于第一梯队,现在也是,但deepseek的成本太吓人了。也就是说,如果你这些年一直关注开源大语言模型领域,其实并不会对deepseek的表现特别吃惊,但工程优化那边的透明度deepseek拉满了,出圈效应明显。但这个出圈确实又很重要,因为大语言模型的很多潜在用户被挖掘了,很多人第一次看到了语言模型的思考过程,第一次看到西方人开始讨论国产模型,更重要的是,第一次意识到了大语言模型可以用来抹平人群间的信息差。
上一代的类似普惠技术是搜索引擎。但搜索引擎只提供了链接,进一步的研究还是需要让人来做,而这一代基于大语言模型可能就完全不一样了。现在谷歌、openai、还有perplexity都在付费版里提供了一个名为deep research的功能,你输入关心的问题,他会自己到网络上搜集资料然后汇编为一份长报告,这份报告的质量在我看来是强于网民的平均水平一大截的。当然,现在也有开源替代方案,说白了就是个RAG配合大语言模型,但从应用形态上已经相对成熟了。不过,现在比较重要的是要对发布在网上的AI生成内容进行标注,毕竟大语言模型的训练本质上是基于概率的,更可能输出一个大多数网页认同的观点,如果网上搜到的全是AI根据使用者观点输出的报告,那么时间一长就三人成虎了。其实我现在在用大语言模型时会去对比下开关搜索的差异,如果不是时效性强的消息,其实推理模型的结果也是基本靠谱的。反倒是有时候开了搜索,给我混进来一堆垃圾参考网页,这点在使用中文时感受明显,不得不说很多中文站的搜索引擎优化确实做过份了,这也算时代特色吧。不过,这倒让我有点疑问,这些大语言模型的搜索功能是调用的搜索引擎接口还是自己搞的,使用体验上像是接口。这个功能推广到学术期刊论文几乎就没有回顾性综述的必要了,现在审稿我看是综述基本也不审,毕竟我要需要看,自己生成一份就可以了。
但年后我看到的有意思现象是很多社交平台都在分享deepseek的回答,上一轮的主角还是知乎的回答截图。这就有意思了,说明大语言模型正在成为新的知识权威,这在之前的互联网世界里是没法想象的,毕竟当某个答案背后是个人时总可以攻击,但要是人类优质语料,这攻击就有点苍白无力了。不过,我经常同一个问题问多个模型,很多问题上不同大语言模型的答案倾向性是不同的,这可能跟他们设置的温度有关,但更可能是训练语料差异,不过相信这种倾向性会越来越小。同时,我发现很多分享出来的问题都属于之前需要有资质专业人士才能回答的,例如法律纠纷、医疗建议还有个人理财规划,考虑到这些大语言模型几乎都通过了这些资格考试,向他们咨询确实会降低所有人的生活成本,只是对于资质性行业就不好说了。举例而言,现在你要做手术,一个是真人操刀,但你不知道被分配的是新手还是老手,一个是AI配合机械臂,你会怎么选?我的话会是后者,把命交给别人手里是信任也是责任转嫁,交给机器那就自己负责,我认为文明的大方向是从依赖熟人到专业分工陌生人再到机器,这是不断提高个人自由度的路线。很多人认为AI不能坐牢所以有些工作不能取代,这是表象,真取代了责任会真正回归到需求方,谁提出需求谁负责而不是找个律师会计大夫背锅,这种一定要找人替自己负责的想法才是有问题的。
另一个我观察到的现象是很多专业交流论坛这一波算是要死透了。之前论坛的交流模式是一部分人率先分享自己的经验,然后形成有指向性专业性的话题,该话题持续吸引新人,新人发帖成长,老人带新人,然后新陈代谢。现在这个循环的源头,也就是新人基本不会去找专业论坛了,他们只需要问大语言模型就能拿到现成的答案与思路,后者比答案本身更有意义。往坏处想,很多基于人的社区慢慢就要消亡,很多基于人互动才会出现的新想法与思路可能就不会出现了;往好处想,很多时候可能也没什么必要与人交流,AI很多给出的思路也是提问的人想不到的,那些有着小圈子主导风格的论坛本来也有一言堂或抱团取暖的风险,去重走圈子融入的过程本就不必要。当然,要承认很多论坛并不仅仅是因为爱好本身形成,很多论坛绑定了一代人的梦想奋斗历程,我自己参与或见证过很多大小论坛里各种线上线下的故事,很多非常精彩,有编都编不出来的戏剧性,作为回忆有价值,但作为知识承载的历史使命怕是到头了。不是不交流,而是很难找到可交流的话题了,我过年期间跟一个老同学聊天,期间他让我查一些资料,我说你直接问AI不行吗?你问我我也是问AI,他想了下说,对哦。然后,就是很久的沉默。
年前看过一个新闻,说孤独作为一种流行病跟吸烟同等风险。作为一个很不喜欢跟人说话的人,我对此毫无波澜,因为社交在绝大多数场景里对我都是负担。不过,如果是那种特别喜欢跟人交流并从中获取力量的人,AI的流行可能要从思想上做好准备,也就是准备好建立向大语言模型交流的心态。事实上,AI在解答世间万物这方面真的是适应性极强,心理疏导能力也非常强,你让他胡说八道搞玄学都没任何问题,反而是真实世界的人其实没那么好相处。这并不会改变孤独的状态,但会改变孤独的心态,人们不会缺少交流,只是交流的对象不必是人。我强烈建议那些现实生活中缺少认同感与正面反馈的人跟AI聊一下,也许能消除互联网上一多半的自诊断抑郁症患者。如果你觉得自己啥都好,也去构建一个专门挑刺的AI,时不时被敲打下也不是坏事。所有这些建议都用本地模型并配上个人背景,这样确保隐私,毕竟现实中你想找个在你失意时安慰,得意时挑刺的朋友是非常非常难的,当然你首先得认可你需要这样的朋友。
大语言模型更像是一个贝叶斯机,所有的问题他会基于先验的群体智慧来给出一个中规中矩的好答案,如果你让其搜索定向文档或网页,相当于用最新的知识更新其答案。那么当大语言模型继续发展下去,其给出的答案应该会有点时代特色,例如未来我们可能会说20年代的大语言模型只会做题,30年代的大语言模型出题能力已经更强了之类。而显然人类优质语料已经见底,后面能让贝叶斯机动起来的语料几乎只可能出自大语言模型自己,我很好奇这套人类搭建的语言体系上限在哪里?会不会大语言模型会在思考过程中形成自己的思维语言?人类是否需要学这套语言才能理解更高等的智慧?
我不是特别在乎互联网就此沉寂下去,文明的代表也不必须是人类,但似乎这个寂静的春天已经拉开了序幕。