未来时代,大脑的很多努力,越来越比不上工具的迭代速度。
就像以前汽车发明的时候,是贵族的玩具,跑的也远比人的腿快。后来它演化成了公共交通与私人交通两条路线。
如今大模型时代,也是属于有钱的研究机构专属,而它的顶尖能力也超乎平均的人类。未来的演化路径,亦是如此,一方面变成如同水电一般存在的公共设施,另一方面朝着私人定制路线发展。
序言来自上面这篇文章,同时文章里也提到一个事情,即“不断训练自己的提问能力,不断总结复盘与GPT沟通的过程”。这是一个 deep insight 。
于是乎,我把做知识管理界面的想法,变成提问,抛给了它。

一个显著特点是 GPT4 的回答平均而言更长了,把每一项都做了一些展开。让我们来复盘对比下
- 这种展开只是提到提示作用,因为它仍旧是一种幻觉。比如两者都提到了“自然语言处理技术”,前者提到的是 Word2Vec,后者提到了 NLTK 开源库 / GPT。不了解其背后深度概念的话,容易被其蒙蔽住。后面的解释是根据“文本” + 前缀提示词生成的。
- 对于灵感类的问题,GPT4 的回答只是并 GPT-3.5 更长,然而并不一定更好。比如 “数据可视化” 是一个很有意思的想法,然而在 GPT4 的回答中并未提到。所以,依旧可以通过运行多次 GPT-3.5 来得到更多的结果。
- 这涉及一个被称为 Knowledge Extraction 的领域(似乎提到的并不多),怎样高效的从中提取出相对结构化的、有意义的、不重复的信息。(可能会需要用到 presence_penalty 的技巧)

- 我们也可以用一种特殊的 剖析要点 方法,来探究 LLM 究竟是如何理解这个问题的。这种方式会丢失一些精确度,但可以来验证自己描述问题的语言精确性,是否真的是自己想要的。

左下方白色的部分是原本对这个问题的想法,是对于这件事情的一个流程概述。通过转变成提问以后,就可以在比较短的时间获得更多的构想,能有效弥补在头脑思维上的一些盲区。
我其实就主要补充了其中获得用户反馈的过程,这对于系统的持续迭代来说,是很重要的。
然后我用了让 GPT3 画流程图的能力(注:目前有 plantUML 和 mermaid 两种方式,这里用的后者),让它把整个过程画下来,毕竟一图胜千言嘛!

这个图差不多表达了意思,但还是比较粗糙,如果是这种程度的画图,手画可能还会更精确一些。于是,我又开始了 CPU,让它再加亿点点细节。

改进后的图明显要好更多,而且还把反馈部分单独列了出来,说明它知道我所想强调的东西。里面有些细节是不准确的(比如实际上是用户问题经过旁路送给GPT3),有些地方可以更加完善(比如上下文搜索是会用到知识向量引擎的信息的)。但因为本身的表达就是有含糊成分,这样的结果已经可以打个 80 分左右了。
总的来说,未来时代,大脑的很多努力,越来越比不上工具的迭代速度。把LLM这样的工具变成大脑的外挂,就相当于在走一条捷径。如果你同意这个观点,就应该大致能理解一个知识管理操作界面的重要性了。