人脑 v.s. 机械脑
生物结构上的差异。
显存 v.s. 算存
不要把鸡蛋放在一个篮子里,如果放不下的话。
大任务之殇
很遗憾,人脑的算存是有限的,会对大任务说NO
五分钟启动法
很有趣,你可以欺骗大脑,从简单的事情开始
奴隶 vs 机械
当分配任务时,存在一种迫切要执行的动力
自我PUA v.s. 毁灭
甚至通过自我pua来驱动运行,否则便进入一种混沌、趋于自毁的模式
Why human brain as LLM?
为什么人脑可以看作LLM方法?因为两者的工作模式确有类同之处。
Token in token out
对于LLM来说,一切皆为 token,即把所有的文字全部编码映射到一个数字上。数字是几不重要,数字之间的转移概率更重要。
Instruction Tuning
指令学习,将关于任务描述本身,编码成token。与任务的输入放到一起。其巧妙之处,类似于在证明哥德尔不完备定理时,搞了个编码体系,把定理及其证明都放了进去。
(instruct tuning 示意图)
提示词工程
由于这种特性的出现,诞生了提示词工程这个新领域。通过写出更贴切的指令,就可以提升回答的质量。同样地,在现实世界中,更明确的需求也带来更确定的结果。
更深层的提示词(Meta Prompt)
是否存在一个能适用于指令的指令呢?其实是有的。在人类社会中,这个通常称为道德伦理约束。“占领高德高低以立于不败之地”。例如在OpenAI的网页版ChatGPT时,就会在前面加一句隐藏的“you are a helpful honest assisant”。(那如果换成 evil assistant 呢?)
人脑中更深的提示词
在不被意识到的地方,亦存在更深层的提示约束。这些“道德指令”不会被意识到,但却潜移默化地影响决策。
拆除与重建
也存在一些特殊的方法可以修改这些设置(就像开发者可以深入LLM内部定制提示词一样),但通常涉及心理学或者更复杂的一些技术。
拆除不是目的,只是手段。通过重建,才可建立可意识到的提示词设置。
何为究竟?
如上所述只是一种浅显的类比,借由LLM的工作机理,尝试解构人脑运行时的一些有趣现象。
退一万步说,万一它们本是同根生呢?