虽然 ChatGPT 的客观身份是一个语言模型,但可以把它看作是一个巨型数据库 + 超级检索引擎。
- 与 ChatGPT 的对话,实际上是在总结语言上的相关规律,然后做出反馈。
- 系统收集了2021年之前互联网上的大部分信息,以一种解决人类表述的方式去呈现。
模型训练基于人择原理,商业模式则是让用户满意。
- 类 ChatGPT 产品的商业目标是做出让用户满意,并且愿意付费的东西。
- 对于同一个话题,如果它能回答出符合你心意的观点,那么你就会对它有更高的评价,反之亦然。
- ChatGPT 采用了基于人类反馈的强化学习技术(RLHF),概况来说,它会根据人类的偏好,从若干符合文法的句子中,选择一个最接近人类表述的。
- 这可以看作是“人择原理”,因为人类理解的智能是通过这样的语言表述,所以才会觉得用同样表述的 ChatGPT 具有智能概念。
- 人择宇宙学原理(Anthropic Cosmological Principle)很复杂,但简而言之,即谓正是人类的存在,才能解释我们这个宇宙的种种特性,包括各个基本自然常数。因为宇宙若不是这个样子,就不会有我们这样的智慧生命来谈论他。

从深谙废话文学的“狗屁通” …
- 在与其对话的过程中,会熟练使用打太极的技巧,这是它对收集信息的一种模糊总结。
- 这些信息中通常不包含特定的观点,这可能是有意为之。对于一些种族歧视、敏感话题,使用偏激的回答总会伤害到一方的利益,进而阻碍其面向大众的进程。在 GPT-3 发布后有将近1年的时间,团队做了很多限制,让它的对话变得更“安全” (HHH: Helpful、Honest、Harmlessness)
- 从机器学习原理上说,语言模型的输出会受到输入语料的影响。让语言模型的输出倾向某种立场,并不是件困难的事情。
到迎合个体观点的“马屁精” …
- 以写稿子为例,面对同一个时事话题,一个20多岁的时尚女性、和一个40多岁的社会老手,所写出来的文稿风格是不一样的。假设都使用 ChatGPT 作为写稿辅助,只有当小助手生成了他们所喜欢的写作风格,这个内容才是“好的”,这是一种主观的评判。
- 不同人的对话习惯、聊天方式,也会让语言模型产生出不同的稿子。
- 进一步,语言模型系统可以收集使用者的年龄、性别、兴趣爱好,进而做出更加符合目标用户特征的输出。
- 这种差异性会成为关键,因为“人总是愿意相信自己愿意相信的东西”。
- 即使回答中存在“事实性谬误”或者“观点偏颇”,未有足够知识水平来甄别的人群,依旧将其视为真理。
如果人们只打算将其当做一个陪伴聊天的对象,这就很像之前的 电子 QQ 宠物升级版,每天给它喂食、聊天,买各种玩具。
- 因为陪伴的目的,不是要解决某个具体问题,而是让对方感到舒服。
- 这恰恰是语言模型擅长的点。在情感领域,他对人性的理解不容忽视。
再看投资者的狂欢 …

- 这显然是一场炒作,有些公司“年纪轻轻就透支了未来预期”(狗头)
- 然而开除员工以提效的方式,存在隐藏悖论。每个人都能用这个工具,最终的结果就是大家都用这个工具,然后变得越来越卷 …