潇大

Feb 08, 2023

2023-02-08 回顾:从“狗屁通”到“马屁精”

虽然 ChatGPT 的客观身份是一个语言模型,但可以把它看作是一个巨型数据库 + 超级检索引擎。
  • 与 ChatGPT 的对话,实际上是在总结语言上的相关规律,然后做出反馈。
  • 系统收集了2021年之前互联网上的大部分信息,以一种解决人类表述的方式去呈现。
 
模型训练基于人择原理,商业模式则是让用户满意。
  • 类 ChatGPT 产品的商业目标是做出让用户满意,并且愿意付费的东西。
  • 对于同一个话题,如果它能回答出符合你心意的观点,那么你就会对它有更高的评价,反之亦然。
  • ChatGPT 采用了基于人类反馈的强化学习技术(RLHF),概况来说,它会根据人类的偏好,从若干符合文法的句子中,选择一个最接近人类表述的。
  • 这可以看作是“人择原理”,因为人类理解的智能是通过这样的语言表述,所以才会觉得用同样表述的 ChatGPT 具有智能概念。
    • 人择宇宙学原理(Anthropic Cosmological Principle)很复杂,但简而言之,即谓正是人类的存在,才能解释我们这个宇宙的种种特性,包括各个基本自然常数。因为宇宙若不是这个样子,就不会有我们这样的智慧生命来谈论他。
 
ChatGPT 使用基于人类偏好的数据,来修正模型的训练过程
来源:ChatGPT: Optimizing Language Models for Dialogue (openai.com)
ChatGPT 使用基于人类偏好的数据,来修正模型的训练过程 来源:ChatGPT: Optimizing Language Models for Dialogue (openai.com)
 
从深谙废话文学的“狗屁通” …
  • 在与其对话的过程中,会熟练使用打太极的技巧,这是它对收集信息的一种模糊总结。
  • 这些信息中通常不包含特定的观点,这可能是有意为之。对于一些种族歧视、敏感话题,使用偏激的回答总会伤害到一方的利益,进而阻碍其面向大众的进程。在 GPT-3 发布后有将近1年的时间,团队做了很多限制,让它的对话变得更“安全” (HHH: Helpful、Honest、Harmlessness)
  • 从机器学习原理上说,语言模型的输出会受到输入语料的影响。让语言模型的输出倾向某种立场,并不是件困难的事情。
 
到迎合个体观点的“马屁精” …
  • 以写稿子为例,面对同一个时事话题,一个20多岁的时尚女性、和一个40多岁的社会老手,所写出来的文稿风格是不一样的。假设都使用 ChatGPT 作为写稿辅助,只有当小助手生成了他们所喜欢的写作风格,这个内容才是“好的”,这是一种主观的评判。
  • 不同人的对话习惯、聊天方式,也会让语言模型产生出不同的稿子。
  • 进一步,语言模型系统可以收集使用者的年龄、性别、兴趣爱好,进而做出更加符合目标用户特征的输出。
  • 这种差异性会成为关键,因为“人总是愿意相信自己愿意相信的东西”。
  • 即使回答中存在“事实性谬误”或者“观点偏颇”,未有足够知识水平来甄别的人群,依旧将其视为真理。
 
如果人们只打算将其当做一个陪伴聊天的对象,这就很像之前的 电子 QQ 宠物升级版,每天给它喂食、聊天,买各种玩具。
  • 因为陪伴的目的,不是要解决某个具体问题,而是让对方感到舒服。
  • 这恰恰是语言模型擅长的点。在情感领域,他对人性的理解不容忽视。
 
再看投资者的狂欢 …
新媒体巨头估计暴涨300%,只因宣布让 ChatGPT 上岗协助内容创作 …
新媒体巨头估计暴涨300%,只因宣布让 ChatGPT 上岗协助内容创作 …
  • 这显然是一场炒作,有些公司“年纪轻轻就透支了未来预期”(狗头)
  • 然而开除员工以提效的方式,存在隐藏悖论。每个人都能用这个工具,最终的结果就是大家都用这个工具,然后变得越来越卷 …

Copyright © 2025 潇大

logo