正文
在犬校,最近一年我和其他人对于 “大模型的能力边界” 有许多讨论,也有很大的分歧。少数人认为潜力无限大,互联网行业再造辉煌,人类社会也将迎来拐点;多数人认为无法预测未来,只能保持观望;而我认为逻辑上来说,大模型是存在能力边界的。对边界的预测可以减少投入上的浪费,毕竟少即是多。一、人类无法向大模型提出有效的目标:1.1、大多数人提问和追问的能力低下,无法向大模型完整地描述目标。2.1、有时候目标过于精确且复杂,精确描述和不断修订目标的成本过高,还不如自己实干更符合直觉,而模糊目标无法产出高价值的交付。3.1、高质量的内容创造往往来自于灵感,而不是一个具体的目标,灵感无法表达,只能感受。二、人类无法向大模型输出有效的语料:2.1、「经历」的信息量巨大,无法被转换为文本/图片/视频/音频,成为显性知识。2.2、「感受」千人千面,无法有效表达, AI 也无法真实理解。2.3、「经历+感受」内化为经验,而经验无法以显性知识的方式高效率传递,经验也是人类成长为专家的必经之路。因此,大模型的能力边界不是由技术水准决定的,而是受困于人类的表达边界,受制于人类无法输出足够丰富的语料,提出足够精确的目标。这些隐性知识的语料和基于直觉的目标,都埋藏在人的内心,自己可以感知,却无法有效传递给任何对象。如果认为大模型可以通过技术上的涌现,大力出奇迹突破边界,我持反对意见。这时用 ChatGPT 的涌现来打比方是很不精确的,是缺乏逻辑凭据的幻想,为什么不干脆幻想永生或治愈癌症与秃头呢?下个月,我会把这些想法整理成一篇长文发公众号。