7 月,犬校共有精华帖 38 篇。我个人最喜欢的是这 5 帖,来自多位犬校同学与我,并节选了其中的部分内容。完整版需要加入犬校才能浏览并参与讨论(文末有社区加入方式)。
8 月我去了巴基斯坦雪湖 snowlake 徒步,走完了这条大概是世界上最难的徒步路线(每年穿越人数不足 50 人),差点死在那里(两次), 侥幸活着回来,所以这次的犬校精华帖只回顾 7 月的内容。
如果想了解雪湖徒步(封面图),可以去微博看我的攻略小号 @纯银的旅行攻略,有这次雪湖线的 3 万字结构化游记。显性知识是以文本、图片、视频形态存在的知识,也就是这个世界上的存量知识。
隐性知识是人的经验与经历,也是组成人类知识海洋的暗物质。
经验与经历无法整理为显性知识。其中存在着海量的上下文与环境变量,也包括不可能精准传递的体感,同时受到个性、天赋等因素的影响。
因此,隐性知识只能以高度浓缩的方式表达出来,由于压缩率太高,一旦表达出口,就像一张严重失真的模糊缩略图,只能了解大意与局部。这就是韩寒那条金句的源头:“听过了许多道理,却还是过不好这一生。”
我们经常说,产品经理是一门实践性的学科,就是指经验与经历的隐性知识不可传递,压缩后的传递损失了太多关键信息。一定得是亲身经历过,做出了选择,也承受了代价,才能掌握产品经理的洞察力。
这个世界上,大量的职业与学科都是如此。显性知识易于获得,隐性知识主宰世界。
而我对大模型是否是「大突破大革命」的悲观,正在于此。
大模型依赖语料,仅对于显性知识的语料来说,搜索>理解>总结>输出,一切都很丝滑,未来的上限是很高的。
但隐性知识主宰世界。
隐性知识是人与人之间无法高效率传递的知识,这个难题几万年来从未被解决过。人类智慧的结晶大多数埋藏在隐性知识内,无法言传,只能身教。我压根无法 “告知” 另一个人的隐性知识,大模型如何得知呢?
因此,显性知识的藩篱不仅限制了大模型(成为人类专家)的前景,其实也限制了人类进行高效率自我提升之路。这个几万年的难题,并不存在有生之年能解决的可能性。
当我们在显性知识的射程内去看待大模型应用,一些低压缩率,高还原度的知识,是可以被大模型高超运用的。比如辅助编程,辅助设计,辅助驾驶,智能客服,智能机器人等等。大模型毫无疑问将改变世界,只是改变的领域和程度受到了语料的限制,也就是受到了隐性知识的限制。二、实战:用大模型辅助计算 MOBA 角色胜率
作为游戏公司的内宣部门的产品经理,我开始研究如何做一个合理的 MOBA 英雄克制关系的分析。这里的算法各家数据网站没有披露,只能求助于 AI。- 有哪些算法可以定量分析 MOBA 游戏中英雄之间的克制情况。
这时候 AI 回答的问题都很基础,要么定性说一堆废话,要么说一堆 “要从若干个维度评价” 的难操作的方法,但常常提到一个词:“胜率”。
AI 会直接告诉你,用 A 英雄对比 B 英雄,哪个胜率高,意味着谁是克制的那一方。
这显然是错的,因为每个英雄在游戏内有自身的胜率,版本强势英雄对阵弱势英雄时胜率天然更高。但这给了我一个启发:如果知道两个英雄对阵的胜率和一些其他信息,似乎可以算出来他们的克制关系。
- A 英雄本身胜率更高,B 英雄胜率低,A 对阵 B 的时候就更容易赢,怎么表现克制呢?
- 已知两个英雄对阵的胜率,还需要知道哪些信息才能判断克制情况?
AI 这时候会给很多具体的算法和机制,比如 ELO(就是天梯分的来源),针对这些算法具体问需要的数据,就可以对照出哪个算法更加合适。
最终我发现了一个用于棒球比赛的算法似乎很合适,名字叫 log5,是已知两队各自的总体胜率,计算两队预期胜率的算法。
算法公式:P(A beats B)=(PA−PA×PB)/PA+PB−2×PA×PB
通过这种算法,我可以算出任意两个英雄的预测胜率,用实际胜率减去预测胜率,就可以得出这个英雄超出预期(更克制)还是低于预期(更被克制),然后进行排序,得到了所有英雄的克制前五和被克制前五。
数据上线后的展示预期非常棒,用户讨论度起码是上去了,我们用一个客观的数据展示,让玩家在选人那几秒内,快速获取英雄推荐和克制分数。
当然,更多的是做的不好的地方,容我慢慢更新到下篇复盘。这是一个 AI UGC 网站,主力用户是色情消费场景。网站运营者基于现在的大模型水平,产品更新和运营节奏堪称典范。下文暂时把这个运营者称为牢韩(已经进去了,所以不是老韩,是牢韩)。
第一个版本的关键词主要是 prompt 预设。牢韩在初期版本做了 chatgpt 入口,以及几个简单的性暗示预设。
第二个版本,牢韩把破好甲的大模型发了出来,允许用户预设角色,把专业的 prompt 分步骤录入。例如创建一个 AI 女友,需要填写 “姓名、身份、性格、装束、对用户的称呼、开场白” 等等,规范并提升角色人设的专业性。这时接入了商业化,但我猜付费数据不是很好,大部分用户白嫖每天 10 条预设 prompt,商业化模式也是按 token 收费。
第三个版本,神来之手,接入了分享功能,用户可以把自己定义的 prompt(人设)分享给他人使用,整个产品从 AI 服务转型成了 AI 平台,内容丰富度指数级爆炸。使用别人的 prompt 消耗的 token,会有 10% 返给作者,供给端的飞轮就这么成长起来。这个版本同时上线了包月功能。此时明显感觉到微信群用户开始增多,客服从 1 个加到了 4 个。
第四个版本,接入更多大模型,从高到低分三档会员。同时支持代码块配置,在很多对话中保存代码块,进一步保证关键信息不遗失,对话感更好。
第五个版本,加入了配音功能。不知道从哪里找到多种语音选择,声音非常逼真,情绪表达也很到位。
这一切的一切,发生在一年的时间内。作者很快被抓,据说盈利过百万等待审判。
首先,我们把这个方向视为基于 AI 对话的 “情感陪伴” 垂直赛道。
所以,逻辑上来说,大模型在情感陪伴方面的预期是相当高的。可能做不到男朋友女朋友那个高度(需要更强烈与细腻的风格化,而风格化一直是强逻辑的大模型的短板);但倾听与陪伴我认为在射程以内。旧版 GPT 面对的问题是,文字在描述声音上有缺陷,不足以完整描述语音的所有信息。
创造一种全新的语音文字,能描述出语音的全部信息,就可以解决问题了。
但问题是,语音有那么么多特征,互相关联。有振幅、频率、环境声音、语气、音色、愤怒、高兴......太复杂了,根本总结不出来。
是不是感觉这个描述很熟悉,人不行,神经网络可以啊!语音肯定是有规律的,并且是可以穷举的。
用神经网络来创造全新的语音文字就行。这个神经网络的输入是语音,输出是想要的语音文字。
不过关于这个网络有个难题,训练成功前不知道想要的语音文字是怎样的,怎么给这个网络准备训练数据呢?
是的,要直接准备训练数据是很难,甚至是做不到的。但是就像文字遮住下文一样,又有机灵鬼,想到了一个办法:不知道输出,但是知道输入。那么把输出再接一个神经网络,要求它还原出输入。
两个神经网络一起训练,输入语音,经过神经网络1,变成中间状态,也就是我们想要的语音文字;再经过神经网络2,又还原成输入语音。这样任何一句语音,就都可以作为训练资料了。
是不是很巧妙,这样的结构就叫自编码器 Auto-encode。
第一个神经网络又叫做编码器 Encode,负责把输入信号变成想要的中间状态,在这里就是语音文字。
第二个神经网络又叫做解码器 Decode,负责把中间状态还原成原来的输入。
Auto-encoder 自编码器的结构,是神经网络结构中非常非常非常常见的一种结构,会在很多问题处理中看到它的身影。
(纯银注:这篇万字长文质量极高,技术解读深入浅出,作者仅凭这一篇文章就可以拿到犬校终身会员)
内容来自“用思考交换思考”的 PM 思辨社区「犬校」。©2017-2024点击查看原文,可见 2023-2024 精华帖目录。