专栏名称: 产品犬舍
汪汪,汪
目录
相关文章推荐
人人都是产品经理  ·  工作事情太多太碎,怎么合理安排和处理事情? ·  21 小时前  
人人都是产品经理  ·  如何跨界转型,成为AIGC产品经理? ·  3 天前  
人人都是产品经理  ·  有想法就可以有产品,现在不缺程序员了 ·  4 天前  
人人都是产品经理  ·  我被薅了 7000 万,怎么办 ·  1 周前  
人人都是产品经理  ·  双11的流量商战,已经开始了! ·  1 周前  
51好读  ›  专栏  ›  产品犬舍

犬校七月精华帖 TOP5:大模型无法进入的暗物质宇宙,AI 文爱网站短暂的一生,大模型实战 MOBA 胜率计算

产品犬舍  · 公众号  · 产品  · 2024-09-24 11:45

正文

7 月,犬校共有精华帖 38 篇。我个人最喜欢的是这 5 帖,来自多位犬校同学与我,并节选了其中的部分内容。完整版需要加入犬校才能浏览并参与讨论(文末有社区加入方式)。

8 月我去了巴基斯坦雪湖 snowlake 徒步,走完了这条大概是世界上最难的徒步路线(每年穿越人数不足 50 人),差点死在那里(两次), 侥幸活着回来,所以这次的犬校精华帖只回顾 7 月的内容。

如果想了解雪湖徒步(封面图),可以去微博看我的攻略小号 @纯银的旅行攻略,有这次雪湖线的 3 万字结构化游记。
一、隐性知识:大模型无法进入的暗物质宇宙

显性知识是以文本、图片、视频形态存在的知识,也就是这个世界上的存量知识。

隐性知识是人的经验与经历,也是组成人类知识海洋的暗物质。

经验与经历无法整理为显性知识。其中存在着海量的上下文与环境变量,也包括不可能精准传递的体感,同时受到个性、天赋等因素的影响。

因此,隐性知识只能以高度浓缩的方式表达出来,由于压缩率太高,一旦表达出口,就像一张严重失真的模糊缩略图,只能了解大意与局部。这就是韩寒那条金句的源头:“听过了许多道理,却还是过不好这一生。”

我们经常说,产品经理是一门实践性的学科,就是指经验与经历的隐性知识不可传递,压缩后的传递损失了太多关键信息。一定得是亲身经历过,做出了选择,也承受了代价,才能掌握产品经理的洞察力。

这个世界上,大量的职业与学科都是如此。显性知识易于获得,隐性知识主宰世界。

而我对大模型是否是「大突破大革命」的悲观,正在于此。

大模型依赖语料,仅对于显性知识的语料来说,搜索>理解>总结>输出,一切都很丝滑,未来的上限是很高的。

但隐性知识主宰世界。

隐性知识是人与人之间无法高效率传递的知识,这个难题几万年来从未被解决过。人类智慧的结晶大多数埋藏在隐性知识内,无法言传,只能身教。我压根无法 “告知” 另一个人的隐性知识,大模型如何得知呢?

因此,显性知识的藩篱不仅限制了大模型(成为人类专家)的前景,其实也限制了人类进行高效率自我提升之路。这个几万年的难题,并不存在有生之年能解决的可能性。

当我们在显性知识的射程内去看待大模型应用,一些低压缩率,高还原度的知识,是可以被大模型高超运用的。比如辅助编程,辅助设计,辅助驾驶,智能客服,智能机器人等等。大模型毫无疑问将改变世界,只是改变的领域和程度受到了语料的限制,也就是受到了隐性知识的限制。

、实战:用大模型辅助计算 MOBA 角色胜率

作为游戏公司的内宣部门的产品经理,我开始研究如何做一个合理的 MOBA 英雄克制关系的分析。这里的算法各家数据网站没有披露,只能求助于 AI。
  • DOTAbuff 的英雄克制分是怎么算出来的?
  • 如何评估体育比赛中一个队伍克制另一个队伍?
  • 有哪些算法可以定量分析 MOBA 游戏中英雄之间的克制情况。

这时候 AI 回答的问题都很基础,要么定性说一堆废话,要么说一堆 “要从若干个维度评价” 的难操作的方法,但常常提到一个词:“胜率”。

AI 会直接告诉你,用 A 英雄对比 B 英雄,哪个胜率高,意味着谁是克制的那一方。

这显然是错的,因为每个英雄在游戏内有自身的胜率,版本强势英雄对阵弱势英雄时胜率天然更高。但这给了我一个启发:如果知道两个英雄对阵的胜率和一些其他信息,似乎可以算出来他们的克制关系。

于是我又问了一大堆问题:
  • A 英雄本身胜率更高,B 英雄胜率低,A 对阵 B 的时候就更容易赢,怎么表现克制呢?
  • 已知两个英雄对阵的胜率,还需要知道哪些信息才能判断克制情况?
  • 何预测两个英雄遇到时的胜率情况?

AI 这时候会给很多具体的算法和机制,比如 ELO(就是天梯分的来源),针对这些算法具体问需要的数据,就可以对照出哪个算法更加合适。

最终我发现了一个用于棒球比赛的算法似乎很合适,名字叫 log5,是已知两队各自的总体胜率,计算两队预期胜率的算法。

算法公式:P(A beats B)=(PA−PA×PB)/PA+PB−2×PA×PB

通过这种算法,我可以算出任意两个英雄的预测胜率,用实际胜率减去预测胜率,就可以得出这个英雄超出预期(更克制)还是低于预期(更被克制),然后进行排序,得到了所有英雄的克制前五和被克制前五。

数据上线后的展示预期非常棒,用户讨论度起码是上去了,我们用一个客观的数据展示,让玩家在选人那几秒内,快速获取英雄推荐和克制分数。

当然,更多的是做的不好的地方,容我慢慢更新到下篇复盘。
三、AI 文爱网站短暂的一生

这是一个 AI UGC 网站,主力用户是色情消费场景。网站运营者基于现在的大模型水平,产品更新和运营节奏堪称典范。下文暂时把这个运营者称为牢韩(已经进去了,所以不是老韩,是牢韩)。

第一个版本的关键词主要是 prompt 预设。牢韩在初期版本做了 chatgpt 入口,以及几个简单的性暗示预设。

第二个版本,牢韩把破好甲的大模型发了出来,允许用户预设角色,把专业的 prompt 分步骤录入。例如创建一个 AI 女友,需要填写 “姓名、身份、性格、装束、对用户的称呼、开场白” 等等,规范并提升角色人设的专业性。这时接入了商业化,但我猜付费数据不是很好,大部分用户白嫖每天 10 条预设 prompt,商业化模式也是按 token 收费。

第三个版本,神来之手,接入了分享功能,用户可以把自己定义的 prompt(人设)分享给他人使用,整个产品从 AI 服务转型成了 AI 平台,内容丰富度指数级爆炸。使用别人的 prompt 消耗的 token,会有 10% 返给作者,供给端的飞轮就这么成长起来。这个版本同时上线了包月功能。此时明显感觉到微信群用户开始增多,客服从 1 个加到了 4 个。

第四个版本,接入更多大模型,从高到低分三档会员。同时支持代码块配置,在很多对话中保存代码块,进一步保证关键信息不遗失,对话感更好。

第五个版本,加入了配音功能。不知道从哪里找到多种语音选择,声音非常逼真,情绪表达也很到位。

这一切的一切,发生在一年的时间内。作者很快被抓,据说盈利过百万等待审判。

接下来要说的运营层面就更有意思了。
四、论大模型做情感陪伴场景的合理性
首先,我们把这个方向视为基于 AI 对话的 “情感陪伴” 垂直赛道。
  • 情感陪伴的对话是一个相对收敛的场景,而不是开放式场景。在一个收敛场景内,寻求 “提供情绪价值” 的最优解,有着清晰的目标可供计算推演。“寻找最优解” 是大模型概率计算的舒适区,不像内容消费那样,需要大量的多样化解法去实现含混的个性化目标(这是大模型的短板)。
  • 情感陪伴的语料是可穷举的,怎样的表达带来怎样的反应,这种映射相对来说是显性知识,语料库充足,显性知识的还原度高,并不依赖大量隐藏在语言之外的高级经验。
  • 许多人只是受到社交关系、个性、以及自己情绪的影响,因此不会为对方做出恰当的情绪反应,并不是做出恰当的反应很难。他隐隐知道怎么说会让对方开心,但他就是不说。而大模型没有没有任何 “心理负担”,不达(提供情绪价值的)目的决不罢休。
  • 对于一来一去的简短的对话,大模型的组装难度比较低,用户不断发出的 “上文” 提供了足够的提示,口语简短对话的多样性也比较弱,大模型的输出可以做到高度接近人类。
  • 情感陪伴的任务是大量重复的,很适合用机器提供低成本的解决方案。

  • 对于 AI,用户并不像对真人那么挑剔,容错率比较高。
所以,逻辑上来说,大模型在情感陪伴方面的预期是相当高的。可能做不到男朋友女朋友那个高度(需要更强烈与细腻的风格化,而风格化一直是强逻辑的大模型的短板);但倾听与陪伴我认为在射程以内。
五、技术原理: 语音版 GPT-4o 功能揭秘

旧版 GPT 面对的问题是,文字在描述声音上有缺陷,不足以完整描述语音的所有信息。

创造一种全新的语音文字,能描述出语音的全部信息,就可以解决问题了。

但问题是,语音有那么么多特征,互相关联。有振幅、频率、环境声音、语气、音色、愤怒、高兴......太复杂了,根本总结不出来。

是不是感觉这个描述很熟悉,人不行,神经网络可以啊!语音肯定是有规律的,并且是可以穷举的。

用神经网络来创造全新的语音文字就行。这个神经网络的输入是语音,输出是想要的语音文字。

不过关于这个网络有个难题,训练成功前不知道想要的语音文字是怎样的,怎么给这个网络准备训练数据呢?

是的,要直接准备训练数据是很难,甚至是做不到的。但是就像文字遮住下文一样,又有机灵鬼,想到了一个办法:不知道输出,但是知道输入。那么把输出再接一个神经网络,要求它还原出输入。

两个神经网络一起训练,输入语音,经过神经网络1,变成中间状态,也就是我们想要的语音文字;再经过神经网络2,又还原成输入语音。这样任何一句语音,就都可以作为训练资料了。

是不是很巧妙,这样的结构就叫自编码器 Auto-encode。

第一个神经网络又叫做编码器 Encode,负责把输入信号变成想要的中间状态,在这里就是语音文字。

第二个神经网络又叫做解码器 Decode,负责把中间状态还原成原来的输入。

Auto-encoder 自编码器的结构,是神经网络结构中非常非常非常常见的一种结构,会在很多问题处理中看到它的身影。

(纯银注:这篇万字长文质量极高,技术解读深入浅出,作者仅凭这一篇文章就可以拿到犬校终身会员)

内容来自“用思考交换思考”的 PM 思辨社区「犬校」。©2017-2024
社区加入方式:七年产品社区「犬校」2024 年开放加入
点击查看原文,可见 2023-2024 精华帖目录。

推荐文章
人人都是产品经理  ·  工作事情太多太碎,怎么合理安排和处理事情?
21 小时前
人人都是产品经理  ·  如何跨界转型,成为AIGC产品经理?
3 天前
人人都是产品经理  ·  有想法就可以有产品,现在不缺程序员了
4 天前
人人都是产品经理  ·  我被薅了 7000 万,怎么办
1 周前
人人都是产品经理  ·  双11的流量商战,已经开始了!
1 周前
阿何有话说  ·  我内向,我骄傲!
7 年前