专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
黄建同学  ·  之前聊过 Claude Computer ... ·  昨天  
宝玉xp  ·  //@前行哲:不错,beta版免费-2024 ... ·  3 天前  
歸藏的AI工具箱  ·  上周AI重要内容:搜索、具身智能、游戏实时生 ... ·  4 天前  
歸藏的AI工具箱  ·  上周AI重要内容:搜索、具身智能、游戏实时生 ... ·  4 天前  
爱可可-爱生活  ·  《爱可可微博热门分享(10.31)》 ... ·  1 周前  
51好读  ›  专栏  ›  机器学习研究会

【学习】淘宝搜索/推荐系统背后深度强化学习与自适应在线学习的实践之路

机器学习研究会  · 公众号  · AI  · 2017-02-16 18:53

正文



点击上方“机器学习研究会”可以订阅哦
摘要
 

转自:阿里技术

1 搜索算法研究与实践

1.1背景

淘宝的搜索引擎涉及对上亿商品的毫秒级处理响应,而淘宝的用户不仅数量巨大,其行为特点以及对商品的偏好也具有丰富性和多样性。因此,要让搜索引擎对不同特点的用户作出针对性的排序,并以此带动搜索引导的成交提升,是一个极具挑战性的问题。传统的Learning to Rank(LTR)方法主要是在商品维度进行学习,根据商品的点击、成交数据构造学习样本,回归出排序权重。LTR学习的是当前线上已经展示出来商品排序的现象,对已出现的结果集合最好的排序效果,受到了本身排序策略的影响,我们有大量的样本是不可见的,所以LTR模型从某种意义上说是解释了过去现象,并不一定真正全局最优的。针对这个问题,有两类的方法,其中一类尝试在离线训练中解决online和offline不一致的问题,衍生出Counterfactural Machine Learning的领域。另外一类就是在线trial-and-error进行学习,如Bandit Learning和Reinforcement Learning。

在之前我们尝试了用多臂老虎机模型(Multi-Armed Bandit,MAB)来根据用户反馈学习排序策略,结合exploration与exploitation,收到了较好的效果。

后来更进一步,在原来的基础上引入状态的概念,用马尔可夫决策过程对商品搜索排序问题进行建模,并尝试用深度强化学习的方法来对搜索引擎的排序策略进行实时调控。


实际上,如果把搜索引擎看作智能体(Agent)、把用户看做环境(Environment),则商品的搜索问题可以被视为典型的顺序决策问题。Agent每一次排序策略的选择可以看成一次试错(Trial-and-Error),把用户的反馈,点击成交等作为从环境获得的奖赏。在这种反复不断地试错过程中,Agent将逐步学习到最优的排序策略,最大化累计奖赏。而这种在与环境交互的过程中进行试错的学习,正是强化学习(Reinforcement Learning,RL)的根本思想。

本文接下来的内容将对具体的方案进行详细介绍。


1.2 问题建模

马尔可夫决策过程(Markov Decision Process,MDP)是强化学习的最基本理论模型。一般地,MDP可以由一个四元组表示:(1)S为状态空间(State Space);(2)A为动作空间(Action Space);(3)为奖赏函数;(4)为环境状态转移函数(State Transition Function)


我们的最终目标是用强化学习进行商品搜索排序策略的学习,在实现的过程中,我们一步一步完成了从简单问题到复杂问题的过渡,包括:

1. 基于值表(Tabular)强化学习方法的商品价格档T变换控制(离散状态、离散动作问题);

2. 基于值表(Tabular)强化学习方法的商品展示比例控制(离散状态、离散动作问题);

3. 基于强化学习值函数估计(Value Function Approximation)的商品排序策略调控(连续状态、离散动作问题);

4.基于强化学习策略估计(Policy Approximation)的商品排序策略调控(连续状态、连续动作问题)。


1.2.1状态定义

假设用户在搜索的过程中倾向于点击他感兴趣的商品,并且较少点击他不感兴趣的商品。基于这个假设,我们将用户的历史点击行为作为抽取状态特征的数据来源。具体地,在每一个PV请求发生时,我们把用户在最近一段时间内点击的商品的特征作为当前Agent感知到的状态。当然,在不同的问题中,状态的表示方法会有所不同。例如,在值表强化学习方法中,状态为可枚举的离散变量;在值函数估计和策略估计方法中,状态则表示为特征向量。


1.2.2 奖赏函数定义

Agent给出商品排序,用户根据排序的结果进行的浏览、商品点击或购买等行为都可以看成对Agent的排序策略的直接反馈。在第四章中,我们将利用奖赏塑形(Reward Shaping)方法对奖赏函数的表达进行丰富,提高不同排序策略在反馈信号上的区分度。


原文链接:

https://mp.weixin.qq.com/s?__biz=MzIzOTU0NTQ0MA==&mid=2247484306&idx=1&sn=b46f4ecbc494c792ced93dc25bd5e0ca&chksm=e9293e9dde5eb78be45ef75790f082d2d16888cef5f26bd80c398a932234e1e3f21c6bb0d41b&scene=0&pass_ticket=YAGPjVA5udi0M%2BW4hfEq%2BgJ29NU4fysQ5Bgo3UdAzxA%3D#rd

“完整内容”请点击【阅读原文】
↓↓↓