专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
实验万事屋  ·  还指望那些所谓的“SCI套路”,能让你发10 ... ·  2 天前  
小张聊科研  ·  国自然申请|研究“RNA修饰”的2种常见思路 ... ·  2 天前  
实验万事屋  ·  啥!?做巨噬细胞还要学通路?你再不学PI3K ... ·  4 天前  
51好读  ›  专栏  ›  PaperWeekly

网络表示学习 | 直播预告·PhD Talk #09

PaperWeekly  · 公众号  · 科研  · 2017-06-13 12:50

正文

「PhD Talk」是 PaperWeekly 的学术直播间,旨在帮助更多的大牛 PhD 和青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。
这是第 9 期「PhD Talk」


嘉宾介绍 


涂存超

清华大学博士生


涂存超,清华大学计算机系人智所自然语言处理组四年级直博生,指导老师是孙茂松教授和刘知远助理教授,主要研究方向为社会计算、网络表示学习。目前已在人工智能、自然语言处理等领域著名国际会议(ACL,IJCAI 等)及期刊(ACM TIST,JCST 等)发表相关论文多篇。


活动主题 


真实世界中的实体,通常会互相交互,形成大规模的复杂网络。受到近些年来表示学习的启发,学者们提出了针对网络分析的网络表示学习的方法。网络表示学习目的是将复杂网络中的节点的网络结构信息,编码到一个低维的语义空间中。我们可以将学习到的低维实值的网络节点表示向量,运用到节点分类聚类、链接预测、社区发现等网络分析任务上。针对目前网络表示学习区分性弱的问题,我们提出了基于最大间隔的半监督网络表示学习模型。此外,为了融合网络中的社区特征,我们提出了社区优化的网络表示学习方法,来同时进行网络表示学习及社区发现。为了对社交网络中节点之间的关系进行建模和解释,我们提出了上下文相关的网络表示学习模型及基于平移的网络表示学习模型。


活动时间 


6 月 14 日 本周三 20:00 



活动地点


使用 斗鱼App 搜索房间号「1743775」

通过 PC端 访问:https://www.douyu.com/paperweekly



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。