专栏名称: 数学人生
欢迎关注数学人生。这里为大家提供江湖八卦,数学秘籍,科研经验,留学总结,转行咨询等各类信息。————读完博士之后,有人问我当年读博士期间一个人夜晚从办公室回宿舍的心情,我想起的不是孤单和路长,而是波澜壮阔的大海和天空闪耀的星光。
目录
相关文章推荐
超级数学建模  ·  不到4折!KAYANO ... ·  昨天  
超级数学建模  ·  闺蜜结婚了结果新郎居然这样看我! ·  昨天  
超级数学建模  ·  男人的内裤,怎么这样了? ·  2 天前  
超级数学建模  ·  限时领 | ... ·  2 天前  
51好读  ›  专栏  ›  数学人生

卷积神经网络背后的数学原理

数学人生  · 公众号  · 数学  · 2017-11-19 07:32

正文

本文来自 概率空间 微信公众号,作者卫然。

原文链接:

卷积神经网络背后的数学原理



从初识机器学习至今,接触卷积神经网络(CNN)也有较长一段时间了。无数次通过梯度下降法对CNN中的参数进行优化,其间的求导运算都由Tensorflow一手包办。相比于一般的神经网络,CNN的梯度计算更为复杂,也很不直观。笔者作为一个数学专业出身的人,一直对CNN的 Back-propagation 过程怀揣着强烈的好奇心。


因此,本文将基于Jianxin Wu(主页:https://cs.nju.edu.cn/wujx/)的讲义Introduction to Convolutional Neural Networks (原文链接:https://cs.nju.edu.cn/wujx/paper/CNN.pdf),总结CNN背后的数学原理并简要介绍各Layer的作用。


本文最初发表于个人博客:https://randomweiblog.wordpress.com/






相关文章推荐:

1. 深度学习与强化学习

2. 当强化学习遇见泛函分析







请到「今天看啥」查看全文