专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
爱可可-爱生活  ·  本文提出了一种“多样性奖励的 CFG ... ·  昨天  
爱可可-爱生活  ·  [CL]《Cheating ... ·  昨天  
黄建同学  ·  #2024年诺贝尔化学奖揭晓##AI教父获诺 ... ·  2 天前  
机器之心  ·  GR-2登场!ByteDance ... ·  3 天前  
机器之心  ·  Cursor创始团队最新访谈:如果Githu ... ·  5 天前  
51好读  ›  专栏  ›  机器学习研究会

【学习】神经网络常用激活函数对比:sigmoid VS sofmax(附python源码)

机器学习研究会  · 公众号  · AI  · 2017-04-14 21:24

正文



点击上方“机器学习研究会”可以订阅哦
摘要
 

转自:云栖社区

本文介绍了神经网络中的两种常用激活函数——softmax与sigmoid函数,简单介绍了其基本原理、性质及其使用,并用python进行了实例化演示,在文章的最后总结了两种激活函数的区别。


Softmax函数VS Sigmoid函数
在学习逻辑回归概念时,主要的困惑在于计算概率的函数,由于在逻辑回归模型中会使用计算出的概率来预测目标类别,经常用到的两个函数是Softmax和Sigmoid函数。
从函数水平(帮助预测目标类别)上来看,这两个函数是相同的,但存在许多明显的数学差异,应用在深度学习和其他领域中,发挥了至关重要的作用。
所以在这篇文章中将进一步了解这两个函数及其应用之间的根本区别。


在开始之前,介绍本文的目录:

  • 什么是S型函数

  • S形函数性质

  • Sigmoid函数使用

  • Python中实现Sigmoid函数

  • 创建Sigmoid函数图像 

  • 什么是Softmax函数

  • Softmax函数的性质

  • Softmax函数使用

  • Python中实现Softmax函数

  • 创建Softmax函数图像 

  • Sigmoid函数与Softmax函数之间的差异

  • 结论 


什么是S函数

数学定义上来看,Sigmoid函数取任何范围实数,返回输出值在01的范围内。S形函数产生“S”曲线这些曲线也用于统计使用累积分布函数(输出范围为01
S函数性质

  • sigmoid函数返回一个实值输出。

  • S形函数的一阶导数是非负的或非正的。

  1. 非负数:如果数字大于或等于零。

  2. 非正数:如果数字小于或等于零。

Sigmoid函数的使用

  • Sigmoid函数用于逻辑回归模型中的二进制分类。

  • 创建人造神经元时,Sigmoid函数用作激活函数

  • 在统计学中,S函数图像是常见的累积分布函数。


原文链接:

https://yq.aliyun.com/articles/73661

“完整内容”请点击【阅读原文】
↓↓↓