Sigmoid

共 14 篇文章
Sigmoid 相关的电子技术资料,包括技术文档、应用笔记、电路设计、代码示例等,共 14 篇文章,持续更新中。

人工智能:神经网络与深度学习

<p>神经网络</p><p>神经网络是指用大量的简单计算单元构成的非线性系统,它在一定程度上模仿了人脑神经系统的信息处理、存储和检索功能,是对人脑神经网络的某种简化、抽象和模拟。</p><p>1943年心理学家McCulloch和数学家Pitts合作提出了神经元的数学模型M-P神经元模型,证明了单个神经元能执行逻辑功能,从此开创了神经科学理论研究的时代。</p><p>M-P模型,是按照生物神经元的

深度学习的数学,中文版,高清文字pdf

<p>学python必备,数学得搞好&nbsp; ,嘿嘿嘿</p><p>本书的目的在于提供理解神经网络所需的数学基础知识。为了便于 读者直观地理解,书中使用大量图片,并通过具体示例来介绍。因 此,本书将数学的严谨性放在第二位。 深度学习的世界是丰富多彩的,本书主要考虑阶层型神经网络和卷 积神经网络在图像识别中的应用。 本书将 Sigmoid 函数作为激活函数,除此之外也可以考虑其他函

基于PSO的BP训练算法论文:在BP训练算法中

基于PSO的BP训练算法论文:在BP训练算法中,关于变权值、学习速率、步长的问题已被广泛地研究,几种基于启发式改进的技术也表明具有改善训练时间以及避免陷入局部最小的明显效果。这里BP训练过程由基于PSO同时优化log—Sigmoid函数与网络权值的新算 法(PSO。GainBP)实现。实验结果表明,PSO—GainBP比传统基于PSO的BP算法在网络训练方面具有更好的性能。

用bp神经网络对sin(x)拟合,隐含层采用sigmoid函数

用bp神经网络对sin(x)拟合,隐含层采用sigmoid函数,输出层采用线性函数,

3-1 型sigmoid网络的matlab原程序

3-1 型sigmoid网络的matlab原程序,可以直接运行

2013遗传算法工具箱

<div style="color:#464646;font-family:simsun;font-size:14px;line-height:21px;white-space:normal;background-color:#CDD8DB;"> % 生成训练样本集 </div> <div style="color:#464646;font-family:simsun;font-size:14p

一种基于BP算法学习的小波神经网络

一种基于BP算法学习的小波神经网络,网络隐层采用框架小波函数、输出层采用Sigmoid 激励函数, 并选用“熵误差函数”以加速网络的学习速度。

Probability distribution functions. estimation - (dir) Probability distribution estimation. dsam

Probability distribution functions. estimation - (dir) Probability distribution estimation. dsamp - Generates samples from discrete distribution. erfc2 - Normal cumulative distribution function.

Sigmoid的参数求解matlab源代码

Sigmoid的参数求解matlab源代码,可以嵌入到各种机器学习问题中使用

用BP网络完成函数的逼近 P网络通常有一个或多个隐层

用BP网络完成函数的逼近 P网络通常有一个或多个隐层,隐层中的神经元均采用sigmoid型变换函数,输出层的神经元采用纯线性变换函数。本例应用一个两层BP网络来完成函数逼近的任务,其中隐层的神经元个数是5。

三层前馈神经网络的BP算法。程序具有以下功能: (1) 允许选择各层节点数; (2) 允许选用不同的学习率η; (3) 能对权值进行初始化

三层前馈神经网络的BP算法。程序具有以下功能: (1) 允许选择各层节点数; (2) 允许选用不同的学习率η; (3) 能对权值进行初始化,初始化用[-1、1]区间的随机数; (4)允许选用单极性和双极性两种不同Sigmoid型转移函数。

NN Functions a program in Lisp to demonstrate working of an artificial neuron. (Enter an input vect

NN Functions a program in Lisp to demonstrate working of an artificial neuron. (Enter an input vector X and weight vector W. Calculate weighted sum XW. Transform this using signal or activation funct

用BP网络完成函数的逼近。BP网络通常有一个或多个隐层

用BP网络完成函数的逼近。BP网络通常有一个或多个隐层,隐层中的神经元均采用sigmoid型变换函数,输出层的神经元采用纯线性变换函数。本例应用一个两层BP网络来完成函数逼近的任务,其中隐层的神经元个数是5。

神经网络的样本值对整个网络能否正常运行及误差的大小非常重要

神经网络的样本值对整个网络能否正常运行及误差的大小非常重要,因此本程序不采用让用户自己输入样本植的方法,而自动设定了样本值 该网络采用的作用函数为Sigmoid函数,即f(x)=1/(1+e-x)。网络先对输入的样本值进行训练,当达到规定的训练次数或者网络的整体误差达到规定的精确度时就停止训练。此后,可以输入成绩运行网络得出运行结果。