% Train a two layer neural network with the Levenberg-Marquardt % method. % % If desired, it is possible to use regularization by % weight decay. Also pruned (ie. not fully connected) networks can % be trained. % % Given a set of corresponding input-output pairs and an initial % network, % [W1,W2,critvec,iteration,lambda]=marq(NetDef,W1,W2,PHI,Y,trparms) % trains the network with the Levenberg-Marquardt method. % % The activation functions can be either linear or tanh. The % network architecture is defined by the matrix NetDef which % has two rows. The first row specifies the hidden layer and the % second row specifies the output layer.
标签: Levenberg-Marquardt desired network neural
上传时间: 2016-12-27
上传用户:jcljkh
Train a two layer neural network with a recursive prediction error % algorithm ("recursive Gauss-Newton"). Also pruned (i.e., not fully % connected) networks can be trained. % % The activation functions can either be linear or tanh. The network % architecture is defined by the matrix NetDef , which has of two % rows. The first row specifies the hidden layer while the second % specifies the output layer.
标签: recursive prediction algorithm Gauss-Ne
上传时间: 2016-12-27
上传用户:ljt101007
该程序是商品库存管理系统是B/s模式的 希望大家指教
上传时间: 2013-12-15
上传用户:haoxiyizhong
鼠标键盘操作 b画线, m拖动点, d删除点
上传时间: 2016-12-29
上传用户:wendy15
给出了线性方程组矩阵Ax=b在并行预处理共轭梯度法求解过程,绝对有用哟
上传时间: 2014-01-06
上传用户:love_stanford
(一) 求a~b 之间各个数的约数个数之和。(其中包括a和b在内) ans = sigma(f(i)) , (a <= i <= b) , 其中f(i)表示i的约数的个数
上传时间: 2016-12-31
上传用户:daoxiang126
高斯列主元素消去法求解矩阵方程AX=B,其中A是N*N的矩阵,B是N*M矩阵
上传时间: 2017-01-01
上传用户:lx9076
数值分析高斯——列主元消去法主程序 说明如下: % a----input,matrix of coefficient % b----input,right vector % sol----output,returns the solution of linear equation
标签: input coefficient matrix vector
上传时间: 2017-01-01
上传用户:dancnc
1.推动教育学发展的内在动力是( D)的发展。A.教育规律 B.教育价值 C.教育现象 D.教育问题 2.提出“泛智”教育思想,探讨“把一切事物教给一切人类的全部艺术”的教育家是( B)A.培根 B.夸美纽斯 C.赫尔巴特 D.赞可夫
上传时间: 2017-01-06
上传用户:1427796291
教师办公管理系统是通过B/S结构搭建的平台,可以方便的进行信息交流和共享
标签: 管理系统
上传时间: 2017-01-08
上传用户:坏天使kk