代码搜索:矩阵分析
找到约 10,000 项符合「矩阵分析」的源代码
代码结果 10,000
www.eeworm.com/read/212253/15161175
m multout.m
% multout.m
P = [ 0.1 0.5; 0.3 -0.2 ]; % 已知输入矢量数据
S1 = 2; S2 =3; S3 = 5; % 已知各层节点数
[ R, Q ] = size (P); % 求出输入矢量的行和列
[ W1, B1 ] = rands (S1, R); % 给第一隐含层权值赋(-1, 1)之间的随机值
[ W2, B2 ] =
www.eeworm.com/read/294317/8241828
txt 说明.txt
人工神经网络BP算法
1、动态改变学习速率
2、加入动量项
3、运用了Matcom4.5的矩阵运算库(可免费下载,头文件matlib.h),
方便矩阵运算,当然,也可自己写矩阵类
4、可暂停运算
5、可将网络以文件的形式保存、恢复
www.eeworm.com/read/269453/11097580
m corrcoef_example.m
%corrcoef_example.m
%计算矩阵的相关系数
x = randn(10000,4); % 4个完全无关随机变量
y(:,1) = x(:,1);
y(:,2) = x(:,2);
y(:,3) = 0.3*x(:,3) + 0.7*x(:,4); %在第3个随机变量和第4个随机变量之间
y(
www.eeworm.com/read/268860/11117787
m 例程14-12.m
% 定义劳伦矩阵
M1 = laurmat(eye(2,2))
Z = laurpoly(1,1);
M2 = laurmat({1 Z;0 1})
% 计算劳伦多项式
P = M1 * M2
d = det(P)
www.eeworm.com/read/266227/11235949
m eig_qr.m
function r=eig_qr(A)
%qr方法计算矩阵特征值
A=hessenberg(A);
%将矩阵转化为上Hessenberg矩阵
[q1,r1]=qr_decomposition(A);
%对上Hessenberg矩阵进行qr分解,直到得到的新矩阵的对角线元素趋近于其特征值
A1=r1*q1;
[q2,r2]=qr_decomposition(A1);
A2=r2*q
www.eeworm.com/read/135779/13900199
m learning_c.m
function d=learning_c(x,c)
%中心的学习
%x为np×ni的输入矩阵。
%c为ni×m的初始中心。
%d为ni×m训练好的中心。
d=even_k(x,c); %对输入进行聚类
tr(1)=sumsqr(d-c);
i=0;
while tr(i+1)~=0
c=d;
d=even_k(x,c);
i=i+1;
tr(i
www.eeworm.com/read/135754/13902369
m learning_c.m
function d=learning_c(x,c)
%中心的学习
%x为np×ni的输入矩阵。
%c为ni×m的初始中心。
%d为ni×m训练好的中心。
d=even_k(x,c); %对输入进行聚类
tr(1)=sumsqr(d-c);
i=0;
while tr(i+1)~=0
c=d;
d=even_k(x,c);
i=i+1;
tr(i
www.eeworm.com/read/300378/13916601
m program_14_12.m
% 定义劳伦矩阵
M1 = laurmat(eye(2,2))
Z = laurpoly(1,1);
M2 = laurmat({1 Z;0 1})
% 计算劳伦多项式
P = M1 * M2
d = det(P)
www.eeworm.com/read/235005/14089198
m 例程14-12.m
% 定义劳伦矩阵
M1 = laurmat(eye(2,2))
Z = laurpoly(1,1);
M2 = laurmat({1 Z;0 1})
% 计算劳伦多项式
P = M1 * M2
d = det(P)
www.eeworm.com/read/201215/15413262
m lu_decompostion.m
function [L,U]=LU_decompostion(A)
%在求解线性方程组Ax=b时,如果能够通过正交变换,将m*n矩阵A分解为A=LU,其中,L为m*m单位下三角矩阵(对角元素为1的下三角矩阵);
%U为A的m*n阶梯型矩阵。这样一来,线性方程组Ax=b即变为LUx=b,它可以简单求解。
%A 是非奇异阵
%————————————————————————————————— ...