⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 svm.m

📁 MATLAB中应用支持向量肌(SVN)神经网络对模式识别处理
💻 M
📖 第 1 页 / 共 3 页
字号:
0.4162	0.2875	0.1334	0.1206	0.08039	0.17	0.1239	0.07449	0.04344	0.03259
0.2354	0.137	0.07848	0.0498	0.02266	0.1722	0.1461	0.1005	0.07612	0.05504
0.3119	0.2903	0.0974	0.0997	0.0966	0.1363	0.09716	0.06211	0.041	0.0344
0.3191	0.2452	0.09253	0.07112	0.05566	0.1518	0.1059	0.07925	0.05357	0.04315
0.3298	0.2374	0.1725	0.1128	0.5548	0.1378	0.1058	0.06073	0.04095	0.02924
0.4361	0.2718	0.1222	0.1013	0.06803	0.1419	0.113	0.1028	0.07612	0.02698
0.3829	0.2309	0.1948	0.09944	0.07762	0.1476	0.1163	0.0623	0.02467	0.01538
0.3462	0.248	0.1803	0.1394	0.1024	0.2246	0.2075	0.1748	0.07069	0.04883
0.4098	0.2374	0.1725	0.1428	0.1148	0.1839	0.1515	0.1024	0.08236	0.05577
0.3413	0.2674	0.1706	0.09945	0.08897	0.2436	0.1903	0.07899	0.03196	0.01839
0.3851	0.275	0.197	0.1436	0.1313	0.2242	0.1727	0.0613	0.05501	0.02306
0.4076	0.2085	0.1105	0.05602	0.02857	0.1576	0.1183	0.08635	0.05556	0.0252
0.386	0.2868	0.2085	0.1128	0.1093	0.144	0.09476	0.05909	0.03863	0.01973
0.3829	0.2309	0.1948	0.09944	0.07762	0.2068	0.139	0.1216	0.078	0.0176
0.3872	0.2186	0.1502	0.1051	0.07756	0.1241	0.1105	0.0729	0.05765	0.02724]'

x1=[1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4]
% 数据修改  47% 
%n2=[-0.1 0.01 0.0911 0.185 0.245 -0.08 -0.015 -0.065 -0.14 0.025 0.145 0.03 -0.015 -0.07 0.134 0.03 0.045 -0.255 -0.145 -0.08 0.195 0.03 -0.25 0.015 0.242 0.195 0.015 0.032 -0.045 -0.175 -0.05 0.075 0.035 0.085 -0.255 0.09 -0.122 0.052 0.065 0.075 0.005 -0.17 -0.175 0.21 0.121 -0.255 0.165 0.015 0.045 -0.145 -0.015 0.01 0.055 0.245 0.085 -0.03 -0.105 0.165 0.075 0.085 -0.04 -0.11 -0.05 -0.165 -0.31 -0.145 -0.22 -0.045 -0.15 -0.345 0.11 0.015 -0.18 0.075 -0.28 -0.47 -0.12 -0.04 0.085 -0.13;
    %0.32 0.143 0.185 0.105 0.205 0.083 0.0352 0.1321 0.033 0.145 0.195 0.154 0.255 0.275 0.265 0.232 0.33 0.038 0.185 0.255 0.278 0.001 -0.065 0.143 0.1452 0.205 0.115 0.155 0.025 0.035 -0.035 0.165 -0.035 0.221 0.065 0.215 0.135 0.383 0.185 0.185 0.115 0.167 0.085 0.241 0.323 0.192 0.315 -0.105 0.154 0.431 0.182 -0.205 0.155 0.321 0.235 0.165 0.135 0.135 0.222 0.185 0.445 0.145 0.205 0.045 0.155 0.205 0.185 0.325 -0.165 0.115 0.125 0.225 -0.225 -0.552 0.235 0.001 -0.115 -0.112 0.122 0.132;
   % 0.04 0.072 -0.07 -0.221 0.132 -0.025 0.015 -0.175 -0.12 -0.025 0.05 0.165 0.083 0.045 0.045 -0.13 -0.01 -0.155 -0.04 -0.03 0.08 -0.12 -0.14 -0.035 -0.01 0.06 0.025 0.245 -0.012 -0.063 -0.045 -0.015 0.06 0.12 0.013 0.244 0.053 0.035 0.132 0.013 -0.061 -0.083 -0.26 -0.233 0.075 -0.02 0.045 0.07 0.11 -0.14 -0.05 -0.025 -0.132 0.135 0.025 0.022 -0.205 -0.17 0.01 0.085 -0.015 -0.41 -0.19 0.001 -0.24 -0.11 -0.08 -0.14 -0.03 -0.025 -0.065 -0.02 -0.08 -0.12 -0.105 -0.29 -0.155 -0.04 -0.02 -0.06;
   % -0.05 -0.035 -0.17 -0.375 -0.02 -0.26 -0.14 -0.045 -0.02 -0.16 0.05 0.035 -0.135 0.14 -0.08 -0.09 0.005 -0.20 -0.085 0.12 -0.07 -0.24 -0.325 -0.13 -0.05 -0.06 -0.155 -0.045 -0.096 0.04 -0.04 0.135 -0.06 -0.02 -0.225 -0.155 -0.015 -0.06 0.18 0.001 -0.055 -0.08 0.045 -0.19 0.07 -0.16 -0.03 -0.06 -0.04 0.125 -0.24 -0.09 -0.12 0.162 -0.08 -0.115 -0.31 -0.04 -0.08 -0.23 -0.06 -0.19 -0.13 -0.25 -0.145 -0.12 -0.21 -0.25 -0.08 -0.165 -0.135 -0.22 -0.06 -0.02 -0.215 -0.09 -0.41 -0.075 -0.19 -0.13]
%x2=[1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4]

%原始数据   20%
n2=[0.3066	0.2173	0.1357	0.0672	0.04254	0.4141	0.2887	0.224	0.0778	0.1943
0.2605	0.1935	0.1442	0.1025	0.06474	0.3487	0.2455	0.1911	0.1183	0.06296
0.3026	0.1756	0.1066	0.07867	0.0563	0.5903	0.4313	0.3991	0.3301	0.1655
0.3204	0.2074	0.1543	0.1055	0.08051	0.3465	0.1855	0.1286	0.09603	0.09651
0.3003	0.212	0.1637	0.1194	0.08854	0.3465	0.1928	0.1241	0.0926	0.02926
0.2643	0.1904	0.1506	0.1291	0.09769	0.4947	0.3245	0.2719	0.255	0.1996
0.262	0.1869	0.133	0.1147	0.04623	0.4422	0.2388	0.1314	0.07466	0.03397
0.2706	0.1543	0.091	0.06842	0.04673	0.4971	0.4495	0.2615	0.2068	0.08268
0.2756	0.1783	0.1234	0.06184	0.04863	0.4108	0.3196	0.2484	0.1802	0.114
0.2595	0.174	0.1345	0.1136	0.05835	0.3914	0.3442	0.197	0.14	0.1019
0.2357	0.1854	0.1401	0.08618	0.05083	0.3427	0.2499	0.2004	0.1831	0.1642
0.2436	0.1602	0.131	0.1146	0.03712	0.4213	0.3843	0.2985	0.1408	0.1051
0.2706	0.1543	0.091	0.06842	0.04673	0.4971	0.4495	0.2615	0.2068	0.08268
0.2379	0.1596	0.1101	0.07064	0.06705	0.5119	0.3479	0.2555	0.1615	0.07123
0.2357	0.1854	0.1401	0.08618	0.05083	0.3427	0.2499	0.2004	0.1831	0.1642
0.2984	0.1973	0.1558	0.1168	0.04273	0.4609	0.3296	0.2592	0.2355	0.1422
0.3245	0.258	0.188	0.1011	0.07827	0.4566	0.3121	0.07637	0.05426	0.0512
0.253	0.1905	0.1606	0.0932	0.08484	0.3815	0.273	0.2306	0.1422	0.105
0.3172	0.2503	0.1525	0.1175	0.06488	0.4978	0.3498	0.267	0.1885	0.1095
0.2469	0.1916	0.00916	0.0682	0.0264	0.4181	0.3227	0.1795	0.1132	0.08948
0.3061	0.1501	0.07541	0.05767	0.03728	0.08897	0.05745	0.03534	0.02746	0.02268
0.2928	0.2269	0.1473	0.1009	0.06514	0.1087	0.07386	0.06602	0.04861	0.02458
0.3261	0.2694	0.1735	0.1327	0.1201	0.09192	0.0653	0.05072	0.02912	0.02573
0.3936	0.2148	0.1597	0.07115	0.05291	0.1131	0.08467	0.06975	0.06069	0.04105
0.3649	0.1891	0.1127	0.08083	0.03427	0.09644	0.07667	0.05332	0.03579	0.02693
0.3637	0.2366	0.1842	0.1232	0.06156	0.1082	0.06373	0.03768	0.0266	0.01306
0.3462	0.248	0.1803	0.1394	0.1024	0.1175	0.07651	0.04559	0.03636	0.03234
0.4098	0.2374	0.1725	0.1428	0.1148	0.1181	0.09662	0.03939	0.02647	0.02157
0.3413	0.2674	0.1706	0.09945	0.08897	0.1186	0.09684	0.08511	0.0687	0.03554
0.3851	0.275	0.197	0.1436	0.1313	0.1075	0.07763	0.05481	0.04578	0.04193
0.3784	0.2786	0.1299	0.1038	0.06199	0.112	0.1002	0.0697	0.04102	0.03698
0.3261	0.2694	0.1735	0.1327	0.1201	0.09192	0.0653	0.05072	0.02912	0.02573
0.3989	0.2836	0.1795	0.1359	0.1285	0.102	0.1066	0.08077	0.05729	0.0253
0.3649	0.1891	0.1127	0.08083	0.03427	0.121	0.08288	0.05803	0.05043	0.04788
0.3948	0.2842	0.1381	0.0825	0.1141	0.1116	0.08567	0.04614	0.03869	0.02297
0.3811	0.2566	0.2041	0.1316	0.05012	0.1136	0.09829	0.06986	0.05041	0.02355
0.4076	0.2085	0.1105	0.05602	0.02857	0.1127	0.0818	0.06392	0.04779	0.03574
0.386	0.2868	0.2085	0.1128	0.1093	0.1142	0.08363	0.07118	0.03671	0.02668
0.3829	0.2309	0.1948	0.09944	0.07762	0.089	0.05745	0.03534	0.02746	0.02288
0.3872	0.2186	0.1502	0.1051	0.07756	0.1122	0.1002	0.0697	0.04102	0.03698
0.1944	0.1344	0.08911	0.07077	0.06299	0.3245	0.2426	0.1587	0.04624	0.04066
0.1752	0.151	0.11	0.1003	0.06794	0.3952	0.3333	0.1657	0.1466	0.141
0.2609	0.1828	0.1228	0.1131	0.07349	0.5937	0.4321	2794	0.2287	0.1079
0.1894	0.1275	0.1089	0.05754	0.04377	0.4197	0.2643	0.1836	0.1696	0.1232
0.2528	0.1769	0.1599	0.1149	0.07392	0.528	0.3445	0.2605	0.1817	0.08807
0.1684	0.09823	0.07031	0.05865	0.04059	0.4064	0.3307	0.2325	0.1746	0.1566
0.1815	0.1386	0.09682	0.06708	0.04781	0.4468	0.3768	0.3153	0.268	0.1181
0.1459	0.1012	0.07736	0.04293	0.0314	0.3186	0.2577	0.1687	0.1149	0.09182
0.1921	0.1613	0.143	0.1049	0.05965	0.3744	0.2644	0.2248	0.1894	0.1206
0.1854	0.1411	0.0812	0.0424	0.03398	0.3788	0.2299	0.101	0.06233	0.03213
0.1771	0.1043	0.08031	0.04995	0.03449	0.3815	0.273	0.2306	0.1422	0.105
0.1773	0.1104	0.08155	0.04932	0.02451	0.3471	0.2195	0.1719	0.1178	0.1093
0.1706	0.1017	0.06015	0.04211	0.03462	0.3396	0.1984	0.1045	0.05272	0.04299
0.1506	0.08778	0.06083	0.03166	0.02753	0.4079	0.2866	0.126	0.1169	0.08921
0.1555	0.1235	0.08281	0.06462	0.0567	0.4068	0.2549	0.1723	0.1192	0.09939
0.1805	0.1179	0.07706	0.04081	0.03552	0.3905	0.321	0.1304	0.06539	0.05561
0.1404	0.09726	0.06411	0.04189	0.02155	0.4406	0.2687	0.193	0.09314	0.06491
0.1737	0.1058	0.08523	0.04828	0.02924	0.456	0.262	0.2287	0.1996	0.1201
0.1574	0.09068	0.07044	0.0549	0.0411	0.3696	0.2813	0.1621	0.1375	0.119
0.1599	0.09374	0.07137	0.04796	0.04027	0.3905	0.1833	0.1127	0.06366	0.0535
0.3396	0.2285	0.1647	0.1471	0.0784	0.1555	0.1212	0.1018	0.09709	0.06911
0.4138	0.2889	0.1357	0.06496	0.0441	0.2484	0.1683	0.1413	0.1157	0.01681
0.2543	0.1801	0.1131	0.08648	0.06785	0.1846	0.1497	0.1218	0.06232	0.04515
0.2948	0.1993	0.1141	0.09066	0.05919	0.1949	0.1671	0.1357	0.06733	0.0592
0.2187	0.1466	0.1062	0.09575	0.08838	0.1386	0.1037	0.05508	0.0301	0.0286
0.2602	0.1936	0.1511	0.1303	0.112	0.1294	0.06769	0.0453	0.02471	0.01854
0.3311	0.2483	0.2352	0.14	0.08499	0.1757	0.1435	0.1112	0.02748	0.01671
0.29	0.1563	0.1436	0.1081	0.0873	0.1798	0.1284	0.1109	0.1017	0.07002
0.2557	0.1665	0.1549	0.04602	0.03449	0.2276	0.09191	0.0694	0.03844	0.01514
0.2579	0.2229	0.1629	0.07591	0.05771	0.1705	0.09039	0.07068	0.0742	0.01831
0.3457	0.1858	0.1482	0.09657	0.03509	0.226	0.1376	0.1171	0.05694	0.04225
0.3523	0.2043	0.1349	0.09242	0.04402	0.1925	0.1454	0.1111	0.085	0.06024
0.4625	0.3877	0.1973	0.136	0.1217	0.1579	0.1117	0.0924	0.03456	0.02188
0.5091	0.4448	0.2847	0.2736	0.08984	0.2054	0.162	0.1104	0.04705	0.0364
0.3061	0.1501	0.07541	0.05767	0.03728	0.2238	0.2047	0.1657	0.1077	0.09818
0.2928	0.2269	0.1473	0.1009	0.06514	0.1388	0.06188	0.04765	0.02406	0.01718
0.3784	0.2786	0.1299	0.1038	0.06199	0.1804	0.132	0.09684	0.05619	0.04992
0.3261	0.2694	0.1735	0.1327	0.1201	0.2219	0.1255	0.1	0.08241	0.02495
0.2811	0.2203	0.1817	0.0828	0.03257	0.2063	0.1125	0.09054	0.07212	0.03864
0.3119	0.2408	0.2094	0.1287	0.04976	0.1856	0.1368	0.08419	0.06293	0.02899]'

x2=[1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4]
xn_train = n1;          % 训练样本
dn_train = x1;          % 训练目标

xn_test = n2;           % 测试样本
dn_test = x2;           % 测试目标
%---------------------------------------------------
% 参数设置

Samples1 = xn_train; 
Labels1 = dn_train;
Samples2 = xn_test; 
Labels2 = dn_test;

Gamma = 1;
C = 1;

%---------------------------------------------------
% 训练与测试

% 训练
% 输出参数即是训练结果,其物理意义相当于网格结构参数,用于测试及新样本识别时的输入
% 这里使用 RbfSVC 函数训练,还可以使用 LinearSVC PolySVC 等函数来训练

[AlphaY, SVs, Bias, Parameters, nSV, nLabel] = ...
    RbfSVC(Samples1, Labels1, Gamma, C);

% 测试
[ClassRate, DecisionValue, Ns, ConfMatrix, PreLabels] = ...
    SVMTest(Samples2, Labels2, AlphaY, SVs, Bias,Parameters, nSV, nLabel);

%---------------------------------------------------
% 输出参数
% ClassRate      -  正确分类率, 1x1;
% DecisionValue  -  判别函数的输出(仅对2类问题有效), 1xN;
% Ns             -  每一类的样本数, 1x(L+1), 或 1xL;当为1x(L+1)时,最后一个元素不属于任何一类
% ConfMatrix     -  错判矩阵 (L+1)x(L+1), or LxL, 这里 ConfMatrix(i,j) = P(X in j| X in i);
%                   当为 (L+1)x(L+1) 时,最后一行和最后一列是那些不属于任何一类的样本
% PreLabels      -  实际测试输出, 1xN. 

%---------------------------------------------------
% 结果统计

Result = ~abs(PreLabels-Labels2)       % 正确分类显示为1
Percent = sum(Result)/length(Result)   % 正确分类率


⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -