⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 368.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: fpzh (fpzh), 信区: DataMining
标  题: Re: svm请教
发信站: 南京大学小百合站 (Mon Dec 16 21:46:06 2002)

原问题的Lagrange函数为原目标函数减去Lagrange乘子与约束条件的乘积

原问题是最小化,对偶问题就是最大化原目标函数的Lagrange函数,约束为Lagrange函
数对x的偏导为0,Lagrange乘子大于等于0

对于凸二次优化问题,它的最优解和对偶问题的最优解是一样的

不过还要把部分KKT条件代入到目标函数才能得到一般所看到的SvM 的形式(至少我是这
样认为的)

具体可以看《实用最优化方法》(P255),R. Fletcher著,游兆永译,天津科技翻译出
版公司,
1990

【 在 boeingjsf (boeingjsf) 的大作中提到: 】
: 在svm中,把最小化转化为最大化的那个对偶理论是怎么回事呀?
: 谢谢!


--
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.113.12.191]

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -