⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 382.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: fpzh (fpzh), 信区: DataMining
标  题: Re: svm请教
发信站: 南京大学小百合站 (Tue Dec 17 11:05:51 2002)

是的,Lagrange函数的鞍点就是原问题的解,这种说法在周志华的综述和Vapnik的论文
(Support Vector Network)中也看到过,今天才有一点体会。

刚才想到,鞍点并不是函数最高点,可对偶问题中求的是最大值。不过后来想,对偶问
题中是有约束的最大值,它的解应当就是鞍点吧(随便猜的,证明的没有)


【 在 nustwater (灌水专用) 的大作中提到: 】
: 得到Lagrange函数后,其鞍点就是原问题的最优解。所谓鞍点,即是相对于Lagrange乘子
: 最大化,而相对于w和b最小化。后一条件通过求一阶导数的零点,得到两个等式,代入La
: grange函数中,就得到对偶形式了。
: 确实,基于SVM的文本分类等领域早就有人研究了
: 【 在 fpzh 的大作中提到: 】
: : 原问题的Lagrange函数为原目标函数减去Lagrange乘子与约束条件的乘积
: : 原问题是最小化,对偶问题就是最大化原目标函数的Lagrange函数,约束为Lagrange..
: : 数对x的偏导为0,Lagrange乘子大于等于0
: : 对于凸二次优化问题,它的最优解和对偶问题的最优解是一样的
: : 不过还要把部分KKT条件代入到目标函数才能得到一般所看到的SvM 的形式(至少我

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -