⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 372.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: nustwater (灌水专用), 信区: DataMining
标  题: Re: svm请教
发信站: 南京大学小百合站 (Mon Dec 16 22:22:22 2002)

得到Lagrange函数后,其鞍点就是原问题的最优解。所谓鞍点,即是相对于Lagrange乘子
最大化,而相对于w和b最小化。后一条件通过求一阶导数的零点,得到两个等式,代入La
grange函数中,就得到对偶形式了。

确实,基于SVM的文本分类等领域早就有人研究了

【 在 fpzh 的大作中提到: 】

: 原问题的Lagrange函数为原目标函数减去Lagrange乘子与约束条件的乘积

: 原问题是最小化,对偶问题就是最大化原目标函数的Lagrange函数,约束为Lagrange..
: 数对x的偏导为0,Lagrange乘子大于等于0

: 对于凸二次优化问题,它的最优解和对偶问题的最优解是一样的

: 不过还要把部分KKT条件代入到目标函数才能得到一般所看到的SvM 的形式(至少我

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -