📄 372.txt
字号:
发信人: nustwater (灌水专用), 信区: DataMining
标 题: Re: svm请教
发信站: 南京大学小百合站 (Mon Dec 16 22:22:22 2002)
得到Lagrange函数后,其鞍点就是原问题的最优解。所谓鞍点,即是相对于Lagrange乘子
最大化,而相对于w和b最小化。后一条件通过求一阶导数的零点,得到两个等式,代入La
grange函数中,就得到对偶形式了。
确实,基于SVM的文本分类等领域早就有人研究了
【 在 fpzh 的大作中提到: 】
: 原问题的Lagrange函数为原目标函数减去Lagrange乘子与约束条件的乘积
: 原问题是最小化,对偶问题就是最大化原目标函数的Lagrange函数,约束为Lagrange..
: 数对x的偏导为0,Lagrange乘子大于等于0
: 对于凸二次优化问题,它的最优解和对偶问题的最优解是一样的
: 不过还要把部分KKT条件代入到目标函数才能得到一般所看到的SvM 的形式(至少我
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -