⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 78.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: GzLi (笑梨), 信区: DataMining
标  题: [合集]关于SVM的feature selection
发信站: 南京大学小百合站 (Sat May 10 18:21:12 2003)

bjxue (南方小孩) 于Wed May  7 09:08:40 2003)
提到:

1)SVM中Vapnik在2000年的feature selection  for SVM一文中介绍了一种将feature se
lection 和SVM整合在一起求解的方法。

事实上他在寻找一个sigma属于0,1将xi*sigma这样作了 一个feature selection


他在在求解sigma 时将sigma的定义为R^n上

the to find the optimum value of sigma one can minimize R^2||W^2||

or some othe differentiable criterion by gradient descent


2)在 feature selection using svm 一文中

作者根据w是对每个attribute 作了一个权重然后根据自己的需要挑选attribute

(一般是选择权重比较大的)


问题:

现在是不是有了另外的一些feature selection based on kernel 

那么他们是怎么回事?

望各位大哥出来讲讲  kernel based feature selection ,  kernel based feature ext
raction

 



GzLi (笑梨) 于Wed May  7 09:47:26 2003)
提到:

【 在 bjxue (南方小孩) 的大作中提到: 】
: 
: 1)SVM中Vapnik在2000年的feature selection  for SVM一文中介绍了一种将feature se
: lection 和SVM整合在一起求解的方法。
: 事实上他在寻找一个sigma属于0,1将xi*sigma这样作了 一个feature selection
: 
: 他在在求解sigma 时将sigma的定义为R^n上
: the to find the optimum value of sigma one can minimize R^2||W^2||
: or some othe differentiable criterion by gradient descent
: 
: 2)在 feature selection using svm 一文中
: 作者根据w是对每个attribute 作了一个权重然后根据自己的需要挑选attribute
: (一般是选择权重比较大的)
: 
: 问题:
: 现在是不是有了另外的一些feature selection based on kernel 
: 那么他们是怎么回事?
: 望各位大哥出来讲讲  kernel based feature selection ,  kernel based feature ext
如果有kernel based FS的话,前面两篇文章可以看做是。
kernel based FE是利用kernel将输入空间映射到特征空间然后在特征空间做
比如PCA等算法,这样就形成了一个kernel PCA解决非线性问题的FE了。
: raction
:  


bjxue (南方小孩) 于Wed May  7 10:06:35 2003)
提到:

KPCA是一个很好的想法,但是我们对与具体问题是

在特征空间中做了PCA后我们就不知道我们的数据是什么意义了

事实上KPCA后得到的数据是经过一个非线性变换然后又是一个线性变换得到的

数据

那么我们回过来问:这样的数据和我们的有现实意义的数据是什么关系?

这样好象我们不能做解答的说;


所以我现在的想法是要通过一个非线性变换(同时做feature selection)

我们能够得到一个很好的分类!~


Gzli  你现在做的好象也是这么一会事,

你在这方面有什么建议吗?


还有各位大哥有什么建议吗?

【 在 GzLi 的大作中提到: 】

: 【 在 bjxue (南方小孩) 的大作中提到: 】

: 如果有kernel based FS的话,前面两篇文章可以看做是。

: kernel based FE是利用kernel将输入空间映射到特征空间然后在特征空间做

: (以下引言省略...)



GzLi (笑梨) 于Wed May  7 10:16:07 2003)
提到:

我做的东西主要还是利用SVM的表达,一者是利用它的分类回归能力
一者是利用它的结构系数,
至于你用用kernel直接跟FS结合做,可以尝试,就我所想象可能是在特征空间FS
然后找到跟原始特征的联系,看原始特征的贡献大小。似乎比较麻烦。
是否可解,尤其是高维特征(原始)下,核又选择的较复杂是个问题。

【 在 bjxue (南方小孩) 的大作中提到: 】
: KPCA是一个很好的想法,但是我们对与具体问题是
: 在特征空间中做了PCA后我们就不知道我们的数据是什么意义了
: 事实上KPCA后得到的数据是经过一个非线性变换然后又是一个线性变换得到的
: 数据
: 那么我们回过来问:这样的数据和我们的有现实意义的数据是什么关系?
: 这样好象我们不能做解答的说;
: 
: 所以我现在的想法是要通过一个非线性变换(同时做feature selection)
: 我们能够得到一个很好的分类!~
: 
: Gzli  你现在做的好象也是这么一会事,
: 你在这方面有什么建议吗?
: 
: 还有各位大哥有什么建议吗?
: 【 在 GzLi 的大作中提到: 】


bjxue (南方小孩) 于Wed May  7 10:28:11 2003)
提到:

的确是有点复杂

    但是好象可以解 

   我昨天和一个做生物信息的教授谈了一下,他也正想在这方面做。


好了谢谢Gzli 我有很多想法没有形成

过两天我在来说我的问题和想法

我现在基本定位为


step 1:kernel based method


step 2: choosing a performance ,I think I'll use SRM  or R^2||w^2|| or soft ma
rgin


step 3: feature selection  


and then my master paper is finished


bless me

【 在 GzLi 的大作中提到: 】

: 我做的东西主要还是利用SVM的表达,一者是利用它的分类回归能力

: 一者是利用它的结构系数,

: 至于你用用kernel直接跟FS结合做,可以尝试,就我所想象可能是在特征空间FS

: 然后找到跟原始特征的联系,看原始特征的贡献大小。似乎比较麻烦。

: 是否可解,尤其是高维特征(原始)下,核又选择的较复杂是个问题。

: 【 在 bjxue (南方小孩) 的大作中提到: 】



GzLi (笑梨) 于Wed May  7 10:56:09 2003)
提到:

Best wishes to you!

【 在 bjxue (南方小孩) 的大作中提到: 】
: 的确是有点复杂
:     但是好象可以解 
:    我昨天和一个做生物信息的教授谈了一下,他也正想在这方面做。
: 
: 好了谢谢Gzli 我有很多想法没有形成
: 过两天我在来说我的问题和想法
: 我现在基本定位为
: 
: 
: step 1:kernel based method
: 
: step 2: choosing a performance ,I think I'll use SRM  or R^2||w^2|| or soft ma
: rgin
: 
: step 3: feature selection  
: 
: and then my master paper is finished
: 
: bless me
: 【 在 GzLi 的大作中提到: 】
: (以下引言省略 ... ...)


⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -