📄 95.txt
字号:
发信人: helloboy (hello), 信区: DataMining
标 题: Re: 对大的数据集的处理?
发信站: 南京大学小百合站 (Wed Dec 26 15:48:20 2001), 站内信件
but the result may not be correct.
Since a small part of data can't represent the whole dataset.
Perhaps disk-resident method will do .But I am not sure about it.
【 在 fervvac (高远) 的大作中提到: 】
: I know some paper uses the following approach:
: Divide the data into 10 parts, train your classifier (etc.) using one part and
: test against the following parts. Do this 10 times.
: 【 在 tyqqre (tyqqre) 的大作中提到: 】
: : 不知道,大家对比较大的数据集的处理是怎样办的?是不是先随机抽取一部分来作..
: : 练例?我看有些论文是将数据集平分成训练集和测试例!
: : 虽然看了一些资料,但是对数据的预处理还是有些模糊。不知道在数据预处理的时..
: : 考虑些什么?在预处理的时候是否只能针对我有的这个数据集?
--
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.38.215.15]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -