简单的xml解析类,能够很好的解析xml文件,编译后的生成文件小
标签: xml
上传时间: 2015-07-12
上传用户:lmeeworm
对于一般的*.exe可执行文件,利用这一工具可以进行反汇编成原代码( 汇编 ),可以很方便的对一些可执行文件进行拆解,包括解析exe形式的病毒.
上传时间: 2013-12-05
上传用户:佳期如梦
图像文件分析,包括创建和解析,包括常见文件格式,gif,jpeg等,使用到了acme的库,请参考下载acme
上传时间: 2015-09-14
上传用户:agent
xml解析程序,对xml文件通过自己写的函数进行格式解析获取数据。
上传时间: 2015-10-04
上传用户:洛木卓
基于xml的元数据系统 解析xml文档,用树状控件可视化出来,并进行修改等操作后,保存后存入xml文件中。
上传时间: 2013-12-08
上传用户:sclyutian
◆◆◆ 《FTP、HTTP 多线程断点续传下载文件》◆◆◆ FlashGet、网络蚂蚁想必大家都很熟悉,他们都是利用多线程同步下载的原理来提高下载速度,同时具有断点续传的功能,这些软件到底是如何实现的呢?答案在代码中揭晓。 代码中的 CDownloadMTR 类就是一个具有多线程断点续传功能的类,同时提供了测试例程。代码中未使用任何CInet类或InternetOpen()等函数,而是直接使用 SOCKET 连接,一步一步解析HTTP/FTP通信协议来完成会话和文件下载,具体细节请参考源代码,由于时间关系,代码有点零乱,错误也在所难免,如有朋友发现我代码中的错误,请来信告知,多谢! 你可以任意修改复制本代码,但请保留这段文字不要修改。 希望我能为中国的软件行业尽一份薄力! ◆◆◆ 作者 ◆◆◆ 谢红伟 · chrys · chrys@163.com · http://www.howa.com.cn ◆◆◆ 日期 ◆◆◆ 2007-05-23 05:47:24
上传时间: 2015-10-20
上传用户:xsnjzljj
1、锁定某个主题抓取; 2、能够产生日志文本文件,格式为:时间戳(timestamp)、URL; 3、抓取某一URL时最多允许建立2个连接(注意:本地作网页解析的线程数则不限) 4、遵守文明蜘蛛规则:必须分析robots.txt文件和meta tag有无限制;一个线程抓完一个网页后要sleep 2秒钟; 5、能对HTML网页进行解析,提取出链接URL,能判别提取的URL是否已处理过,不重复解析已crawl过的网页; 6、能够对spider/crawler程序的一些基本参数进行设置,包括:抓取深度(depth)、种子URL等; 7、使用User-agent向服务器表明自己的身份; 8、产生抓取统计信息:包括抓取速度、抓取完成所需时间、抓取网页总数;重要变量和所有类、方法加注释; 9、请遵守编程规范,如类、方法、文件等的命名规范, 10、可选:GUI图形用户界面、web界面,通过界面管理spider/crawler,包括启停、URL增删等
标签: 日志
上传时间: 2013-12-22
上传用户:wang5829
著名的标准C++的html解析器,能够方便地从html文件中获取数据,同时可以验证html地W3C。
上传时间: 2013-12-18
上传用户:a673761058
C语言实例解析精粹 人民邮电出版社 ◎ 光盘内容说明 1.【Code】目录,包括实例1~190的所有源代码和可执行程序。 2.【Tools】目录,包括TC2.0编译器。 ◎ 光盘使用说明 1. 源代码的使用说明,参见【Code】目录下的CodeReadme.txt文件。 2. TurboC 2.0 的安装方法,参见【Tools】目录下的ToolsReadme.txt文件。 ◎ 技术支持 在光盘使用过程中,如果遇到问题,请发邮件至linread@163.com或zjulinruizhong@yahoo.com.cn与我们联系。
上传时间: 2016-02-01
上传用户:youlongjian0
读取帧包文件,解析帧结构并进行crc校验
上传时间: 2016-02-02
上传用户:AbuGe