欢迎来到虫虫开发者社区 — 百万工程师技术资源

网络爬虫编程

源码 3 K 1 次下载

资源详细信息

文件格式
压缩包
文件大小
3 K
资源分类
上传者
发布时间
下载统计
1
所需积分
2 积分

网络爬虫编程 - 资源详细说明

网络爬虫

网络爬虫在CPP中爬行链接到你想要的深度。控制台应用程序

  Ubuntu 14.04 LTS上编译的程序
  用g+编译器编译


相依性

  卷曲
  Boost图书馆


用于编译的命令

  G+爬虫.cpp-lcurl-lost_regex-o爬虫


输入

  URL:您想要抓取示例“dirghbuch.com”的URL
  链接数:要从爬行中提取的每页链接数
  深度:我们想爬多深,在哪里深度可以定义为树的深度。


输出量

  crawler.txt


限制

  链接数最多可达100。
  Does not work for website which has blocked curl crawling for example google.com yahoo.com
  由于缺乏并行性,所以速度很慢。
  没有完整URL的链接被追加到用户在大容量中插入的URLwww.xyz.com有/conatct-us的网址将是www.xyz.com/contact-us
  唯一的单词也包含html标记。


可能的改进,但尚未落实

  限制共享变量的使用
  改进使其易于并行化
  比卷曲更有效的爬行方式

立即下载 网络爬虫编程

提示:下载后请用压缩软件解压,推荐使用 WinRAR 或 7-Zip

下载说明与使用指南

下载说明

  • 本资源需消耗 2积分
  • 24小时内重复下载不扣分
  • 支持断点续传功能
  • 资源永久有效可用

使用说明

  • 下载后使用解压软件解压
  • 推荐使用 WinRAR 或 7-Zip
  • 如有密码请查看资源说明
  • 解压后即可正常使用

积分获取方式

  • 上传优质资源获得积分
  • 每日签到免费领取积分
  • 邀请好友注册获得奖励
  • 查看详情 →

相关技术标签

点击标签浏览更多相关源码资源:

相关源码资源推荐