虫虫首页|资源下载|资源专辑|精品软件
登录|注册

xpath

xpath即为XML路径语言(XMLPathLanguage),它是一种用来确定XML文档中某部分位置的语言。
  • 主要应用Java进行的的web data Mining 的参考资料

    主要应用Java进行的的web data Mining 的参考资料,有XSLT/XSL/xpath相关技术!

    标签: Mining Java data web

    上传时间: 2013-12-27

    上传用户:xcy122677

  • jQuery是一款同prototype一样优秀js开发库类

    jQuery是一款同prototype一样优秀js开发库类,特别是对css和xpath的支持,使我们写js变得更加方便!如果你不是个js高手又 想写出优 秀的js效果,jQuery可以 帮你达到目的!大家可以看看有keel翻译的jQuery入门

    标签: prototype jQuery

    上传时间: 2013-12-16

    上传用户:520

  • Perl & XML. by Erik T. Ray and Jason McIntosh ISBN 0-596-00205-X First Edition, published April

    Perl & XML. by Erik T. Ray and Jason McIntosh ISBN 0-596-00205-X First Edition, published April 2002. (See the catalog page for this book.) Table of Contents Copyright Page Preface Chapter 1: Perl and XML Chapter 2: An XML Recap Chapter 3: XML Basics: Reading and Writing Chapter 4: Event Streams Chapter 5: SAX Chapter 6: Tree Processing Chapter 7: DOM Chapter 8: Beyond Trees: xpath, XSLT, and More Chapter 9: RSS, SOAP, and Other XML Applications Chapter 10: Coding Strategies Index Colophon --------------------------------------------------------------------------------

    标签: T. published McIntosh Edition

    上传时间: 2013-12-23

    上传用户:yzhl1988

  • ProfessionalAjax 本书是一本关于Ajax技术、模式和使用场景的开发人员级教程

    ProfessionalAjax 本书是一本关于Ajax技术、模式和使用场景的开发人员级教程,不仅介绍了Ajax的基本知识,还讨论了Ajax模式和框架,同时针对XML(包括xpath和XSLT)、RSS/Atom、Web服务、JSON和Web用户界面组件等主题,阐述了如何将Ajax和这些技术有效地结合在一起,并利用Ajax开发的一个WebMail系统实例。书中经典的实例、完整的源代码,都将给读者带来“实战”的指导。与本书配套的源代码可以在图灵网站下载。 本书内容广泛且深入,适用于中高层次的Web网站开发人员。

    标签: ProfessionalAjax Ajax 模式 教程

    上传时间: 2015-09-30

    上传用户:凌云御清风

  • 一个简单的Dom4j解析xml的源程序

    一个简单的Dom4j解析xml的源程序,很简单,使用了xpath,看其文档,使用xpath时没这么复杂,但是,实际使用时往往不是这样的。

    标签: Dom4j xml 源程序

    上传时间: 2014-01-22

    上传用户:hullow

  • 在十种技术中

    在十种技术中,最重要的一种技术我想应该非XML莫属。这里不仅仅指XML规范本身,还包括一系列有关的基于XML的语言:主要有XHTML,XSLT,XSL,DTDs,XML Schema(XSD),xpath,XQuery和SOAP.如果你现在还对XML一无所知,那么赶快狂补吧!XML是包含类似于HTML标签的一个文本文件,在这个文件中定义了一个树型结构来描述它所保存的数据。

    标签:

    上传时间: 2016-10-24

    上传用户:邶刖

  • 在十种技术中

    在十种技术中,最重要的一种技术我想应该非XML莫属。这里不仅仅指XML规范本身,还包括一系列有关的基于XML的语言:主要有XHTML,XSLT,XSL,DTDs,XML Schema(XSD),xpath,XQuery和SOAP.如果你现在还对XML一无所知,那么赶快狂补吧!XML是包含类似于HTML标签的一个文本文件,在这个文件中定义了一个树型结构来描述它所保存的数据。

    标签:

    上传时间: 2014-01-01

    上传用户:rocketrevenge

  • python爬虫获取大量免费有效代理ip--有效防止ip被封

    以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy():     url = 'http://www.xicidaili.com/nn/1'     headers = {         'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',     }     response = requests.get(url, headers=headers)     html_ele = etree.HTML(response.text)     ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')     port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')     proxy_list = []     for i in range(0,len(ip_eles)):         proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]         proxy_list.append(proxy_str)     return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list):     valid_proxy_list = []     for proxy in proxy_list:         url = 'http://www.baidu.com/'         proxy_dict = {             'http': proxy         }         try:             start_time = time.time()             response = requests.get(url, proxies=proxy_dict, timeout=5)             if response.status_code == 200:                 end_time = time.time()                 print('代理可用:' + proxy)                 print('耗时:' + str(end_time - start_time))                 valid_proxy_list.append(proxy)             else:                 print('代理超时')         except:             print('代理不可用--------------->'+proxy)     return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__':     proxy_list = get_all_proxy()     valid_proxy_list = check_all_proxy(proxy_list)     print('--'*30)     print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930

    标签: python ip 代理 防止

    上传时间: 2019-11-15

    上传用户:fygwz1982

  • 《从零开始学Python网络爬虫》

    Python是数据分析的首*语言,而网络中的数据和信息很多,如何从中获取需要的数据和信息呢?简单、直接的方法就是用爬虫技术来解决。本书是一本教初学者学习如何爬取网络数据和信息的入门读物。书中不仅有Python的相关内容,而且还有数据处理和数据挖掘等方面的内容。本书内容非常实用,讲解时穿插了22个爬虫实战案例,可以大大提高读者的实际动手能力。本书共分12章,核心主题包括Python零基础语法入门、爬虫原理和网页构造、第*个爬虫程序、正则表达式、Lxml库与xpath语法、使用API、数据库存储、多进程爬虫、异步加载、表单交互与模拟登录、Selenium模拟浏览器、Scrapy爬虫框架。此外,书中通过一些典型爬虫案例,讲解了有经纬信息的地图图表和词云的制作方法,让读者体验数据背后的乐趣。本书适合爬虫技术初学者、爱好者及高等院校的相关学生,也适合数据爬虫工程师作为参考读物,同时也适合各大Python数据分析的培训机构作为教材使用。详解网络爬虫的原理、工具、框架和方法,内容新,实战案例多详解从简单网页到异步加载网页,从简单存储到数据库存储,从简单爬虫到框架爬虫等技术22个网络爬虫综合实战案例、30个网站信息提取、2500余行代码详解爬虫的3大方法:正则表达式、BeautifulSoup 4库和Lxml库详解爬取数据的4大存储方式:TXT、CSV、MongoDB和MySQL详解Scrapy爬虫框架的安装、项目创建、文件使用及爬取数据的存储

    标签: python 网络爬虫

    上传时间: 2022-05-22

    上传用户:zinuoyu